¿Hay bibliotecas de inteligencia artificial sobre emociones?

Al igual que en, ¿podemos simplemente hacer referencia a algunos archivos DLL en el amor y llamarlo un día?

No. Nuestro mejor modelo de cómo una IA desarrollaría emociones, que se apoya en algunos intentos de modelar el comportamiento emocional, es que es un sistema emergente. Básicamente, es un subproducto que se puede obtener en situaciones en las que un sistema alcanza un nivel específico de complejidad.

Como tal, las emociones teóricas de la IA serían una parte inherente de la IA en lugar de un módulo separado.

Un poco

Marvin Minsky (cofundador del laboratorio de inteligencia artificial de MIT) dijo:

La pregunta no es si las máquinas inteligentes pueden tener emociones, sino si las máquinas pueden ser inteligentes sin emociones.

Por “bibliotecas de inteligencia artificial sobre emociones”, si quiere decir bibliotecas mediante las cuales podemos modelar emociones humanas en un sistema de inteligencia artificial simplemente utilizando dicha biblioteca como un módulo, entonces no, ni siquiera cerca. Las emociones humanas son demasiado complejas para ser modeladas de esa manera.

¡Pero! Si con eso, te refieres a un software que se puede hacer para “entender” e “imitar” las emociones humanas simplemente entrenándolas usando una cantidad de oraciones que muestren diferentes emociones, entonces sí. Hay muchos.

Me gustan las API de detección de emociones de IBM Watson. Utilicé su analizador de tonos para analizar todos los debates presidenciales de EE. UU. Desde 2004 para ver si hay alguna correlación entre ciertas emociones (como la esperanza, el miedo, la ira, etc.) expresadas en los debates y quién “gana” el debate. Y estas APIs eran perfectas para eso.

Donald Trump tuvo el puntaje ‘analítico’ más bajo.

Umm no mierda, Sherlock! 😛

Dos direcciones posibles:

¿Tenemos bibliotecas de IA para detectar y procesar emociones humanas? Sí.

Abarca desde la optimización de HMI (un laboratorio MIT tiene 150 artículos publicados sobre el tema: Grupo de computación afectiva (Grupo de computación afectiva)) para aplicaciones médicas. Un ejemplo es Simsensei: “Multisense automáticamente rastrea y analiza expresiones faciales en tiempo real, postura corporal, características acústicas, patrones lingüísticos y descriptores de comportamiento de nivel superior …”. Papel aquí: Morency

Otra área es la optimización del diálogo basada en la teoría de las “señales honestas” de Sandy Pentland. Las pistas no verbales en el tono, la entonación, la postura revelan lo que sentimos y podemos ser recogidos por la IA. Varias aplicaciones comerciales como Cogito, Chorus.ai.

Sin embargo, no estoy seguro de que parte de ese trabajo esté disponible en bibliotecas utilizables.

¿Podemos agregar el apoyo de una reacción emocional (y expresión) a un modelo de IA? Trabajo en progreso.

Una emoción puede verse como diferentes estados de procesos cerebrales: una respuesta a un contexto. Pánico en un incendio, ralentización de las actividades en depresión. Un modelo de AI puede priorizar dado un contexto. No lo llamaremos emoción, pero hace lo mismo …

Un enfoque técnico es un modelo de aprendizaje por refuerzo – bibliotecas estándar aquí

Profundizar: el “vuelo de lucha” del cerebro primitivo cuando el contexto es en realidad más pensamientos que hechos, se vuelve más problemático. La máquina puede usar un diccionario emocional para ajustar su respuesta a los humanos. Pero no diseñamos aviones para volar como pájaros, ¿por qué deberíamos volver a poner este nivel de comportamiento humano dentro de la máquina?

Si desea trabajar con las emociones en el texto, puede echar un vistazo a los Dominios de WordNet (WordNet Affect). Es un repositorio estructurado para emociones de WordNet.

Emoshape EmoShape – Síntesis de emociones para IA y robots – Emoción sintética ha desarrollado un motor de emociones que sintetiza estados emocionales para máquinas inteligentes como resultado de un proceso cognitivo. El dongle USB viene con un SDK.