¿Cómo reconocen los sistemas de inteligencia artificial las emociones de las personas?

La inteligencia profunda para reconocer emociones todavía está en el proceso de I + D; Sin embargo, pudimos hacer un proceso significativo:

1-) Necesitábamos alguna formulación matemática de las emociones para poder traducirlas a un lenguaje en el que una máquina las entendiera. (Comprender y determinar son dos cosas muy diferentes). Por lo tanto, una cooperación interdisciplinaria llevó al mapeo biométrico de la cara humana. Estos mapeos comprenden los conjuntos de datos para las emociones humanas.

2-) Utilizando varios métodos (cualquier modelo de ML, incluso knn) podemos determinar las emociones de las personas hasta cierto punto. Sin embargo, el verdadero desafío son los valores atípicos como estos:

  • Una persona llorando por extrema felicidad.
  • Una persona sonriendo debido a la extrema ira.

Hay intentos que utilizan señales visuales, y tienden a hacerlo mediante el análisis de imágenes. Pero este método opera solo en el nivel de expresión y no en el nivel de causalidad; solo adivina si una emoción está presente pero es débil en esto. No puede decir a partir de una imagen cuál es la causalidad emocional, y por lo tanto no sabe nada sobre la causa raíz. Por ejemplo, la imagen de una mujer que llora no dice nada sobre por qué se ve triste: puede que se esté casando con su hija y en realidad está muy contenta, pero llora.
Un sistema de análisis de emociones adecuado deduciría de las respuestas de una persona y las acciones de ellos, y agregaría la parte visual observable.
En cuanto a los sistemas basados ​​puramente en el texto que buscan palabras clave emocionales, estos también son propensos a errores si no analizan el contexto de la situación y la historia. Una persona puede emitir una palabra que podría tomarse para la ira, pero no significa eso. Se requiere un contexto más amplio para una correcta interpretación.