Tu Google sería tan bueno como el mío para las cosas existentes.
Pero si tuviera que acercarme a esto, no tendría más remedio que reexaminar las micro expresiones, que analizan a fondo las expresiones faciales de las emociones humanas básicas.
Luego escribía software (probablemente en Java) para identificar las regiones de una cara que eran responsables de identificar estas emociones. Los ojos (arrugas alrededor de los ojos para una verdadera sonrisa / felicidad), la nariz (arrugas para el disgusto), las comisuras de la boca, etc.
Luego tomo tantos videos de personas que hacen estas expresiones como pueda, probablemente algunos materiales de entrenamiento de micro expresiones, o algunas imágenes generales de personas haciendo caras. Los normalizaría a un tamaño estándar y haría que el motor extrajera pequeñas matrices de píxeles de las áreas faciales correspondientes. Podría querer controlar por raza o género para simplificar esto.
- ¿Por qué siento que estoy flotando cuando caigo dentro y fuera de un sueño?
- Neurociencia: ¿Por qué la visualización de imágenes emocionales es menos exitosa para inducir emociones de valencia positiva que las de valencia negativa?
- ¿Cómo se siente cuando tus respuestas de Quora se marcan innecesariamente?
- ¿Sentir las cosas profundamente siempre es malo?
- ¿Qué puedo hacer para superar el sentimiento de depresión cuando algo que amo está por terminar?
Luego, probablemente los pasaría a través de una red neuronal como un clasificado y proporcionaría datos sobre la sensación real.
Luego podría continuar las pruebas con temas reales (técnicamente, se podrían hacer todos ellos con un solo tema por razones de simplicidad) y entrenar la red para clasificar correctamente las piezas.
Sume los resultados acumulativos de las áreas faciales y aplique un poco de lógica difusa y tendrá un detector de emociones faciales en funcionamiento (dado el nivel de restricciones que haya aplicado durante el entrenamiento y el desarrollo).