Respuesta corta: sí, sí, y probablemente no, dependiendo del tipo de mimetismo que tenga en mente.
Primero, es sorprendentemente fácil hacer que las máquinas imiten comportamientos sociales basados en emociones (por ejemplo, empatía y cortesía) lo suficientemente bien como para que las personas respondan como lo harían con otra persona. Esto es cierto incluso para los usuarios sofisticados de computadoras conscientes de que la máquina carece de conciencia o de cualquier núcleo emocional genuino. Por ejemplo, un estudio hizo que los sujetos jugaran un juego de computadora con 20 preguntas en las que podrían contribuir con nuevas preguntas a la base de datos del juego [1]. Un grupo recibió elogios después de cada contribución (¡Eso es una contribución útil! ¡Buen trabajo!) A excepción de los elogios ocasionales negativos (Esa pregunta no servirá de mucho) para hacer que los comentarios parezcan creíbles. Un segundo grupo hizo lo mismo, pero se les dijo de antemano que los elogios de la computadora eran automáticos y no eran realmente una respuesta a sus contribuciones, es decir, poco sinceras. Un tercer grupo no recibió elogios. Al final, se les entregó un cuestionario preguntando qué pensaban sobre la interacción, la computadora con la que estaban interactuando y la calidad de los comentarios sobre sus contribuciones. Los primeros dos grupos tuvieron respuestas significativamente más favorables que el grupo que no recibió elogios; y el segundo grupo fue tan favorable como el primero, a pesar de la advertencia frontal.
Este es un ejemplo de una fuerte tendencia general para que las personas traten las computadoras como actores sociales, incluso cuando conocen mejor y rechazan la idea por completo [2]. El resultado es que no es demasiado difícil lograr que las personas traten el comportamiento de la máquina como si tuviera contenido emocional.
En segundo lugar, es bastante posible imitar la apariencia de la emoción lo suficientemente bien como para que las personas la detecten de manera confiable e identifiquen de manera consistente (es decir, diferentes personas están de acuerdo con la emoción que se transmite). Es probable que esto sea más importante a medida que los robots se vuelvan más autónomos, ya que la comunicación no verbal emocionalmente expresiva es más rápida y menos intrusiva que el habla. También puede hacer que estos robots sean más atractivos, reduciendo las barreras de adopción. Probablemente el trabajo más conocido sobre este tema fue el robot Kismet [3] de Cynthia Breazeal, que podría mostrar sorpresa, disgusto, enojo, felicidad, interés, etc.


Tercero, si lo que quiere decir con “imitar la emoción” es replicar la emoción humana genuina, es decir, tener emociones reales, la respuesta podría ser que no es posible. El problema no es ningún tipo de limitación técnica o un prejuicio biocéntrico. Es que la definición de emoción es fundamentalmente resbaladiza para lograr un acuerdo sobre si está presente. Hay un artículo excelente sobre un problema estrechamente relacionado llamado “Por qué no puedes hacer una computadora que siente dolor” [4] por Daniel Dennett, el filósofo favorito de los investigadores de AI mucho antes de que se convirtiera en un ícono ateo. El artículo es demasiado detallado y metódico para ser relatado aquí, pero la idea es que cada forma en que uno pueda abordar la creación de un programa de sensación de dolor resulta ser insatisfactoria. ¿Qué sucede si escribimos un programa que duplica exactamente cómo respondería una persona a los estímulos dolorosos? ¿Qué pasa si simulamos todas las vías neuronales involucradas en la sensación de dolor y la respuesta? Etc. El argumento se aplica no solo al dolor, sino a cualquier cosa tan íntimamente relacionada con la conciencia que solo la persona que la experimenta puede decir con autoridad si existe o no.
[1] BJ Fogg y CI Nass, Sycophants de silicio: Los efectos de las computadoras que adulan, International Journal of Human-Computer Studies, 46: 551-561 (1997).
[2] B. Reeves y C. Nass, La ecuación de los medios: cómo las personas tratan a las computadoras, la televisión y los nuevos medios como personas y lugares reales (Nueva York: Cambridge University Press, 1996).
[3] Kismet
[4] Tormentas de ideas: ensayos filosóficos sobre la mente y la psicología, MIT Press (1978), pp.286-299