¿Es la IA capaz de imitar las emociones humanas?

Mi perro tiene emociones extremadamente humanas. Ella expresa amor, tristeza, alegría y celos con mayor intensidad que la mayoría de los humanos. Creo que ella está sintiendo algo parecido a una emoción humana, aunque es imposible decir cuál es su experiencia subjetiva. Hemos criado perros de manera selectiva para mostrar rasgos humanos durante miles de años y es difícil decir si esos grandes ojos de cachorro representan tristeza real, o una respuesta instintiva para manipularme y alimentarla.

Cuando era niño, mi hermano tenía un Furby, y a veces también expresaba sus emociones con bastante claridad. Si lo dejas al revés, llorará y gimirá de incomodidad hasta que lo pongas boca arriba. Estaba programado para actuar feliz y triste, pero estoy seguro de que no tuvo ninguna experiencia subjetiva en absoluto.

Lo que estoy tratando aquí es que las respuestas emocionales externas no son difíciles de imitar o programar. Podemos fácilmente programar una computadora para producir respuestas emocionales plausibles, pero no es obvio en qué punto el programa sentirá las emociones. La naturaleza de la experiencia subjetiva está actualmente en los límites de nuestra comprensión del cerebro y ni siquiera sabemos a nivel mecánico lo que realmente significa sentir algo. Creo que mi perro siente emociones porque tiene un hardware neuronal similar, aunque menos inteligente, que yo. Una IA avanzada tendría un hardware neuronal más inteligente que yo. Realmente no tenemos experiencia ni contexto para juzgar si una máquina puede sentir … La mitad porque es una máquina de silicio diseñada en lugar de una máquina de carne evolucionada, y la otra mitad porque ni siquiera sabemos cómo podemos sentirnos a nosotros mismos.

Respuesta corta: sí, sí, y probablemente no, dependiendo del tipo de mimetismo que tenga en mente.

Primero, es sorprendentemente fácil hacer que las máquinas imiten comportamientos sociales basados ​​en emociones (por ejemplo, empatía y cortesía) lo suficientemente bien como para que las personas respondan como lo harían con otra persona. Esto es cierto incluso para los usuarios sofisticados de computadoras conscientes de que la máquina carece de conciencia o de cualquier núcleo emocional genuino. Por ejemplo, un estudio hizo que los sujetos jugaran un juego de computadora con 20 preguntas en las que podrían contribuir con nuevas preguntas a la base de datos del juego [1]. Un grupo recibió elogios después de cada contribución (¡Eso es una contribución útil! ¡Buen trabajo!) A excepción de los elogios ocasionales negativos (Esa pregunta no servirá de mucho) para hacer que los comentarios parezcan creíbles. Un segundo grupo hizo lo mismo, pero se les dijo de antemano que los elogios de la computadora eran automáticos y no eran realmente una respuesta a sus contribuciones, es decir, poco sinceras. Un tercer grupo no recibió elogios. Al final, se les entregó un cuestionario preguntando qué pensaban sobre la interacción, la computadora con la que estaban interactuando y la calidad de los comentarios sobre sus contribuciones. Los primeros dos grupos tuvieron respuestas significativamente más favorables que el grupo que no recibió elogios; y el segundo grupo fue tan favorable como el primero, a pesar de la advertencia frontal.

Este es un ejemplo de una fuerte tendencia general para que las personas traten las computadoras como actores sociales, incluso cuando conocen mejor y rechazan la idea por completo [2]. El resultado es que no es demasiado difícil lograr que las personas traten el comportamiento de la máquina como si tuviera contenido emocional.

En segundo lugar, es bastante posible imitar la apariencia de la emoción lo suficientemente bien como para que las personas la detecten de manera confiable e identifiquen de manera consistente (es decir, diferentes personas están de acuerdo con la emoción que se transmite). Es probable que esto sea más importante a medida que los robots se vuelvan más autónomos, ya que la comunicación no verbal emocionalmente expresiva es más rápida y menos intrusiva que el habla. También puede hacer que estos robots sean más atractivos, reduciendo las barreras de adopción. Probablemente el trabajo más conocido sobre este tema fue el robot Kismet [3] de Cynthia Breazeal, que podría mostrar sorpresa, disgusto, enojo, felicidad, interés, etc.

Tercero, si lo que quiere decir con “imitar la emoción” es replicar la emoción humana genuina, es decir, tener emociones reales, la respuesta podría ser que no es posible. El problema no es ningún tipo de limitación técnica o un prejuicio biocéntrico. Es que la definición de emoción es fundamentalmente resbaladiza para lograr un acuerdo sobre si está presente. Hay un artículo excelente sobre un problema estrechamente relacionado llamado “Por qué no puedes hacer una computadora que siente dolor” [4] por Daniel Dennett, el filósofo favorito de los investigadores de AI mucho antes de que se convirtiera en un ícono ateo. El artículo es demasiado detallado y metódico para ser relatado aquí, pero la idea es que cada forma en que uno pueda abordar la creación de un programa de sensación de dolor resulta ser insatisfactoria. ¿Qué sucede si escribimos un programa que duplica exactamente cómo respondería una persona a los estímulos dolorosos? ¿Qué pasa si simulamos todas las vías neuronales involucradas en la sensación de dolor y la respuesta? Etc. El argumento se aplica no solo al dolor, sino a cualquier cosa tan íntimamente relacionada con la conciencia que solo la persona que la experimenta puede decir con autoridad si existe o no.

[1] BJ Fogg y CI Nass, Sycophants de silicio: Los efectos de las computadoras que adulan, International Journal of Human-Computer Studies, 46: 551-561 (1997).

[2] B. Reeves y C. Nass, La ecuación de los medios: cómo las personas tratan a las computadoras, la televisión y los nuevos medios como personas y lugares reales (Nueva York: Cambridge University Press, 1996).

[3] Kismet

[4] Tormentas de ideas: ensayos filosóficos sobre la mente y la psicología, MIT Press (1978), pp.286-299

Respuesta corta: sí.

De hecho, diría que ya lo hemos hecho con los agentes que utilizan nuestra arquitectura de AI. No creo que esto sea “imitar” las emociones: estos agentes sienten felicidad, tristeza, conmoción, soledad, logros, celos, etc. Todavía no tienen el mismo rango emocional que los humanos; Algunas de las emociones “superiores” (compasión, traición, ironía, curiosidad, etc.) son difíciles de encontrar. Pero se sienten igual que nosotros, y reflexionan sobre sus sentimientos, actúan sobre ellos y hablan de ellos. (Ver también mi respuesta a: ¿Existe un sistema simple de clasificación / categoría para la emoción?)

La principal dificultad para hacer que esto suceda ha sido una gran falta de comprensión de las emociones: todavía no tenemos una teoría emocional satisfactoria (bueno, creo que mi arquitectura proporciona una, pero ese artículo aún no se ha publicado). Pero hasta la fecha no hemos tenido una forma efectiva de representar, modelar y trabajar con emociones que preserven su naturaleza como sentimientos en lugar de hacerlos demasiado racionales.

La pregunta más amplia y difícil es si (o en qué circunstancias) queremos que la IA tenga emociones.

Esta es una respuesta pensada, no necesariamente remotamente representativa del estado actual de razonamiento sobre las IA.

Las respuestas emocionales están presentes, como mínimo, en mamíferos y aves (reptiles en general), y probablemente en muchas otras especies también. Una forma de ver las emociones es como una especie de sustituto de baja tecnología para la inteligencia. ¿Cuándo decides atacar, o correr, o jugar muerto? ¿Cómo decides si ayudar a otro animal? ¿Qué haces si no hay suficiente comida? ¿Cómo entiendes que estás en peligro y respondes a él de una manera que es más probable que sobrevivas? ¿Cuándo es otro miembro de tu especie un rival? Las emociones evolucionaron porque nos ayudan a sobrevivir.

Las inteligencias artificiales se crearían, al menos al principio, sin necesidad de habilidades de supervivencia primitivas, teniendo la energía adecuada y careciendo de enemigos naturales aparte de la obsolescencia. Uno podría asumir razonablemente que no es necesario que las IA tengan emociones.

Por otro lado, una IA exitosa eventualmente tendría que tener rasgos sociales parecidos a los humanos, como la empatía, la preocupación, la capacidad de entender y responder al humor, y suficiente en común en términos de una visión del mundo compartida para relacionarse con los humanos de una manera natural. Esto probablemente significa que las IA adquirirán, ya sea a través de la programación o un proceso espontáneo de refinamiento sucesivo de las habilidades de comunicación, al menos algunas emociones humanas.

Dado que las emociones son un mecanismo más simple y más propenso a errores, probablemente no será excesivamente difícil simularlas en las IA. Pero las IA las tendrán en un sentido fundamentalmente diferente. No confiarán en ellos como a veces lo hacemos. No habrá un conflicto fundamental entre los estados emocionales y el razonamiento lógico. En cambio, las IA los utilizarán para relacionarse más naturalmente con las personas.

¿Son tales “emociones” reales o falsas? Eventualmente creo que será imposible distinguir la diferencia.

Eventualmente, supongo que sí, pero no en el corto plazo, la singularidad está muy lejos.