¿Las máquinas sentirán alguna vez la emoción?

Somos máquinas basadas en el ADN (formas de vida basadas en el carbono) con emociones, por lo que se podría inferir que la replicación de los mecanismos que producen emociones en los seres humanos en formas de vida basadas en el silicio es una cuestión de traducción (aunque es un problema muy difícil). Interactuar con una máquina que se parece a una persona, habla como una persona y reacciona como una persona al mismo estímulo y es mejor dejar las implicaciones de esta interacción para otro debate (consulte “Uncanny Valley”).

Si define la emoción sentida como los mecanismos de comunicación química en las rutas bioquímicas basadas en un cierto estímulo, por supuesto es “posible” que las máquinas se construyan algún día de una manera que las emule por completo. Tenemos que pensar en esto en términos de nuestras predicciones futuras de avance tecnológico basadas en cosas que vemos y entendemos ahora.

Estoy de acuerdo con Bradley en que la distinción entre “observar” y “sentir” la emoción es muy importante. Sabemos que sentimos emociones porque nosotros, como seres humanos, tenemos un lenguaje común para interpretar estos sentimientos por el simple hecho de ser humanos. Si reflejamos perfectamente los caminos encontrados en los seres humanos y presenciamos este tipo de emociones en una máquina, podríamos considerar de alguna manera que se trata más de una “observación” de los sentimientos, ya que la reacción está apareciendo en un medio tan extraño.

Tengo más curiosidad acerca de cómo definiríamos el “sentimiento” de la emoción si nosotros, como humanos, observamos la replicación exacta de las emociones en una máquina, siempre que estas reacciones emocionales tengan el mismo resultado final para el observador externo. Si dos humanos (máquinas genéticas basadas en el ADN) están discutiendo y uno comienza a llorar, ¿eso significa que esto ya ha sucedido?

PS Johnny Five lo hizo primero!

Pertinente:
http://nai.nasa.gov/astrobio/fea…
http://en.wikipedia.org/wiki/Unc…
http://en.wikipedia.org/wiki/Emo…
http://en.wikipedia.org/wiki/I,_…
http://en.wikipedia.org/wiki/Sho…
http://en.wikipedia.org/wiki/And…

Sí, lo harán, y yo diría que lo tienen, al menos en las simulaciones de nuestra compañía (hemos creado una arquitectura de AI “People Engine” junto con DARPA).

Primero tenemos que distinguir entre sentimientos y emociones. Los sentimientos son estados de ser que no pueden ser penetrados y analizados cognitivamente. Un ejemplo fácil es la sensación de hambre. También la excitación sexual, la risa y algunos tipos de miedo. Estos son estados (a menudo, pero no siempre, fisiológicos) que no podemos “pensar”, simplemente están ahí en nuestra experiencia (podemos aprender a acorralar el hambre o ignorar la fatiga, pero esto no es lo mismo que simplemente apagar el sentimiento en conjunto, eso solo ocurre con un daño psicológico significativo).

Las emociones son el componente cognitivo de cómo nos sentimos, según la teoría de las emociones de James-Lang. Los sentimientos inducidos fisiológicamente se pueden interpretar como muchas emociones diferentes. Otra forma de decir esto es que un perro puede tener el * sentimiento * de estar solo, pero no tiene el reflejo cognitivo de la emoción de “Estoy solo”.

Por lo tanto, los sentimientos son relativamente fáciles de agregar a un agente de software. En cualquier modelo que se corresponda con los humanos, los sentimientos están profundamente entrelazados con la personalidad, el estado y la experiencia, pero aún pueden ser representados. Así, cuando un agente siente hambre, miedo o incluso soledad, esos sentimientos son reales. Podemos decir que son “simulados” porque podemos ver el código que hay detrás de ellos … pero también podríamos ver las estructuras neuronales detrás de nuestros sentimientos y decir que el cerebro simplemente los está simulando. En algún momento esto se convierte en una distinción vacía.

Añadir emociones a los agentes es algo más difícil. Pero si un agente puede reflexionar sobre sus estados internos actuales, incluidos sentimientos como fatiga, hambre, satisfacción, etc., y hablar o actuar sobre estos de manera intencional, entonces, ¿en qué sentido no tienen emociones también?

La pregunta más profunda para mí es: ¿queremos que los humanos realmente tengamos computadoras (agentes de software, robots de hardware) y evidenciamos emociones? ¿Queremos darles sufrimiento, tristeza, enojo, desesperanza o, alternativamente, prepararlos para que tengan la paciencia, la perspectiva más sufrida y la esperanza perdurable de que la mayoría de las personas necesitan toda una vida (si es que lo hacen)?

Si le damos a nuestros robots de software emociones, ¿qué significaría eso sobre nuestras interacciones? ¿Es una buena idea hacerlo?