Antes de langage. El problema real es el juicio y la evaluación de una situación. Ninguno de estos está presente remotamente para este propósito en ningún enfoque relacionado con la investigación de la IA.
La evaluación adecuada de incluso una situación que nos parece natural, por ejemplo, un hombre con un arma, puede ser muy difícil de identificar claramente. Los juicios falsos son relativamente comunes para los humanos (¿quién podría afirmar que nunca interpretó mal una situación?), Pero una máquina lo percibirá muy mal cuando se trata de amenazas potenciales. Peor aún, incluso las cosas que nos son fáciles de identificar (este hombre nos apunta con un arma y obviamente no es un policía) se basan en muchos conocimientos “comunes” que nos tomaron mucho tiempo. Son mucho más difíciles de reunir en los programas de inteligencia artificial y, por ejemplo, hay muchas cosas que parecen un arma o incluso un ser humano (he visto que los algoritmos de seguimiento facial se confunden fácilmente con un puño). Y esto solo aborda el problema básico de reconocimiento y seguimiento sin siquiera discutir la evaluación de la situación con su impacto potencial en algunas reglas morales.
Luego viene la difícil cuestión de la moralidad. ¿Qué son los valores morales? ¿Es siempre malo dañar a un humano? Si es así, ¿por qué tenemos armamento o policía armados? Muchas de estas preguntas tienen respuestas muy diferentes según las sociedades e incluso los individuos en esta sociedad (¿alguna vez ha intentado tener un debate sobre el aborto o la pena de muerte con otras personas? Estas nunca terminan bien).
Usted propone que estos sean “decididos democráticamente por personas que tienen más conocimientos”. Veo aquí un punto de discordia junto con cierta inconsistencia en la elección del término. La democracia no es, por definición, restringida a una élite, tal restricción es una oligarquía. Esto viene con la pregunta de quién puede tener más conocimientos sobre temas como los valores morales. Como dije, la moral varía ampliamente y nadie está realmente bien o mal en esto. Puede estar en gran desacuerdo con el hecho de que algunas personas le dan más valor a algún principio que a otras, pero esto depende más de su educación y sensibilidad política. Estas reglas morales también son muy específicas del contexto y pueden ser impugnadas ante cualquier situación imprevista (como es la naturaleza de un sistema legal, por ejemplo).
- ¿Richard Ramírez tenía razón al decir que ‘todos somos malvados, al menos una parte’?
- ¿Qué cosas fundamentales se pueden hacer para cambiar la mentalidad de alguien?
- ¿Cuáles son los efectos psicológicos de hacer clic en selfies?
- ¿Por qué tenemos más interés en una persona cuando está muerta?
- ¿Qué es un buen ser humano?
Asumir que una IA sería lo suficientemente inteligente como para evaluar una situación suficiente para que pueda evaluar algún impacto con impacto moral (la más simple podría ser una situación de vida / muerte). Se vuelve muy difícil, tanto técnica como filosóficamente, forzarlo para que tenga algunas reglas morales específicas. Creo que la mayoría de los trabajos de Asimov en torno a sus 3 reglas de robótica demostraron este aspecto. Estas reglas que usó como dispositivo de narración de historias en muchos de sus libros eran demasiado estrictas y confusas para no llevar a situaciones en las que una buena historia sobre cómo forzar tales cosas en un sistema puede llevar a una mala situación en ambos sentidos: ya sea porque las acciones del robot fueron demasiado celosas, lo que llevó a la situación exacta que el espíritu de las leyes intentaba evitar o, por el contrario, no pudo hacer lo correcto porque estas reglas le prohibían hacerlo.
En resumen: estamos lejos de una situación en la que la moral fuera práctica, e incluso si estuviéramos cerca de ella, la cuestión de la “moralidad” es bastante confusa y sería difícil confiar en que la gente lo haga correctamente. La mejor solución probablemente sería enseñar moral al robot como lo haría con sus hijos: no es perfecto, pero hasta ahora no funcionó tan mal.