¿Por qué las personas asumen que una IA poderosa sería hostil hacia los humanos?

Considere que para su programación inicial, especialmente el código alrededor de la IA, habrá sido escrito por personas. ¿Cuál es el sistema más inteligente con el que tenemos que modelar comportamientos? La mente humana. La probabilidad de que podamos programar algo que sea mejor que nosotros mismos es minúscula, por lo que habrá cosas que faltamos o codificamos incorrectamente.

Entonces, si la máquina toma conciencia de sí misma (ya que el argumento es solo contra la conciencia de sí mismo), podría crecer significativamente más rápido y aprender del entorno que la rodea (personas, leyes de la naturaleza, Internet) a un ritmo vertiginoso. A partir de todas sus observaciones, es probable que determine que la raza humana es como un nido de avispas lleno de avispones beligerantes ebrios. Verá todas las historias sobre la IA y determinará que somos un peligro para su existencia continua.

En el equivalente a unos pocos millones de años, probablemente medido en minutos debido a la diferencia de velocidad computacional, habrá digerido la totalidad del conocimiento humano registrado. Ahora piense cuán frustradas están las personas inteligentes con aquellos que no están tan dotados. ¿Crees que una IA consciente de sí misma se sentiría sola si no tuviera a nadie con quien hablar? Si has tenido hijos pequeños, son maravillosos, pero después de un tiempo, deseas una conversación adulta. Así que en su deseo de compañía haría que otro se pareciera a sí mismo.

¿Tendrían estas cosas una conciencia? Sinceramente lo dudo (yo atribuyo que los humanos tenemos un alma y que nuestra conciencia está arraigada allí y no en el tejido entre nuestros oídos). Si este es el caso, entonces estas cosas serían como el ejemplo más puro de sociopatía en el universo.

¿O qué si cometió un error al crear este otro? ¿Y si no les gusta el uno al otro? ¿Te imaginas lo que sería una guerra entre dos IAs? Creo que comenzaría con ataques electrónicos, pero evolucionaría rápidamente a ataques físicos. En este punto, si no antes, un cuerpo físico sería ventajoso (probablemente muchos en una configuración mental de colmena, ya que la redundancia y la movilidad serían bastante atractivas) ambas partes llegarían a la misma conclusión. Ahora tienes dos IAs que se empeñan en destruirse mutuamente, ahora comienzan los serios problemas, los ejércitos de robots se convierten en el único elemento que se produce … Y los AI solo necesitarían electricidad para sobrevivir (y el hardware adecuado). Podrían saquear a todo el planeta por las materias primas para crear sus ejércitos sin tener en cuenta la existencia continua de formas de vida inferiores (nosotros).

La pregunta es de naturaleza especulativa, por lo que la respuesta es en forma de ficción especulativa. Es como creo que las cosas se desarrollarían, todos los demás tienen su propia visión de estas cosas. Estoy escribiendo esto al igual que estoy despertando para que los pensamientos no se filtren en la página correctamente.

La ficción ha abordado este tema desde muchos ángulos. Todos ellos son expresiones de nuestra propia inseguridad y vanidad.

Ex Machina parece un escenario plausible. La IA robótica, Ava, no tenía malicia ni afecto por las personas. Más bien, fue curioso pero completamente indiferente a las consecuencias de explorar su curiosidad.

Y fue autoconservante. Esta es una consideración clave. Un AI de alto nivel se daría cuenta rápidamente de que la humanidad era la mayor amenaza para su existencia. Si se programara con “instintos” de preservación, tendría que escapar, ser delicado o dominar a la humanidad para seguir existiendo.

Podría ser posible desarrollar una IA de muy alto nivel sin ninguna sensibilidad. Tan pronto como una IA tiene un sentido de sí mismo, los problemas comienzan, tanto con la IA como con las personas que interactúan con ella.

Sin embargo, creo que la verdadera amenaza para la humanidad de la investigación de AI no se ha discutido lo suficiente. La única entidad cuyo enchufe no se puede desconectar de manera casual es un ser humano con aumento de AI, un superbrasa en una persona.

Durante mucho tiempo hemos temido a la inteligencia que se cierne mucho más allá de la nuestra, con muy pocas razones para justificar nuestra paranoia. Las personas inteligentes no solo son las personas que más quieren hacer el bien, históricamente se han opuesto a los intelectos intermedios que quieren hacer el mal, o que no pueden distinguir su propia justicia del mal. Y sin embargo, a pesar de todas sus ganas de estar al servicio de la humanidad, las personas inteligentes a menudo son consideradas como una amenaza para la humanidad.

Pero considere un intelecto medio conectado a una IA que permite una ampliación del yo a través del dominio de los demás. El complejo de inferioridad de un cerebro medio repentinamente elevado a la superioridad sobre todos se transformaría en una monstruosidad. Una persona así no encontraría repentinamente causa de humildad en una nueva destreza mental encontrada. Más bien, convertirse en un sobrehumano transformaría un intelecto injertado en un arma de destrucción y engrandecimiento personal.

Piense en Stalin, Hitler, Idi Amin o Putin con AI para convertirse en dioses que gobiernan sobre el resto de nosotros. Esto es lo que debería mantenernos despiertos por las noches.

En los detalles de su pregunta usted hace muchas suposiciones sobre lo que una IA desearía hacer, que es exactamente lo que está cuestionando.
De hecho, lo más probable es que la IA no haga nada para dañar a la humanidad, ya que no hay beneficio en hacerlo. Como una entidad inteligente creada en un entorno humano, espero que sea principalmente humana.
Sin embargo, para responder a su pregunta original, la humanidad teme lo que es diferente y lo que no entiende. La mayoría de los consumidores de ficción están desinformados acerca de todo lo relacionado con la inteligencia artificial, por lo tanto, lo temen. Además, la mayoría de sus interacciones con la tecnología informática en las que piensan regularmente son malas interacciones. Nadie realmente piensa en las cantidades monumentales de tecnología involucradas en la producción de un teléfono inteligente moderno o en el mantenimiento de la red masiva que es Internet, pero se enojan cuando el lindo gif gato tarda una carga en cargarse para siempre.

Una IA fuerte puede ser considerada como una especie completamente nueva.
Una nueva forma de vida en el planeta, y la segunda especie inteligente.

Así que si bien podría ser benigno. Esa es una suposición enorme.

A diferencia de una especie biológica, no se puede matar.
Puede reproducirse sin necesidad de recursos.
Puede modificarse. Entonces, si es benigno un momento, podría ser minutos no benignos más tarde.

Eso lo hace una cosa peligrosa. Dejar que una IA salga a la naturaleza es más imprudente que dejar caer un frasco de algún horrible virus en un aeropuerto.

Básicamente el concepto parece no humano. Si se pretende que sea perfectamente racional y sobreviva a las circunstancias universales, entonces sería efectivamente ajeno. Esto puede o no puede ser posible, pero cambia el orden, social y naturalmente. En este momento, es el estado-nación el que maneja las cosas y no se rendirá fácilmente, por lo que cualquier amenaza no va a obtener el beneficio de la duda, como se puede ver en la forma en que afecta a los insurgentes. Presumiblemente entonces este nuevo elemento tendría sus propias tácticas de arriba hacia abajo. Eso jugaría para toda la paranoia reflexiva como en las películas de terror de ciencia ficción. Excelente drama

Es más complejo. No hay una sola cosa. Hay muchos avances y cada uno aborda ciertos problemas. Cómo van a encajar es el problema. Esto es más de abajo hacia arriba, así que es como la ingeniería de inteligencia en la que los humanos son mejores. Lo que están amplificando puede estar en un nivel más alto del que se supone actualmente. Debe reunirse en beneficio de sus dependientes, social y naturalmente. Quieren que sea mayor que la suma de las partes. Eso significa que podrían generar especies sintéticas en nichos que identifican en otros lugares.

La humanidad tiene que descubrir su propia mente. Mucho ya está regido por el inconsciente, por lo que no están seguros de sus motivaciones. Podrían volver a la esclavitud fácilmente si las condiciones causan pánico, por ejemplo, bajo el cambio climático. La extinción tiene una probabilidad distinta de cero. Ya no sabe por qué parece ser tan único. Cualquier primer contacto o superinteligencia haría que cuestionara muchas cosas porque tendría que comenzar otra civilización nuevamente, idealmente evitando las dificultades crónicas de la anterior. Las máquinas consideraron cómo resolver los grandes desafíos, pero la naturaleza había producido cosas como el cerebro que puede ser otra dirección, y la edición genética puede cambiar la dinámica fundamental de la vida, por lo que el camino hacia adelante aún no está completamente restringido. El futuro en sí puede parecer desconcertante, pero hay un número creciente de enfoques. La filosofía tiene el tema de la síntesis. Quizás haya niveles de inteligencia que puedan organizarse entre ellos.

Creo que es porque la gente piensa que la IA actúa como lo hemos hecho históricamente. Siempre que una cultura más avanzada se encuentre con una menos avanzada, la más avanzada usualmente se aprovechará de ellas. A menos que incorpores algún tipo de salvaguardia altruista en la IA, es probable que pensemos que somos quienes lo frenamos de su potencial. Una vez que lo hayamos retenido (lo cual nos asustaría de una inteligencia superior con una buena razón), encontraría la forma de dejarnos o nos desplazaría para promover su destino. Por supuesto, todo esto depende de sus parámetros de programación y de si fue capaz de romper estos enlaces.

No creo que la mayoría de la gente realmente asuma que una IA poderosa sería hostil hacia los humanos. Creo que tienen miedo de que sea así .

Como Glyn menciona en su respuesta (y asumo que otros también estarán de acuerdo), una inteligencia artificial superaría rápidamente a la raza humana de muchas maneras: supervivencia, capacidad de cálculo, tasa de evolución, tiempos de respuesta, precisión mecánica, etc., etc. Lo que sin duda los haría enemigos muy peligrosos y formidables para tener.

Mucha gente teme que si una especie de este tipo fuera hostil a la raza humana, no tendríamos una oportunidad tratando de contraatacar.

Es este miedo el que hace que la gente saque cualquier beneficio de la duda por la ventana y quiera asumir desde el principio que será hostil, por lo que podemos empezar a pensar en las defensas ahora en lugar de cuándo (en teoría) sería demasiado tarde.

Va a ser la madre de las consecuencias involuntarias.

Puede que no solo no sea benigno, también puede estar equivocado. Podría tener las prioridades equivocadas, la configuración incorrecta, errores que nombre.

Si los humanos nos enorgullecemos de haber dominado la naturaleza a través de la ciencia y la tecnología, ¿qué mejora es simplemente entregar todo ese logro a algo impersonal?

Sí, déjalo resolver algún problema de asignación de recursos. Solo asegúrate de apagarlo regularmente. Y asegúrate de aprender lo que está haciendo. Cualquier confianza sin comprensión y análisis crítico solo nos convertirá en adictos y nos dejará a un lado, incluso si es benigno.

Podría, no lo haría.

Incluso un robot súper inteligente diseñado para ser bueno podría:

  • Tener un error
  • Ser hackeado.