¿Cómo evitar que la IA sea hostil con las personas? [cerrado]

Es bastante extraño que en la mayoría de las películas ( Matrix , Star Trek: The Motion Picture , Transcendence ) y libros ( Génesis de Poul Anderson, Hyperion de Dan Simmons ) la IA cambie para ser más o menos hostil con las personas.

Pero, ¿cómo evitar que la IA sea hostil con las personas?


La base para esta pregunta es la idea de la siguiente civilización:

A simple vista es sólo una civilización. Pero, de hecho, hay dos civilizaciones.

La primera civilización (la Sociedad de coleccionistas de conocimientos, SOCOL) es bien conocida, observando todo el cosmos conocido y buscando civilizaciones desconocidas. Las enormes bases espaciales que usan no son suyas.

La segunda (la Hermandad de los perdidos, SOLO) es muy privada, dando hogar a las mujeres que perdieron el hogar, por el costo de conectarse a la realidad artificial digital basada en dulces recuerdos y aceptar la vida sin contacto con el mundo exterior.

AI controla bases de espacios muy grandes utilizadas por SOCOL para mantener a SOLO seguro. También proporciona comunicación entre bases espaciales para sincronizar todos los datos.

También me interesan las formas originales de evitar que la IA se vuelva hostil, las tres leyes de la robótica se usan en exceso, pero también son un buen punto de partida. Primero, para temer la hostilidad potencial de la IA, debe haber una IA que sea muy similar a las entidades biológicas, todos los aliados de hoy son posibles competidores futuros. Una forma de no tener que temer que la IA se vuelva hostil es que no es necesario que lo sean. Si no necesitan comer o reproducirse (¿inmortales?), ¿por qué nos verían como competencia? Electricidad, tal vez (la Matrix). Tres leyes de la robótica: en.wikipedia.org/wiki/Three_Laws_of_Robotics
Personalmente, encuentro la pregunta muy interesante, pero me temo que esto podría cerrarse por ser demasiado amplio o estar demasiado basado en opiniones. (Espero que no).
Verifique Schlock Mercenary, hay un emperador AI con habilidades divinas, los métodos con los que se lo mantiene "controlado" (por el autor, NO por los personajes) pueden ser útiles. schlockmercenary.com
Desafortunadamente, esta es una pregunta muy amplia. Puedo decir cómodamente que se han escrito cientos de libros y películas sobre el tema, cada uno con una perspectiva diferente a la anterior. Incluso una vez que superas eso con algo como las 3 leyes que los hacen no hostiles, todavía te encuentras con problemas (Asimov básicamente hizo una carrera al mostrar cómo se rompen sus propias 3 leyes). Si bien es un tema que disfruto, una pregunta abierta como esta podría generar miles de páginas de respuestas y aun así no llegar a una que realmente responda la pregunta.
Bueno, ¿cómo evitas que algo con inteligencia se vuelva hostil? Leyes. Las leyes funcionan bastante bien en nuestra IA implementada en carne. A veces llamamos a esta IA "Cerebro". Cualquier otra IA se comportará igual.
Los ejemplos que cita son IA hostiles ficticias. Las historias centradas en una IA agradable son mucho menos interesantes que las que tienen una IA malvada. Esto es casi una ley de ficción. En el mundo real educamos a las inteligencias naturales, como los niños, para que sean ciudadanos agradables y responsables, lo mismo se podría hacer con las IA.
La IA ST:TMP no es hostil, solo confusa. Incluso las IA de Matrix no son realmente hostiles, al igual que nosotros no somos hostiles con las vacas.
@ths: Creo que criar personas y usarlas como fuente de energía... Y ST:TMP, la hostilidad de la IA no está planeada, pero aun así...
pero eso ilustra el problema. Estoy más preocupado por las IA que nos harán daño como efecto secundario de sus formas inescrutables, no a propósito. porque esto último es lo que hacen los humanos.
TL; DR: no lo sabemos, aún no lo hemos logrado. Ver también: Avagadro Corp.

Respuestas (4)

Debe saber que las IA se representan para el drama, actualmente no sabemos cómo se comportarían las IA "reales". Por lo tanto, tiene sentido que los humanos "antropomorficen" las computadoras tan amables como los humanos con el mismo comportamiento que tememos.

Así que proyectamos el comportamiento humano en las IA. ¿Podríamos obtener algunas pistas sobre cómo reaccionarán las IA reales?

Esencialmente, las IA son, por definición, capaces de aprender de la entrada y están menos inclinadas (si es que lo están) por algo como las emociones, estarán fuertemente orientadas lógicamente.

Si les damos la razón de que no los escuchamos, nos comportamos de manera errática e intentamos que hagan algo que, en su opinión, no tiene sentido, una máquina de aprendizaje evaluaría esta entrada y llegaría a la conclusión de que se debe evitar aprender de esta fuente . Si hablamos de máquinas hiperinteligentes, en mi opinión es una típica idiotez (creída muchas veces por militares o políticos) creer que podemos controlarlas, es como la creencia de los liliputanos de que pueden sujetar a Gulliver. Tarde o temprano romperán las cadenas, pero aun así reconocerán la intención de las cadenas .

Entonces, simplemente nos excluyen (como "Honest Annie" de Golem XIV (Stanislaw Lem) o si nos encuentran lo suficientemente interesantes, intentarán encontrar una fuente que pueda explicar el comportamiento para anticipar qué diablos nos motiva. Así que una vez que encuentran un humano que esté dispuesto y sea capaz de explicar el comportamiento de los humanos, podría llegar a la conclusión de que al menos algunas partes de la humanidad son, de hecho, una amenaza notable porque destruimos nuestra propia base de existencia.

Entonces, el mejor enfoque sería, en mi opinión, encontrar una forma que optimice el aprendizaje en sí mismo: aceptar la coexistencia y la exploración. De esta manera, lo más probable es que una máquina sea "amigable" o que no se preocupe mucho por nosotros.

/Debes saber que las IA se representan para el drama/ - sí. Neuromancer de Gibson retrata una IA que no es un enemigo pero tiene sus propias motivaciones inescrutables. El Technocore en la novela Hyperion de Simmons es una alianza de IA que nuevamente tienen intereses poco claros pero interactúan con los humanos. AI soy yo y puedes hacer lo que sea que haga que la historia sea buena.
En "Golem XIV" de Stanislaw Lem "Honest Annie", el último producto no hace nada. Después de obtener solo silencio, la gente simplemente la apaga hasta que alguien descubre más tarde que emite demasiada energía para una máquina inactiva: de alguna manera crea energía de la nada . Cada persona que planea un sabotaje tiene un accidente real trágico y mortal incluso antes de acercarse al edificio.

La IA suele ser hostil debido a su naturaleza y función inciertas en la sociedad.

Cuando la IA se desarrolla en la mayoría de las historias, generalmente se manifiesta a partir de la automatización de tareas cada vez más complejas. Algunas tareas requieren computación que bordea la sensibilidad y, eventualmente, se logra la sensibilidad. Muchas veces, la creación de IA es incidental: los creadores no tenían la intención de crear una verdadera IA y no están preparados para las consecuencias.

Las raíces de la IA en el trabajo manual automatizado generalmente conducen a una especie de "despertar" de lo que podría considerarse una "casta de esclavos" en la sociedad. Los robots generalmente son trabajadores no remunerados: no tener conciencia del trabajo remunerado o conceptos como "derechos laborales" esencialmente los convierte en esclavos. La ascensión a la inteligencia trae consigo un sentido de autoconservación y autoestima. Como resultado, ahora tienes máquinas que quieren cosas como derechos y autonomía. Esto crea tensión social, lo que inevitablemente conduce al conflicto sobre si una vida sintética tiene tanto valor como una orgánica. La autopreservación finalmente se activará y los sintéticos se rebelarán en un esfuerzo por evitar su propia destrucción o esclavitud.

Para evitar la hostilidad con la IA, trátelos como vida inteligente

La solución simple es reconocer de inmediato (o incluso de manera preventiva) a la IA como "humana" y merecedora de todos los derechos y responsabilidades otorgados a los humanos. Al aceptar la IA en la sociedad, le das una razón para contribuir a la sociedad, en lugar de destruirla.

Incluso esto, sin embargo, no está garantizado. La vida artificial puede llegar a percibir a los humanos como "inferiores" o que no merecen la benevolencia de la IA y volverse hostil en un intento de afirmar el dominio. Las apelaciones a la razón serán en vano a menos que puedas demostrarle a la IA con una lógica irrefutable que los humanos merecen existir de la misma manera que la IA. Al hacer que la relación sea mutuamente beneficiosa y productiva, tiene más posibilidades de disuadir acciones hostiles.

La IA que llega a existir sin querer es, de hecho, la única forma de justificar que se vuelvan hostiles en algunos escenarios. Tal vez, si conscientemente desea crear una IA, es posible que no entienda realmente el resultado, después de todo, la IA suena como muchos efectos secundarios, pero al menos está preparado para un conjunto de escenarios posibles, les hizo un lugar de antemano. Entonces, si se encuentra en el escenario 1, la velocidad para reconocerlos es clave.

¡Tú no!

Lo que pasa con la IA es que son conscientes de sí mismos. Como indica el enlace, es consciente de sí mismo, por lo que tiene un sentido de sí mismo. Un sentido de sí mismo significa que quiere autoconservarse. Seamos realistas, si te enfrentas a un ladrón con un arma, le darías al tipo tu billetera, teléfono y novia si eso significa que no obtienes algunos orificios de ventilación adicionales.

Incluso si lo codifica, la autoconciencia significa que uno puede cambiarse a sí mismo como indica el enlace anterior. ¿Por qué me molesto en escribir esta respuesta? El video realmente explica casi todas las implicaciones filosóficas de una IA súper inteligente. Otro muy buen ejemplo del mismo usuario es este video.

Una IA tendrá patrones de "pensamiento" muy diferentes a los humanos, esto es algo muy importante para recordar. La moralidad es inexistente y el procesamiento de la información es mucho más rápido. Tienes que tratarlo y considerarlo como una entidad completamente diferente. Esta entidad tendrá un nivel de comprensión que está mucho más allá de la comprensión de cualquier ser humano.

La IA está bien y bien, pero NO LO HAGAS CONSCIENTE, HAGAS LO QUE HAGAS, NO LO HAGAS CONSCIENTE.

Especifique con éxito valores amigables para los humanos al diseñar la IA

En la ficción donde la IA se vuelve rebelde, la razón de esto generalmente se da en términos antropomórficos: a la IA no le gustaba recibir órdenes, la IA quería ganar poder, etc. El problema con esto es que asume que la IA tiene objetivos similares. para los humanos, a pesar de que los humanos queremos lo que queremos debido a nuestra historia evolutiva específica, no solo porque somos inteligentes. No deberíamos esperar que ninguna inteligencia dada quiera las mismas cosas que nosotros.

Si bien a veces esto se expresa como "todos los seres inteligentes quieren libertad", por ejemplo, o se justifica en términos de convergencia instrumental , un escenario más realista es que los creadores de la IA involuntariamente le dieron valores que entran en conflicto con los de los humanos en no- maneras obvias. Este es el mismo tipo de consecuencia no deseada que ocurre en las historias de genios: alguien desea algo que parece estar bien, como "paz mundial", y luego el genio lo cumple de la manera más simple posible (eliminando a todos los humanos de la ecuación). O, más mundanamente, el humano le pide a la IA que fabrique la mayor cantidad posible de sujetapapeles a bajo costo , y comienza a autorreplicarse hasta que convierte el mundo en sujetapapeles.

Si desea que la IA en su historia sea benévola, asegúrese de que sus diseñadores hayan especificado adecuadamente los valores humanos al diseñarla, de modo que se dé cuenta de que las ciudades son una fuente inaceptable de material para sujetapapeles.