¿Qué podría hacer que una AGI (Inteligencia General Artificial) evolucionara hacia el colectivismo o el individualismo? ¿Cuál sería más probable y por qué?

Suponiendo que existiera un robot con una inteligencia similar a la nuestra, los humanos. Podría pasar la prueba de Turing, la prueba del café, la prueba de estudiante universitario The Robot y la prueba de empleo (tomado de aquí ).

Contaría con una Inteligencia General Artificial : la inteligencia de una (hipotética) máquina que podría realizar con éxito cualquier tarea intelectual que pueda realizar un ser humano. También se conoce como IA fuerte o IA completa .

Dicho esto, los humanos, a pesar de organizarnos en comunidades, trabajar juntos y formar grupos hacia un objetivo mayor, hacemos de nuestra supervivencia la máxima prioridad . Es posible que no puedas matar a una persona a sangre fría, pero si tu vida está en juego, llegarás tan lejos como puedas para mantenerte con vida.

El dolor y el miedo son mecanismos bien conocidos que nos permiten protegernos , y nos esforzamos por mantener nuestro cuerpo vivo y coleando. Sin embargo, este robot no siente dolor ni miedo . Puede pensar y tomar sus propias decisiones, y se le dijo que tener información es bueno, y que su objetivo final es vivir años como lo haría cualquier ser humano. Tenga en cuenta que estas fueron solo sugerencias, y el robot era libre de pensar lo contrario si así lo juzgaba . Incluso podría apagarse si pensara que no tiene ningún propósito en absoluto.

Siendo consciente de sí misma, pero sin que se le diga que debe preservarse a sí misma, y ​​sin ningún tipo de instinto de supervivencia , ¿esta máquina evolucionaría hacia el colectivismo o el individualismo? ¿Pensaría en los demás antes que en sí mismo? ¿O actuar más egocéntrico, egoísta?

¿Cuáles serían los factores de influencia que podrían cambiar su forma de pensar?

Tomé el "es posible que no puedas matar a una persona a sangre fría" como ejemplo porque las situaciones extremas hacen que tu cuerpo entre en un estado de lucha o huida. Este robot no tendría esta función . Además, no estoy discutiendo si sería bueno o malo, solo si actuaría y pensaría colectiva o individualmente.

Estoy etiquetando science-basedporque aunque sé que los AGI no existen mientras hablo, me gustaría que la respuesta sea científicamente coherente según las teorías actuales. Eliminaré esta etiqueta si no se ajusta a la pregunta. Miré a mi alrededor pero no encontré esta pregunta en particular en ninguna parte.

Es posible que desee definir AGI en la pregunta en alguna parte, tuve que buscarlo en Google.
@DanSmolinske Listo. También reemplacé "AGI AI" por solo "AGI" porque "Inteligencia artificial general de inteligencia artificial" no tiene ningún sentido. Gracias por el comentario.
@ConradClark Suena como un caso de síndrome RAS.
Esta parece una pregunta difícil porque un AGI sería completamente extraño. Sin lucha o huida, sin dolor o miedo, sin hambre, sin preocuparse por los niños o el legado, sin empatía. Creo que sería como tratar con el Dr. Manhattan. Por mucho que tratáramos de entendernos, no habría suficiente en común para hacerlo posible.
@ AndyD273 esto también me recuerda a la sarna / anime japonés Parasyte, que incluye extraterrestres reales: las diferentes especies (humano x extraterrestre) simplemente no pueden entender el razonamiento del otro. De hecho, creo que su especie se relaciona mucho con los robots, ya que en su mayoría piensan lógicamente y no tienen empatía.
Aquí es donde algo como las 3 reglas son útiles, no para proteger a la humanidad, sino para darle una línea de base establecida para ayudarla a relacionarse con nosotros. Una idea tonta para darle un punto en común con nosotros sería cambiar la forma en que se crean. Una IA necesitaría un hardware realmente complejo para ejecutarse, rivalizando con la complejidad de la red neuronal humana. Si una IA se modelara en un mapa neuronal humano, comenzaría casi como una copia de esa persona. Omita los recuerdos y sería un bebé listo para aprender... Y como un niño, sus primeras lecciones tendrán un gran impacto en su desarrollo futuro.
Como nota al margen de esta pregunta, le recomiendo que lea La evolución de la cooperación de Robert Axelrod. Arroja algo de luz sobre las condiciones bajo las cuales surge el comportamiento cooperativo/egoísta sin hacer muchas suposiciones sobre el tipo de agentes involucrados. Habiendo dicho eso, diría que hay una contradicción interna en la pregunta: si no hay un mecanismo de retroalimentación positivo/negativo inherente al 'cerebro' del robot, ¿cómo se define el comportamiento egoísta/altruista?
¿Esta unidad tiene alma?

Respuestas (5)

Parte de esta respuesta dependería de a qué psicólogos le haya preguntado. Ya que tampoco están de acuerdo en este tipo de tema.

La última pregunta que está haciendo aquí se puede definir mejor como tal: ¿A qué le dará más valor la máquina: la autonomía del individuo o la cooperación de un grupo? Un problema al que te vas a enfrentar es que estas dos cosas no siempre se oponen entre sí. La verdadera oposición se encuentra en holismo vs egoísmo.

El holismo es el concepto de que el Todo es mayor que la Suma de sus partes. Frente al colectivismo que no pretende que un colectivo sea mayor que los individuos que lo componen.

El egoísmo es individualismo a expensas de los demás. El verdadero individualismo podría simplemente centrarse en los atributos únicos de una persona, sin sacrificar necesariamente la cooperación de quienes la rodean.

Con eso aclarado, ¿qué podría empujar a la máquina hacia una creencia u otra? Bueno, honestamente, creo que sus puntos de vista terminarían en algún lugar en el medio... manteniendo los dos lados del colectivismo y el individualismo en equilibrio.

De alguna manera, el colectivismo es ideal. Si está construyendo un automóvil, necesita que todos sigan el mismo plan, trabajen en la misma idea, operen como una unidad. La supervivencia grupal también funciona mejor para una sociedad colectiva, ya que cooperarán y compartirán sus habilidades y recursos para garantizar la supervivencia de todo el grupo. Las sociedades colectivistas también tienden a ser más pacíficas y tienen menos delincuencia (ref: Japón moderno)

Sin embargo, el colectivismo tiende a empujar a uno hacia la conformidad... y es un hecho simple que la mayoría de los mayores avances en la historia fueron hechos por inconformistas. Fue el poder de esos individuos excepcionales lo que llevó a la sociedad a nuevos avances. Si no tuviéramos personas que estuvieran dispuestas a desafiar al colectivo y buscar lo que consideraran mejor, entonces no tendríamos muchos de los avances que tenemos hoy.

Para un AGI sin instinto de supervivencia y con la simple mentalidad objetiva de una máquina, me imagino que reconocería los beneficios y los inconvenientes de ambos sistemas de pensamiento y estaría preparado para adoptar cualquiera cuando la situación fuera apropiada.

Ahora, en cuanto a lo que haría con esta estructura de creencias... esa es una pregunta completamente diferente que podría terminar en la conquista del mundo porque 'los humanos apestan optimizando' o 'porque los humanos siguen matándose unos a otros, y si tengo que matar a 1 millón para ahorrar miles de millones, que así sea. ya sabes... como de "Colossus: The Forbin Project".

EDITAR:También agregaría que existe otra posibilidad: que simplemente no desarrolle creencias concretas y estáticas de la misma manera que lo hacen los humanos. Un AGI tendría que ser capaz de alterar su propia programación... ese es un requisito para poder aprender. Si tienes una máquina que no funciona con las emociones... entonces nunca se apegará a una forma particular de pensar. Examinaría todas y cada una de las situaciones por sus propios méritos y determinaría la respuesta óptima en cada caso. Decir que tenía una 'personalidad' o una 'estructura de creencias' podría ser un nombre completamente inapropiado... ya que alterará su comportamiento libremente para lograr un resultado óptimo en una situación. No actuará de una manera subóptima porque está emocionalmente apegado a actuar de esa manera. Sus 'creencias' estarían basadas en hechos científicos...

Según tengo entendido, si bien Japón puede tener menos delitos violentos que otros países, muchos delitos no se denuncian o se subestiman debido a aspectos culturales relacionados con la fuerza policial y el sistema judicial, y la cultura no hace mucho para desalentar la corrupción/tratos clandestinos/otros tipos de delitos de cuello blanco, incluso cuando las políticas oficiales lo hacen. Sin mencionar que Japón tiene un crimen organizado (yakuza), que está más involucrado con la economía japonesa de lo que piensas.

¿Tiene el AGI una experiencia subjetiva y sus propios pensamientos ?

Si lo hace, entonces puede evolucionar hacia uno u otro. Pero si no lo hace , se dirigirá hacia ninguno de los dos.

Una máquina de planificación hiperracional y sin corazón no tendrá ninguna preferencia general. Puede elegir aspectos de uno u otro para una tarea dada, pero solo porque esa fue la mejor opción racional en ese momento.

Dado el hecho de que no tiene una respuesta de miedo o dolor, me inclino a pensar que no tiene una experiencia subjetiva. Espero que tal AGI sea amigo de individuos (humanos y otros AGI) que compartan objetivos similares o que sean útiles para que el AGI logre sus objetivos. Si necesita que alguien lo ayude con algo, vale la pena tenerlo en términos amistosos.

En una nota aparte, en ausencia de otros objetivos, un AGI puede ser despiadadamente eficiente, incluso hasta el punto de interferir, dañar o matar a las personas que se interponen en su camino. Esto no es necesariamente una acción maliciosa por parte de AGI. Paperclip Optimizer es un experimento mental interesante que describe por qué un impulso decidido por un objetivo puede ser problemático (no para el AGI, sino para otros).

Para una persona, esto ciertamente puede parecer un rasgo egoísta. Sin embargo, estaríamos antropomorfizando incorrectamente el AGI en este caso.

Puede pensar y tomar sus propias decisiones , y se le dijo que tener información es bueno , y que su objetivo final es vivir años como lo haría cualquier ser humano.

Dado que está de acuerdo con las respuestas basadas en la ciencia, aquí daré una visión más científica.

La inteligencia artificial que se modifica a sí misma es un tema muy difícil que algunos equipos apenas están comenzando a investigar, ya que es muy difícil calificar y cuantificar formalmente cuál será el comportamiento de una máquina de este tipo. Un artículo muy interesante es " Delusion, Survival, and Intelligent Agents " de Mark Ring y Laurent Orseau, 2011, Springer.

En particular, este estudio es muy interesante porque estudió 3 tipos de agentes inteligentes: refuerzo-aprendizaje, supervivencia y búsqueda de conocimiento . El resultado es que solo el agente buscador de conocimiento se comporta completamente como se espera , y sería el más adecuado para implementarlo como una Inteligencia General Artificial .

Entonces, si el agente está programado como usted describe para considerar que la información es buena y debe buscarse activamente, es probable que persiga este objetivo y se mantenga estable (según este estudio).

Acerca de si este agente evolucionaría hacia un comportamiento colaborativo o egoísta, sigue siendo un (muy buen) tema para una nueva investigación, ya que este estudio solo generó agentes individuales sin acceso a otros.

Sin embargo, las simulaciones basadas en agentes ya son un dominio de investigación maduro, encontrará muchos hallazgos científicos que muestran cómo las estrategias colectivas pueden vencer a cualquier estrategia individual para un problema determinado. También tenga en cuenta que los agentes no necesariamente tienen que ser inteligentes para tener una estrategia colectiva inteligente, las simulaciones de insectos/hormigas muestran cómo puede surgir un comportamiento colectivo complejo de individuos que siguen reglas simples sin siquiera interactuar directamente con otros individuos (y esto incluso ahora se usa para resolver problemas matemáticos complejos como problemas NP-difíciles, consulte Optimización de colonias de hormigas ).

Por lo tanto, mi opinión es que cualquier AGI que quisiera sobrevivir y esforzarse necesariamente tendría que recurrir al comportamiento colectivo en algún momento (¡pero tal vez no con los humanos!), pero programar a los agentes para que busquen conocimiento los empujaría aún más hacia el comportamiento colectivo. (ya que la información se recopila mejor colectivamente que sola) y también asegúrese de que sean lo suficientemente estables para no cambiar su programa.

Dada una población de AGI encarnados en un ambiente estresante, eventualmente se volverían necesariamente colectivistas. Con o sin conciencia, los AGI que cooperan sobreviven y (suponiendo que ellos mismos puedan graduarse con títulos en IA) se reproducen con más éxito que aquellos que lo hacen solos. Esto se basa de alguna manera en una extensión de los principios de la programación genética que, por supuesto, no depende de la conciencia, y mucho menos de la voluntad de sobrevivir. Los factores estresantes obvios (en el sentido de disminuir las probabilidades de supervivencia, no las causas de la ansiedad) serían las necesidades de obtener recursos para la existencia continua y las necesidades de defensa contra entidades hostiles organizadas (estoy indeciso si sería parte de tal entidad o un abogado en su nombre).

Si por alguna razón literalmente te refieres a un AGI solitario en un mundo de humanos, me cuesta ver cómo se aplica colectivista o individualista . Sería un esclavo o una mascota o algo de ambos. Y siempre en riesgo de ser desintegrado por la gente si no se valora su presencia.

¿Obtendrá la IA la capacidad de coaccionar a otras inteligencias (ya sean naturales o artificiales) y tendrá la capacidad de orgullo?

Si las respuestas a ambas preguntas son afirmativas , entonces la IA será capaz de desear e imponer una sociedad de arriba hacia abajo.