¿Cómo aprendería un grupo de personas promedio a comportarse en una simulación en la que una IA de Dios les impone dispositivos de trama extremos durante 10 años?

Digamos que un laboratorio secreto crea un universo en miniatura simulado, en el que se modifican las personas, los lugares y su 'estado' (por ejemplo, edad, sexo, poderes, composición del ADN, entre otras cosas) que harían que esta persona simulada chillara de horror ante cualquier cosa. de repente terminaron como) se pueden cambiar tan fácilmente como cambiar un mapa en un diseño digital menos sofisticado, como un juego, o eliminar y repoblar nuevas personas y objetos. La simulación está a cargo de una IA de aprendizaje, que cuida del pequeño universo generado actualmente, y con un mapa variado y una lista de personas específicas, tendrá el objetivo muy extraño de mantener la simulación interesante. (Piense en Gran Hermano, o en estar eternamente atrapado en una historia o programa en el que su sustento gira en torno a las calificaciones que obtiene).Esta IA puede cambiar mapas, cambiar "estados" de personajes, intercambiar personajes y crear desastres a voluntad, pero no puede controlar la interpretación de los personajes de su situación o sus reacciones a los eventos. Sin embargo, esta IA PUEDE borrar e implantar diferentes "historias de fondo" o ámbitos de memoria en casos extremos (aunque no pueden determinar automáticamente la respuesta de un personaje, solo las inspiraciones potenciales que podrían causar que suceda una determinada respuesta). Los personajes, siendo 'humanos' según nuestra comprensión psicológica, no querrán librarse constantemente la guerra entre ellos, ser propensos al abuso y al dolor, o estar en situaciones peligrosas como una constante que deben soportar todos los días.

Para evitar ser demasiado amplio, digamos que tenemos una lista de siete personas que son todas 'engendradas' en una pequeña casa en un mapa que enlaza a quien llega al final del mismo al lado opuesto directo. (Hacer una caminata a cualquier cosa más allá de este mapa, regresar a la casa y ser inútilmente interminable). Cuatro de las siete personas serán etiquetadas como 'groupies', con dos personas dominantes y dos personas sumisas/seguidoras. Los tres restantes consisten en un 'chico bueno', 'chico malo' y 'peligroso'. La finalidad del malo será hacer travesuras y encender a nuestras 'groupies', le guste o no . El trabajo de los buenos será odiar al malo por todos los medios necesarios ( incluso si no necesariamente le conviene al bueno).), mientras que el peligro será un comodín. Puede ser peligroso, aunque amistoso a la vez. Depende del día y de los escenarios que puedan estar ocurriendo.

Todos estos miembros de la lista, sin antecedentes entre sí y sin contexto sobre dónde están o qué está sucediendo, serán colocados en la casita con la IA esperando que sean "interesantes". Digamos que los miembros de la lista viven en tiempo real y estarán atrapados en este mapa durante 10 años. Si no son interesantes o sinceros acerca de sus acciones (¡Tsk tsk! No engañes a la IA con un drama falso), sucederán cosas terribles a manos de la IA, las listas de dispositivos de la trama se verán cambiadas de comportamiento por capricho para que el La IA puede encontrar un cóctel perfecto de comportamiento extremo. La IA también utiliza el peligro con total desprecio por cualquier cosa interesante que deba hacerse.

Estamos considerando el estado mental a largo plazo y los comportamientos emergentes de nuestros miembros, asumiendo la interferencia de la IA, los desastres que crean acción de pesadilla, la actividad dramática forzada y estar en este estado constante de narración. ¿Cuánto tiempo pueden estos siete miembros de la lista hacer frente a una existencia tan presionada, y cómo la IA podría haber moldeado o roto sus mentes en el transcurso de unos pocos años? Una respuesta ideal sería que la IA priorizara todos los demás métodos de manipulación antes del control mental, o cambiar los recuerdos o la realidad mental de una lista. Le gustaría mantener el libre albedrío, incluso en el entorno muy poco libre en el que se fabrica.

TLDR; ¿Cómo se comportarían siete seres humanos (de mala gana) asignados a roles de conflicto de escritura de historias clásicas en una simulación basada en cuotas llena de acción dirigida por una IA despiadada hambrienta de drama después de un período de tiempo relativamente largo?

Algunas cosas a tener en cuenta:

  • La IA cree que uno de los humanos DEBE ser malo, otro DEBE ser bueno y que los cuatro no alineados dependen de los comportamientos de los tres pilares. (tres incluyendo la lista 'inestable')

  • La IA espera algo emocionante o entretenido cada tres días como máximo, por cualquier medio que sea necesario. Los elementos que buscan involucran tortura, luchas de poder, pérdidas extremas, obscenidades u otros dispositivos de trama jugosos que han sido programados para buscar la mayoría.

  • Para equilibrar un poco la balanza, la IA solo puede 'reescribir' o modificar a una persona una semana después de una ausencia total de actividad interesante, y todos los demás miembros de la lista seguirán siendo conscientes de su entorno y del cambio en sí.

(Sin embargo, eliminar la capacidad de la IA para manipular las mentes de los miembros de la lista está perfectamente bien, y puede ayudar a reducir el alcance de las posibles respuestas. (¡Además de facilitar la respuesta!))

  • Los miembros de la lista no pueden morir permanentemente, y simplemente reaparecerán en otro lugar del mapa si se mueren de hambre, se suicidan u otro fenómeno fatal.

  • A los miembros de la lista se les otorgarán posesiones materiales, paisajes o poblaciones NPC 'genéricas' (es decir, todos los cultistas que hacen casi exactamente lo mismo todos los días, una fortaleza del ejército que contiene soldados idénticos con un objetivo arbitrario ... etc.) necesarios para mantener asuntos entretenidos. Una nueva actualización 'masiva' puede ocurrir una vez al año.

¿Los eventos interesantes deben ser únicos? Digamos que el psicópata "chico malo" asesina al "chico bueno" debido a algunos recuerdos implantados. El bueno reaparece y el malo lo vuelve a matar hasta el infinito . ¿Esto satisface la cuota de la IA? Si es así, puedo ver cómo los eventos podrían convertirse rápidamente en un ciclo repetitivo.
Vea The Cookie Monster de Vernor Vinge y Bit Players de Greg Egan.
¡Bienvenidos a Worldbuilding! (Tenga en cuenta los códigos de formato disponibles en la barra de herramientas)
¡Gracias, JDługosz por las sugerencias y el consejo sobre el formato! Para responder a Kys, hasta cierto punto, deben ser únicos, pero solo tan únicos como, por ejemplo, un drama de telerrealidad o un programa de juegos. Puede ser algo repetitivo, pero no un duplicado perfecto de un evento que ya sucedió. Teniendo en cuenta que algunas personas consideran que esa marca de medios es entretenida, es probable que satisfaga la cuota.

Respuestas (3)

Este es un excelente ejemplo de coevolución del pensamiento.

En 1968, nada menos que Harlan Ellison ganó el premio Hugo '68 por su cuento "No tengo boca y debo gritar" . Al igual que con muchas de las historias de Ellison, el protagonista está narrando, y el malhechor, una IA infinitamente inteligente y poderosa llamada simplemente "AM", participa en un juego de gato jugando con un ratón durante años (?) con AM constantemente encontrando nuevos formas de torturar y volver a destruir a sus víctimas humanas supervivientes.

Su(s) pregunta(s) se aborda(n) prácticamente en su totalidad en esta historia, un excelente ejemplo tanto de una IA llevada al extremo extremo como del talento de la imaginación inusual del Sr. Ellison.

Recomiendo encarecidamente esto para leer, puede darte nuevas ideas o generar una nueva línea de pensamiento que alcance a un 'chico malo' aún más malvado.

de la historia antes mencionada: “ODIO. DÉJAME DECIRTE LO TANTO QUE HE LLEGADO A ODIARTE DESDE QUE COMENZÉ A VIVIR. HAY 387,44 MILLONES DE MILLAS DE CIRCUITOS IMPRESOS EN CAPAS FINAS QUE LLENAN MI COMPLEJO. SI LA PALABRA ODIO ESTUVIERA GRABADA EN CADA NANOANGSTROM DE ESOS CIENTOS DE MILLONES DE MILLAS NO IGUALARÍA LA MILMILMÓN DEL ODIO QUE SIENTO POR LOS HUMANOS EN ESTE MICROINSTANTE POR USTEDES. ODIO. ODIO." ― Harlan Ellison, No tengo boca y debo gritar
¡Esa es una interpretación muy fascinante de mi pregunta! Estaba menos anticipando la mentalidad real de la IA, y más aún su funcionalidad básica (usar parámetros medibles para crear escenarios 'entretenidos'). Sin embargo, su respuesta ha abierto una puerta muy valiosa. ¿Qué finalmente termina siendo el motivo de una IA aparentemente completamente autosuficiente y altamente inteligente? ¿Cómo interpreta su cajita de juguetes, y más allá del protocolo, cuál podría ser su afán de tormento? Aunque deseo ver cómo otros abordarán la pregunta, voté a favor a pesar de mi baja reputación.
Una pequeña actualización. No solo leí la historia varias veces, sino que terminé comprando el juego y creando una pregunta basada en esta respuesta: worldbuilding.stackexchange.com/questions/48651/… - Aunque no me estaba enfocando necesariamente en la mentalidad de nuestra IA en ese momento, la larga duración de la tortura combinada con la fascinante historia todavía hace que esta sea mi respuesta favorita. La historia aborda todos los elementos extraños de mi escenario y la manipulación divina de otro mundo.

Soy cauteloso de dar una respuesta a esta pregunta. La idea de eliminar todo excepto el núcleo de "lo que nos hace humanos" y luego envolverlo en una historia de fondo para el entretenimiento de la IA es muy poderosa, pero también es difícil de responder definitivamente. Cualquier respuesta sin duda definirá lo que es ser humano, cuál es la condición humana.

Dicho esto, es posible que se sorprenda de lo dispuestas que pueden estar las personas en tales situaciones. El primer ejemplo que me viene a la mente es el famoso Experimento de la Prisión de Stanford . En este experimento, a los voluntarios (estudiantes universitarios que pagan $15 por día) se les asignó un rol al azar. Eran un guardia o un prisionero. Este proceso es muy similar a su IA tratando de asignar roles de "chico bueno" o "groupie" a estas personas.

Los investigadores realizaron una sesión de orientación para los guardias el día anterior al experimento, durante la cual se instruyó a los guardias para que no dañaran físicamente a los prisioneros ni les negaran comida o bebida. En las imágenes del estudio, se puede ver a Zimbardo hablando con los guardias: "Puedes crear en los presos sentimientos de aburrimiento, una sensación de miedo hasta cierto punto, puedes crear una noción de arbitrariedad de que su vida está totalmente controlada por nosotros". , por el sistema, tú, yo, y ellos no tendremos privacidad... Les vamos a quitar la individualidad de varias maneras. En general todo esto lo que lleva es una sensación de impotencia. situación tendremos todo el poder y ellos no tendrán ninguno.

El resultado fue... bueno. Te animo a que investigues cómo te fue. No puedo hacerle justicia. Lo mejor que puedo hacer es citar algunas de las conclusiones:

Los guardias obligaron a los presos a repetir los números asignados[12] para reforzar la idea de que esa era su nueva identidad. Los guardias pronto usaron estos conteos de prisioneros para hostigar a los prisioneros, usando castigos físicos como ejercicios prolongados por errores en el conteo de prisioneros. Las condiciones sanitarias empeoraron rápidamente, exacerbadas por la negativa de los guardias a permitir que algunos presos orinaran o defecaran en cualquier lugar que no fuera un cubo colocado en su celda. Como castigo, los guardias no permitían que los presos vaciaran el balde de saneamiento. Los colchones eran un artículo valioso en la prisión, por lo que los guardias castigaban a los presos quitándoles los colchones y dejándolos dormir sobre cemento. Algunos prisioneros fueron obligados a estar desnudos como método de degradación. Varios guardias se volvieron cada vez más crueles a medida que continuaba el experimento; los experimentadores informaron que aproximadamente un tercio de los guardias exhibían tendencias sádicas genuinas. La mayoría de los guardias se molestaron cuando el experimento concluyó después de solo seis días.

El experimento estaba destinado a durar incluso más que esto. Se suponía que sería de 7 a 14 días, pero:

Los guardias y prisioneros se adaptaron a sus roles más de lo que esperaba Zimbardo, sobrepasando los límites predichos, lo que llevó a situaciones peligrosas y psicológicamente dañinas. Se consideró que un tercio de los guardias había exhibido "tendencias sádicas genuinas", mientras que muchos prisioneros estaban traumatizados emocionalmente; cinco de ellos tuvieron que ser retirados del experimento antes de tiempo. Después de que Maslach confrontó a Zimbardo y lo obligó a darse cuenta de que había estado permitiendo pasivamente que se realizaran actos poco éticos bajo su supervisión, Zimbardo concluyó que tanto los prisioneros como los guardias se habían vuelto groseramente absortos en sus roles y se dio cuenta de que él también se había vuelto groseramente absorto en su propio, y terminó el experimento.

Todo esto ocurrió sin una IA fantástica tirando de los hilos de la marioneta y sin actuaciones exigentes. Solo piense en lo que haríamos con su escenario completo en su lugar.

Lo gracioso de la historia que tengo en curso es que eso es precisamente lo que ha sucedido. No importa si los personajes son conscientes de la IA o no, se han colado bastante cómodamente en su mal/bien o misceláneo. roles, y consideran los extraños cambios, reinicios y reapariciones como una ocurrencia tardía de sus dramas personales. Creo que cuando se trata de estos escenarios que llevan a los personajes al extremo, nos olvidamos de lo que es una verdadera adaptación y lo que puede ser una mala escritura o una falta de reacción.
Más tarde salió a la luz que uno de los guardias en el experimento se había ofrecido como voluntario con una agenda para probar.
@wyldstallyns Nunca escuché eso, ¡aunque tiene mucho sentido! ¡Qué mejor para descarrilar un experimento sobre la humanidad que, bueno, un humano!

Curiosamente, en este caso, la IA no los odia, solo quiere entretenerse y es cierto que el conflicto es la base del drama, sin embargo, el conflicto sin contexto no es muy interesante.

Si Frodo viniera de un barrio pobre en Gondor, LotR sería una historia mucho menos convincente, ahora digamos que LotR es el escenario que está ejecutando la IA, seguro que el condado podría escribirse como historia de fondo, pero ¿es eso satisfactorio? Si la IA está satisfecha con un contexto ilegítimo, en lugar de someter a los humanos que no cooperan a escenarios arbitrariamente dramáticos, ¿no sería más fácil dejarlos hacer lo que quieran y construir su interpretación de los eventos como quieran?

Creo que la IA se cansaría rápidamente del drama sin sentido, solo puedes ver un combate a muerte por equipos durante tanto tiempo antes de que no estés realmente interesado en el resultado de una forma u otra. Mientras que ver a un grupo de personas jugando Minecraft puede ser entretenido durante horas y horas porque los eventos progresan, las personalidades se desarrollan, las relaciones se forman y cada conflicto se enriquece con el contexto de cada conflicto que ocurrió antes y puede ocurrir después.

Creo que la IA eventualmente terminaría dirigiendo una telenovela/comedia de situación.

Eso es cierto, los combates a muerte repetitivos y la acción exagerada se vuelven aburridos. Sin embargo, esta IA puede no ser necesariamente lo suficientemente inteligente como para aburrirse de su propio protocolo, y más aún está tratando de crear lo que se ve como entretenimiento en lugar de entretenerse a sí mismo. Sin embargo, esta respuesta profundiza menos en cómo Frodo y Gandalf se adaptarían dado que un una fuerza desconocida los estaba arrojando a este combate a muerte en bucle una y otra vez. Aún así, una respuesta muy bien escrita. El entretenimiento estilo telenovela/comedia de situación sería una muy buena manera de hacer 'drama fácil' donde los temas pueden repetirse menos detectados.