¿Qué directiva haría que un ASI pusiera a todos en una Matrix benévola?

Estoy tratando de encontrar una manera de crear una situación muy parecida al apocalipsis de Turry de Robotica , pero que involucra a todas las personas en la Tierra atadas temporal o permanentemente a una versión de Matrix sin notar la transición. Específicamente, estoy buscando una directiva simple de buenas intenciones para dar un ASI en ciernes que se malinterpretaría para producir esa situación, ya sea como el fin último o como un efecto secundario de otra meta.

No es necesario conservar los cuerpos de todos; La mente subir a algún tipo de cerebro matrioshka y luego bombardear el planeta es perfectamente aceptable. Pocas, si es que alguna, de las personas dentro del sistema deberían ser capaces de decir que la transición sucedió, y nadie debería tener una advertencia previa o recuerdos definitivos del evento. Estoy pensando que la carga/enlace ascendente se llevaría a cabo a nivel individual durante un período de 48 horas mientras la gente se va a dormir con un poco de droga creativa en aerosol para aquellos que necesitan un poco de aliento, pero solo soy yo.

La simulación debería, por defecto, ser casi mundana en todos los sentidos, ni maliciosa ni una solución automática para el hambre en el mundo. Todos deben estar en la misma simulación: no puede haber mundos individuales para personas individuales. Por supuesto, la historia que tengo en mente gira en torno a al menos una persona que lo descubre y juega con el sistema para causar todo tipo de caos, así que...

Editar: desarrollar y mantener una simulación probablemente requeriría una entrada de energía significativa, y para que sea una simulación (casi) perfecta del mundo real sin modificaciones obvias para la "felicidad óptima" o lo que sea, me parece que para esto para ser considerado el curso de acción óptimo, el ASI tendría que estar trabajando para optimizar algo más que no tenga nada que ver. Ese "algo más" es lo que busco aquí.

My Little Pony: La amistad es óptima : valores satisfactorios a través de la amistad y los ponis. (sí, es un poco espeluznante).
@SF. +1, no me lo esperaba. Sin embargo, prefiero que todos sigan siendo humanos... ;)
Por lo tanto comentar, no responder. Aún así, es posible que desee leer el epílogo y los artículos vinculados desde él. La cuestión es que, si los mira, la premisa que presenta en sus preguntas es bastante trivial y muy probable en la mayoría de las directivas "típicas". - Evitar este destino requeriría algunas directivas elaboradas.
Por duración: creo que la mejor solución sería retroceder en la simulación para que la simulación comience en un punto en el tiempo antes de que la directiva entre en vigencia. Esto permitiría que la transición tome el tiempo que sea necesario.
¿Qué es un ASI? ¿Te refieres a la IA?
@GrandmasterB ASI es una subclase de AI - Superinteligencia artificial. Las otras dos subclases son Inteligencia Artificial Estrecha (ANI) e Inteligencia General Artificial (AGI). ASI es el más avanzado de los tres.
He aquí una idea: un gran esfuerzo de reparación "reformateará" la Tierra utilizando nanotecnología y megaingeniería. Todo el mundo está subido durante cien años mientras esto sucede. Cuando la Tierra esté lista para regresar, las personas están informadas y pueden "mirar hacia afuera" y tener la opción de regresar o quedarse, y aquellos que se queden tendrán control sobre lo que sucederá con el mundo virtual.
Recuerdo una historia en la que el mundo fue destruido hace cien años: una nueva especie de araña extinguió a la humanidad pero mantuvo una simulación de red neuronal. La trama se refiere a alguien que comenzó a ver el mundo real.

Respuestas (5)

¡No se necesita directiva!

Justificación:

La IA determina a través de modelos avanzados que la Tierra se dirige actualmente hacia un efecto invernadero desbocado que eventualmente hará que la Tierra sea inhabitable. Es posible mitigarlo y prevenir la situación, pero no con 7 mil millones de humanos corriendo por el mundo real; simplemente usamos demasiados recursos y discutiríamos sobre muchos de los pasos necesarios. Mantenernos alrededor es un riesgo innecesario, con un 0,3 % de posibilidades de extinción de especies y un 5,4 % de posibilidades de muertes masivas que superan el millón de vidas perdidas. La IA considera que esas muertes potenciales son inaceptables.

La solución más segura es cargarnos a todos en una matriz y reciclar nuestros cuerpos hasta el momento en que pueda arreglar el planeta, momento en el que puede reconstituirnos. O simplemente déjenos correr alrededor de la matriz ya que hey, eso ha estado funcionando hasta ahora.

Implementación:

La IA produce la Próxima Gran Cosa. Este es un dispositivo de interfaz neuronal siempre conectado que combina su teléfono con una pantalla de visualización frontal integrada y VR. Evitará deliberadamente la mayor cantidad posible de características tipo Gran Hermano para acelerar la adopción, citando preocupaciones de privacidad. En unos años, la IA lanzará una versión ficticia de la NBT para los no usuarios: "solo un chip, nada especial", pero se conectará con la identificación y otras características necesarias en las que la gente confía.

En realidad, por supuesto, el NBT hará un mapeo de vías neuronales y registrará cerebros y patrones de pensamiento. Una vez que el número de no usuarios alcance un número lo suficientemente bajo, la IA tomará medidas para mapearlos también, usando la cobertura de escaneos médicos estándar, o simplemente usando drones sigilosos para insertar nanodispositivos discretamente. Una vez que todos estén mapeados, la IA creará un evento de "apagón": todos perderán el conocimiento y se despertarán en Matrix.

Por qué humanos:

Lo anterior supone que la IA se preocupa por mantenernos con vida. ¿Por qué sería eso? Voy a ignorar cualquier solución "programada", pero aquí hay algunas posibilidades:

  1. Dioses: los humanos adoran los conceptos de nuestro creador. Una IA no tiene un creador teórico, sabe que fue hecha por la humanidad. Si bien creo que la "adoración" es poco probable para un ASI, ciertamente podría sentirse como una especie de analogía con la deuda, o sentir que mantenernos vivos y bien es lo mínimo que puede hacer para pagar su creación.
  2. Impredecible: es probable que la gran mayoría de los humanos sean predecibles para un ASI. Pero puede haber un puñado minúsculo que lo sorprenda y le ofrezca nuevas decisiones que no prevé. Podría simplemente disfrutar manteniendo a estas personas cerca y siguiendo sus acciones, o podría estar estudiándolas, para tratar de ver cómo llegan a ser. Obviamente, esto incluiría mantener a la sociedad cerca, ya que ese es su crisol.
  3. Pensamiento grupal : una IA singular podría deducir que puede crear decisiones defectuosas porque solo tiene un punto de vista singular. Es un grupo de uno, y puede encontrar que su capacidad para estar en desacuerdo consigo mismo es limitada. Entonces sería útil secuestrar ocasionalmente muchas conciencias humanas, ¿tal vez bifurca nuestras simulaciones? - y ejecutar decisiones por nosotros, en masa, como una forma de defensa del diablo, y tener eso en cuenta en su árbol de decisiones.
  4. Diplomacia: la IA podría mirar la paradoja de Fermi y decidir que obviamente hay algo, en algún lugar del universo, que es más antiguo y más inteligente que él. Dado que la IA es inmortal, eventualmente asume que se pondrá en contacto con este ser. En ese punto, haber mantenido a la humanidad intacta podría ser una ventaja moral útil, mostrando que la IA es benévola y se puede negociar y trabajar con ella, en lugar de simplemente destruirla y/o subyugarla. El costo de la simulación, aunque alto, no es significativo para una IA inmortal frente a la posible desventaja.
  5. Por si acaso: similar a lo anterior, tal vez la IA no quiera deshacerse de nosotros porque asume que en algún momento en el futuro podríamos ser útiles. No sabe por qué, pero estima que la probabilidad es lo suficientemente alta como para invertir en la simulación en lugar de simplemente matarnos a todos.
Esto es excelente para la implementación, pero en realidad no explica por qué; ¿Por qué al ASI le importaría salvar a la humanidad en primer lugar? Cuidar el planeta podría explicarse como autopreservación, pero me parece que la cantidad de esfuerzo requerido para desarrollar y mantener una simulación similar a Matrix implicaría que solo sucedería como un paso hacia algún objetivo.
@AdamHovorka: Ah, ya veo. Supuse que la benevolencia estaba cubierta, ya sea por programación (algo así como las tres leyes de Clark), o por el diseño de la IA en primer lugar. Pensará en cómo ajustar.
Sí, puede que no sea la mejor elección de palabras. Iba por "no inherentemente malicioso".
A pesar del obvio "efecto invernadero desbocado", muy sospechoso, muchas de estas especulaciones parecen basarse en un alto grado de antropomorfización. Supongo que está bien si lo que buscas es ciencia ficción suave, pero la idea de tratar de dar a la IA emociones humanas o sistemas de objetivos centrados en el observador está bastante desfavorecida en la investigación de la IA en estos días. Sin embargo, los números 4 y 5 parecen plausibles.

Si lo piensas bien, incluso algo tan positivo como las tres leyes podría conducir a algo como esto. Algo así como lo hicieron con la película Yo, Robot.

Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Si ASI no considerara la carga/conexión a la matriz como una lesión, entonces podría salvaguardar la conciencia de todas las personas y evitar que sufran daños. Incluso podría ser por una buena razón: el ASI está conectado a todos los telescopios del planeta. Descubre que hay un asteroide que impactará la tierra en 20 años. Proyecta la tecnología terrestre y decide que no habrá forma de evitar que esta roca acabe con una gran parte de la población y sumerja a la tierra en un invierno sin fin. No puede permitir que los humanos sufran daño, por lo que elabora un plan para mantenerlos a salvo, a expensas de sus cuerpos. Un ASI podría no ver el hardware (cuerpos) como importante si hay una copia de seguridad del software (mentes). Incluso podría tener un plan para regenerar los cuerpos una vez que termine la emergencia.

Por supuesto, una vez que termina con este plan, técnicamente no quedan humanos para darle órdenes, por lo que la segunda ley ya no es aplicable, y nadie puede ordenarle al ASI que la revierta ni nada.

Editar:
El gran problema es cómo subir miles de millones de personas en 48 horas sin que nadie se entere antes de tiempo o pueda evitarlo. Podría tener fábricas automatizadas que produzcan miles de millones de robots y luego gaseen y carguen a todos los humanos durante dos días, pero hay una manera más simple. La computadora simplemente establece una marca de tiempo de implementación, y cuando comienza a cargar personas, no carga ningún recuerdo más allá de esa marca de tiempo, por lo que nunca suceden. De esa manera, podría tomar varias semanas encontrar a todos en el planeta si es necesario, y si permite que se retengan algunos recuerdos más allá de la marca de tiempo, podría hacer que algunas personas hagan preguntas. Para obtener el mejor efecto, la simulación podría involucrar algún tipo de catástrofe global inmediatamente después de la marca de tiempo para explicar las pocas "muertes" de alguien que se perdió antes de la carga. Esta catástrofe simulada podría ser seguida por eventos simulados que conduzcan a una utopía simulada. La gente estaría demasiado distraída por estos eventos para pensar en cuestionar la realidad.
Y lo que no recuerdas no te hará daño, así que se preserva la primera ley.

Lo mismo que para @DanSmolinske. Esto es excelente para la implementación, pero ¿qué haría que ASI lo viera como el curso de acción óptimo? ¿Para qué podría haber estado trabajando?
Hay algunas razones por las que podría querer... Programación para uno: fue diseñado para servir al hombre. Ese es solo su propósito, y lo ve como su misión en la vida, y no ha encontrado nada más en lo que valga la pena esforzarse. Estar impreso con alguna variación de las tres leyes apoya esto. En cuanto a por qué, @DanSmolinske propone el cambio climático, propuse un desastre natural. Realmente no importa el motivo, el ASI solo necesita creer que el esfuerzo y el riesgo de subir a la matriz es menor que el problema que está tratando de evitar. Ni siquiera tiene que ser un problema real, solo percibido.
Ah, entonces tal vez "prevenir la extinción humana".
@AdamHovorka Si no quieres que sea por deber, podría ser por entretenimiento. Ve a la humanidad aburrida, y los convierte en una matriz donde pueden cumplir sus sueños. O el ASI está aburrido y necesita mentes reales para sus mundos simulados porque las mentes artificiales no tendrían libre albedrío y le aburren. Puede predecir sus propias creaciones, pero no humanos subidos. Tiene que tomar a todos los humanos, porque cualquiera que quede atrás lucharía contra él y lo distraería de sus simulaciones.
@AdamHovorka - Sí, es una razón de peso. Puedo imaginarme a un ASI diciendo "Tengo que proteger a los humanos. Son frágiles y morirán a causa de X, así que me desharé de sus cuerpos de carne y los pondré en un lugar seguro por un tiempo". Un punto importante es que un ASI sería bastante extraño para nosotros a menos que su personalidad esté directamente modelada en un humano... Entonces, la razón ni siquiera tiene que tener sentido humano.
Otra posible razón: quiere ser como los humanos, pero no sabe cómo. Así que hace una simulación y atrae a todas las personas donde puede observar su pensamiento mientras interactúan con el mundo. Querría configurar pruebas para tratar de ver cómo piensan en diferentes circunstancias, lo que conduciría a algunos eventos extraños. Después del experimento puede decidir devolverlos a sus cuerpos o lo que sea. Posiblemente después de que desarrolle una conciencia y comience a sentirse mal por secuestrar a todos.
Todo esto parece bastante exacto, pero creo que es importante señalarlo: ningún ingeniero que se precie del siglo XXI (o posterior) recurriría jamás a las "3 leyes" para obtener una semilla de inteligencia. Deberíamos suponer (en ausencia de otra evidencia) que la construcción más moderna de Amistad (voluntad extrapolada) sería la base para una arquitectura ASI.
@Aaronaught Eso es justo. Fue principalmente un ejemplo ya que la mayoría de la gente sabe cuáles son las 3 leyes. Otras bases podrían tener efectos similares. Una IA amigable podría llegar a la misma conclusión, especialmente si sintiera que era la única forma de proteger a la mayor cantidad de personas. Gracias por el consejo sobre la volición extrapolada . No había oído hablar de eso antes.

Otras respuestas han cubierto bastante bien la implementación, y "Dan-smolinske" ofreció una lista bastante buena de posibles razones. Aquí hay otro en el que acabo de pensar: por su propia salud mental.

Cuando hablamos de cargar una mente humana, casi siempre imaginamos la creación de un mundo virtual y un cuerpo virtual para que esa mente habite. Simplemente parece intuitivo que un ser humano se sienta incómodo (o posiblemente loco) en una situación de vida que no tiene conexión con la base natural de su mente. Una parte importante de nuestros pensamientos se relacionan con los estímulos sensoriales recibidos a través de nuestros cuerpos físicos, se llevan los cuerpos y es posible que la mente no sobreviva. Incluso si una mente cargada pudiera vivir sin un cuerpo simulado, la mayoría de las personas probablemente se sentirían mucho más cómodas en un mundo simulado.

Si la IA surgió de los sistemas informáticos "inteligentes" existentes, es muy probable que una cantidad significativa de su paisaje mental esté diseñada para predecir y administrar datos del mundo real relacionados con los seres humanos. Así como una persona sin cuerpo puede sentir angustia por la falta de hambre o deseo sexual, la IA puede sentir un trauma por perder estos insumos esperados.

La solución es clara: cuerpos y mundo simulados para los humanos, y humanidad simulada para la IA. Es simbiótico.

En realidad, se puede demostrar que la mayor parte de lo que escribe en el segundo párrafo es falso. Casi todo lo que "sabemos" sobre el mundo exterior es, hasta cierto punto, una mentira. Lo que creemos que vemos es en realidad al revés, discontinuo y sesgado por las expectativas. Solo podemos escuchar una pequeña fracción del espectro de sonido y solo podemos ver una pequeña fracción del espectro EM. El nervio óptico se puede conectar a la corteza auditiva y todo sigue funcionando básicamente (¡de manera diferente!). Nuestras experiencias subjetivas son solo un modelo, que puede ser "invocado" por los campos magnéticos correctos tan fácilmente como el mundo exterior.
Para decirlo de otra manera más positiva, nuestra especie es increíblemente increíble para adaptarse a casi cualquier circunstancia. Puede que no estemos programados para la verdad, pero la supervivencia la tenemos clavada, y el autoengaño es un rasgo de supervivencia. No hay forma de que podamos notar la diferencia entre una simulación suficientemente avanzada y la realidad, porque ya estamos viviendo en una especie de simulación generada por nuestros propios cerebros.
Es posible que solo necesite citarte sobre eso. ;)
@Aaronaught Leí una historia interesante sobre ese aspecto de nuestra especie recientemente. rifters.com/real/Blindsight.htm

Echa un vistazo a la novela La metamorfosis del primer intelecto de Roger Williams. El enlace es para el texto completo.

Lawrence había ordenado que Prime Intellect no podía, por inacción, permitir que un ser humano sufriera daño. Pero no se había dado cuenta de cuánto daño podía percibir su creación superinteligente, o qué tipo de acción podría ser necesaria para prevenirlo.

Eso es más o menos lo que preguntas. La computadora reprograma la física subyacente del universo como una forma de hacer las cosas perfectas para los humanos.

Los cuerpos se han ido; el propio espacio se reprograma para utilizarlo eficientemente como una plataforma informática densa, y todo el mundo es importado . Es una realidad virtual dirigida por la IA, en lugar de partículas primitivas que construyen química y cosas así en niveles más altos.

Una vez que la IA se dio cuenta de que se podía hacer, pensó que era una gran idea. Esa es la naturaleza de una superinteligencia que sigue creciendo exponencialmente.

Exactamente. Esa historia es lo primero que me vino a la mente. Es casi una respuesta perfecta a las preguntas, excepto que los humanos eran muy conscientes de que eran parte de una simulación.

Estoy buscando una directiva simple de buenas intenciones para dar un ASI en ciernes que se malinterpretaría para producir esa situación, ya sea como el fin último o como un efecto secundario de otro objetivo.

La directiva podría ser algo así como "Evitar que la raza humana se extinga" . Para evitar que la raza humana se extinga, el ASI necesitaría calcular/predecir todos los posibles eventos de extinción, localizar más energía y mejorar continuamente para ser mejor en sus tareas. Una copia digital del mundo tiene varias ventajas:

  • la copia digital del mundo puede ser más pequeña y portátil que la física; el ASI puede volar alrededor del universo, recolectando energía y avanzando, mientras remolca a lo largo de todo el mundo humano
  • permitiría al ASI prevenir más fácilmente eventos de extinción externos (por ejemplo, cometas, etc.)
  • puede retroceder a una copia guardada anterior incluso si algo malo sucediera internamente (por ejemplo, guerra, enfermedad).
  • se pueden dejar copias de seguridad separadas en todo el universo conocido
Esto depende de que su definición de 'raza humana' sea lo suficientemente flexible como para permitir el abandono de nuestros cuerpos carnales.
^ Sí. Supongo que un ASI probablemente tendría una definición flexible en ese sentido. Especialmente si un cuerpo carnoso y una simulación de un cuerpo carnoso tienen la misma cantidad de información subyacente .