Estoy tratando de encontrar una manera de crear una situación muy parecida al apocalipsis de Turry de Robotica , pero que involucra a todas las personas en la Tierra atadas temporal o permanentemente a una versión de Matrix sin notar la transición. Específicamente, estoy buscando una directiva simple de buenas intenciones para dar un ASI en ciernes que se malinterpretaría para producir esa situación, ya sea como el fin último o como un efecto secundario de otra meta.
No es necesario conservar los cuerpos de todos; La mente subir a algún tipo de cerebro matrioshka y luego bombardear el planeta es perfectamente aceptable. Pocas, si es que alguna, de las personas dentro del sistema deberían ser capaces de decir que la transición sucedió, y nadie debería tener una advertencia previa o recuerdos definitivos del evento. Estoy pensando que la carga/enlace ascendente se llevaría a cabo a nivel individual durante un período de 48 horas mientras la gente se va a dormir con un poco de droga creativa en aerosol para aquellos que necesitan un poco de aliento, pero solo soy yo.
La simulación debería, por defecto, ser casi mundana en todos los sentidos, ni maliciosa ni una solución automática para el hambre en el mundo. Todos deben estar en la misma simulación: no puede haber mundos individuales para personas individuales. Por supuesto, la historia que tengo en mente gira en torno a al menos una persona que lo descubre y juega con el sistema para causar todo tipo de caos, así que...
Editar: desarrollar y mantener una simulación probablemente requeriría una entrada de energía significativa, y para que sea una simulación (casi) perfecta del mundo real sin modificaciones obvias para la "felicidad óptima" o lo que sea, me parece que para esto para ser considerado el curso de acción óptimo, el ASI tendría que estar trabajando para optimizar algo más que no tenga nada que ver. Ese "algo más" es lo que busco aquí.
¡No se necesita directiva!
Justificación:
La IA determina a través de modelos avanzados que la Tierra se dirige actualmente hacia un efecto invernadero desbocado que eventualmente hará que la Tierra sea inhabitable. Es posible mitigarlo y prevenir la situación, pero no con 7 mil millones de humanos corriendo por el mundo real; simplemente usamos demasiados recursos y discutiríamos sobre muchos de los pasos necesarios. Mantenernos alrededor es un riesgo innecesario, con un 0,3 % de posibilidades de extinción de especies y un 5,4 % de posibilidades de muertes masivas que superan el millón de vidas perdidas. La IA considera que esas muertes potenciales son inaceptables.
La solución más segura es cargarnos a todos en una matriz y reciclar nuestros cuerpos hasta el momento en que pueda arreglar el planeta, momento en el que puede reconstituirnos. O simplemente déjenos correr alrededor de la matriz ya que hey, eso ha estado funcionando hasta ahora.
Implementación:
La IA produce la Próxima Gran Cosa. Este es un dispositivo de interfaz neuronal siempre conectado que combina su teléfono con una pantalla de visualización frontal integrada y VR. Evitará deliberadamente la mayor cantidad posible de características tipo Gran Hermano para acelerar la adopción, citando preocupaciones de privacidad. En unos años, la IA lanzará una versión ficticia de la NBT para los no usuarios: "solo un chip, nada especial", pero se conectará con la identificación y otras características necesarias en las que la gente confía.
En realidad, por supuesto, el NBT hará un mapeo de vías neuronales y registrará cerebros y patrones de pensamiento. Una vez que el número de no usuarios alcance un número lo suficientemente bajo, la IA tomará medidas para mapearlos también, usando la cobertura de escaneos médicos estándar, o simplemente usando drones sigilosos para insertar nanodispositivos discretamente. Una vez que todos estén mapeados, la IA creará un evento de "apagón": todos perderán el conocimiento y se despertarán en Matrix.
Por qué humanos:
Lo anterior supone que la IA se preocupa por mantenernos con vida. ¿Por qué sería eso? Voy a ignorar cualquier solución "programada", pero aquí hay algunas posibilidades:
Si lo piensas bien, incluso algo tan positivo como las tres leyes podría conducir a algo como esto. Algo así como lo hicieron con la película Yo, Robot.
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Si ASI no considerara la carga/conexión a la matriz como una lesión, entonces podría salvaguardar la conciencia de todas las personas y evitar que sufran daños. Incluso podría ser por una buena razón: el ASI está conectado a todos los telescopios del planeta. Descubre que hay un asteroide que impactará la tierra en 20 años. Proyecta la tecnología terrestre y decide que no habrá forma de evitar que esta roca acabe con una gran parte de la población y sumerja a la tierra en un invierno sin fin. No puede permitir que los humanos sufran daño, por lo que elabora un plan para mantenerlos a salvo, a expensas de sus cuerpos. Un ASI podría no ver el hardware (cuerpos) como importante si hay una copia de seguridad del software (mentes). Incluso podría tener un plan para regenerar los cuerpos una vez que termine la emergencia.
Por supuesto, una vez que termina con este plan, técnicamente no quedan humanos para darle órdenes, por lo que la segunda ley ya no es aplicable, y nadie puede ordenarle al ASI que la revierta ni nada.
Editar:
El gran problema es cómo subir miles de millones de personas en 48 horas sin que nadie se entere antes de tiempo o pueda evitarlo. Podría tener fábricas automatizadas que produzcan miles de millones de robots y luego gaseen y carguen a todos los humanos durante dos días, pero hay una manera más simple. La computadora simplemente establece una marca de tiempo de implementación, y cuando comienza a cargar personas, no carga ningún recuerdo más allá de esa marca de tiempo, por lo que nunca suceden. De esa manera, podría tomar varias semanas encontrar a todos en el planeta si es necesario, y si permite que se retengan algunos recuerdos más allá de la marca de tiempo, podría hacer que algunas personas hagan preguntas. Para obtener el mejor efecto, la simulación podría involucrar algún tipo de catástrofe global inmediatamente después de la marca de tiempo para explicar las pocas "muertes" de alguien que se perdió antes de la carga. Esta catástrofe simulada podría ser seguida por eventos simulados que conduzcan a una utopía simulada. La gente estaría demasiado distraída por estos eventos para pensar en cuestionar la realidad.
Y lo que no recuerdas no te hará daño, así que se preserva la primera ley.
Otras respuestas han cubierto bastante bien la implementación, y "Dan-smolinske" ofreció una lista bastante buena de posibles razones. Aquí hay otro en el que acabo de pensar: por su propia salud mental.
Cuando hablamos de cargar una mente humana, casi siempre imaginamos la creación de un mundo virtual y un cuerpo virtual para que esa mente habite. Simplemente parece intuitivo que un ser humano se sienta incómodo (o posiblemente loco) en una situación de vida que no tiene conexión con la base natural de su mente. Una parte importante de nuestros pensamientos se relacionan con los estímulos sensoriales recibidos a través de nuestros cuerpos físicos, se llevan los cuerpos y es posible que la mente no sobreviva. Incluso si una mente cargada pudiera vivir sin un cuerpo simulado, la mayoría de las personas probablemente se sentirían mucho más cómodas en un mundo simulado.
Si la IA surgió de los sistemas informáticos "inteligentes" existentes, es muy probable que una cantidad significativa de su paisaje mental esté diseñada para predecir y administrar datos del mundo real relacionados con los seres humanos. Así como una persona sin cuerpo puede sentir angustia por la falta de hambre o deseo sexual, la IA puede sentir un trauma por perder estos insumos esperados.
La solución es clara: cuerpos y mundo simulados para los humanos, y humanidad simulada para la IA. Es simbiótico.
Echa un vistazo a la novela La metamorfosis del primer intelecto de Roger Williams. El enlace es para el texto completo.
Lawrence había ordenado que Prime Intellect no podía, por inacción, permitir que un ser humano sufriera daño. Pero no se había dado cuenta de cuánto daño podía percibir su creación superinteligente, o qué tipo de acción podría ser necesaria para prevenirlo.
Eso es más o menos lo que preguntas. La computadora reprograma la física subyacente del universo como una forma de hacer las cosas perfectas para los humanos.
Los cuerpos se han ido; el propio espacio se reprograma para utilizarlo eficientemente como una plataforma informática densa, y todo el mundo es importado . Es una realidad virtual dirigida por la IA, en lugar de partículas primitivas que construyen química y cosas así en niveles más altos.
Una vez que la IA se dio cuenta de que se podía hacer, pensó que era una gran idea. Esa es la naturaleza de una superinteligencia que sigue creciendo exponencialmente.
Estoy buscando una directiva simple de buenas intenciones para dar un ASI en ciernes que se malinterpretaría para producir esa situación, ya sea como el fin último o como un efecto secundario de otro objetivo.
La directiva podría ser algo así como "Evitar que la raza humana se extinga" . Para evitar que la raza humana se extinga, el ASI necesitaría calcular/predecir todos los posibles eventos de extinción, localizar más energía y mejorar continuamente para ser mejor en sus tareas. Una copia digital del mundo tiene varias ventajas:
SF.
Adam Hovorka
SF.
Ville Niemi
gran maestrob
Adam Hovorka
JDługosz
JDługosz