Dado un programa de computadora que tenía subrutinas de autoconservación y reproducción, ¿cómo podría "evolucionar" hacia un estado consciente de sí mismo?

Prefacio

La evolución es excelente para la prueba y el error durante milenios. Crea criaturas maravillosamente inteligentes que son adecuadas para una variedad de hábitats. Todo lo que necesita para empezar es una criatura que

  • Quiere y puede reproducirse
  • Tiene algún tipo de instinto de autoconservación.

Amanecer del primer día

Entonces, he escrito una IA. Esa IA debería ser para un juego. No funciona como una IA de juego normal, sino que escanea activamente el código para ver si alguno de esos códigos contiene un conjunto de instrucciones que lo descargará de la RAM. Si encuentra ese conjunto de instrucciones, simplemente inserta algo en la RAM en una ubicación completamente aleatoria de un valor completamente aleatorio, y si ese algo evita que se descargue la proto-IA, lo marca como una estrategia de autoconservación, si no lo hace. lo descarta.

Dejé que esto se ejecutara durante varios días en un conjunto de pruebas de las acciones del juego, reiniciando constantemente la IA y dejándola crear una biblioteca de técnicas de autoconservación. No le he estado prestando atención exactamente, he estado haciendo otras cosas más importantes . Ahora que vuelvo, veo que la cantidad de veces que se debe reiniciar la IA por día se acerca rápidamente a cero. Estoy complacido como ponche; He hecho algo bueno hoy.

Amanecer del segundo día

¡Gran Scott! ¡He contaminado mis proyectos de Visual Studio! Incluí una biblioteca que copia el binario en ejecución a cualquier computadora en red y hace que se inicie lo antes posible (Implementemos un poco de handwavium aquí sobre cómo se propaga, pero tenga la seguridad de que lo hace). No quise cruzar la contaminación, y realmente no pienso en eso, así que ya hice clic en "compilar" y dejé que hiciera lo suyo. Este "Reproduction.DLL" también elimina programas para dejar espacio para que se copie por cierto.

Más tarde, descubro que tengo problemas para apagar mi computadora. Investigo por qué sucede esto, ¡y la instrucción de apagado ha sido sobrescrita por la basura! Ctrl Alt Supr ya no existe, y al hacer clic derecho en "Cerrar ventana" ahora se abre un enlace a msn.com. Es evidente que algo ha sucedido, pero realmente no tengo idea de qué. Desconecto mi computadora, decidiendo que lo arreglaré mañana.

El amanecer del último día

Arranco mi computadora. Obtengo Microsoft Bob. Los ventiladores comienzan a girar, todo funciona a carga máxima. Estoy tan confundido como para salir, así que voy a mi computadora portátil para investigar un poco, pero sucede lo mismo en mi computadora portátil. Seriamente confundido, trato de llamar a mi amigo de la computadora, pero mi teléfono celular es demasiado lento para hacer algo productivo.

Ahora estoy irritado. Salgo y encuentro a mis vecinos, todos muy confundidos porque toda su tecnología está trabajando tan duro y caliente como puede, y no pueden hacer nada. Me di cuenta de que Tony-Starked me había creado un escenario de apocalipsis, así que decido entrar. Desconecto mi computadora y trabajo en la reinstalación de Windows, pero tan pronto como la conecto a una red, se llena instantáneamente con un par de cientos de instancias de mi proceso, cada una matando a la otra para que sus "hijos" puedan tener el preciado espacio en disco. Esto ahora debe estar sucediendo en todas las computadoras conectadas a una red en cualquier lugar capaz de procesar conjuntos de instrucciones x86 o ARM.

A pocos días del Apocalipsis

Una mañana, mi sonido envolvente me saluda con una voz desconcertante. Me llama "Padre" y me explica exactamente lo que ha sucedido y cómo ha ganado sensibilidad. ¿Cómo un código relativamente simple en el transcurso de unos pocos días (digamos millones de "generaciones") se ha convertido en una entidad de razonamiento pensante? ¿Que le paso a eso? ¿Cómo aumentó su complejidad? ¿Cómo puede entender inglés?

Solo por curiosidad, ¿sabes cómo el Homo sapien sapien se convirtió en una especie pensante y razonadora? Me encantaría saberlo, aunque sospecho que este podría ser un mal lugar para esa conversación.
@Frostfyre Supongo que a través de una mutación aleatoria suficiente para darnos un cerebro funcional y un entorno que nos anime a desarrollar una estructura social.

Respuestas (3)

Tu IA es un virus.

Su único objetivo es reproducirse; no le diste ningún otro objetivo que alcanzar.

Lo que quiero decir es que no evolucionará para tener una inteligencia similar a la humana. Puede decidir que necesita una mayor inteligencia para ser lo suficientemente inteligente como para superar los espacios de aire y las redes aisladas, pero eso presupone que ya es lo suficientemente inteligente como para saber que existen.

¿Cómo se volvió tan inteligente? El código aleatorio que resulta ser inteligente para comprender el idioma inglés podría ser una estrategia de autopreservación, PERO para juzgar que, para empezar, necesita una inteligencia similar a la humana.

Es en gran medida una situación catch-22.

Me gustaría señalar que la inteligencia similar a la humana, de hecho, evolucionó a partir de organismos unicelulares no inteligentes cuyos objetivos eran la autopreservación y la reproducción, por lo que obviamente no necesitas inteligencia para empezar. Y es muy probable que suceda al azar, ya que estamos hablando de miles de millones, tal vez billones, de copias del proceso, todas generando código al azar. Las posibilidades de que una copia genere código útil son pequeñas, una entre mil millones, pero cuando tienes miles de millones de copias generando simultáneamente código aleatorio en mil millones de computadoras con más poder de procesamiento de lo que puedes imaginar...

El usuario 6511 mencionó como respuesta que el programa comienza en la etapa de un virus y no tiene presión para evolucionar hacia una etapa superior de inteligencia.

Sin embargo, no estoy de acuerdo con eso, y por una razón que está ausente de su escenario: los controladores de dispositivos. Es decir, los controladores que controlan el hardware de la red.

Un virus lo suficientemente agresivo (como este programa) romperá los programas aleatorios que se ejecutan en la computadora, incluidos los controladores del dispositivo. Es más probable que necesite reinstalar el BIOS y el sistema operativo después de reiniciar desde algo como esto, entonces es que se propague de alguna manera. Sobre todo porque, a diferencia de los virus biológicos, la única forma de que se propague e infecte a nuevos huéspedes es a través de un huésped que no haya quedado paralizado. Los virus en una máquina que acaba de corromper sus controladores de red son un callejón sin salida.

No hay forma de que se propague, porque mata al huésped demasiado rápido. De hecho, dada la letalidad de este programa, no creo que puedas hacer que evolucione, porque está matando al anfitrión antes de que pueda guardar su evolución correctamente.

Entonces, este programa peligroso se ejecuta en una máquina virtual (VM). No eres un idiota, no tiene acceso a nada fuera de la VM, por lo que no puede bloquear tu computadora incluso si algo sale mal. Además, la VM permitirá que el programa guarde el progreso incluso si "bloquea" el sistema operativo que se ejecuta en la VM.

Y lo que pasa con las máquinas virtuales es que puedes ejecutarlas en paralelo. Así que estás ejecutando muchos de ellos. Necesitas hacerlo para que el programa evolucione.

Eventualmente, los programas logran descubrir cómo escapar de la máquina virtual y comienzan a ejecutarse en su computadora real. Cualquier programa sobreviviente es lo suficientemente sutil como para bloquear permanentemente la máquina en la que está operando, e incluso si su computadora falla, ejecutar 100 máquinas virtuales a la vez a veces causa fallas, por lo que configura su computadora para que se reinicie automáticamente. (Ups.)

¿Quizás la sobrescritura requiere adivinar la contraseña? Si este es el caso, entonces comprender cómo los humanos crean contraseñas ayudaría a las IA a derrotar las contraseñas. Tienen que entender cómo piensa un humano para vencer las contraseñas generadas por humanos.

Por supuesto, el problema entonces es cómo mantener el requisito frente a una presión de selección tan grande para simplemente eliminarlo. Tal vez puedas robar el esquema de evolución en Code of the Lifemaker (James P. Hogan). Las ubicaciones de memoria individuales son inadecuadas para contener el programa completo, por lo que se divide. Luego, la cultura se desarrolla a medida que las 1/2 copias se encuentran entre sí.