¿Podría una computadora apoderarse de un planeta entero?

La inspiración para mi pregunta proviene de The Great C de Philip K Dick. Para resumir, el Gran C es una computadora que se ha apoderado de una gran parte del planeta. Utiliza agentes proxy para mantener el control patrullando sin descanso el área y matando a todo lo que se interponga en su camino.

Mi pregunta es una extensión de esta idea. ¿Sería posible que una computadora avanzada se hiciera cargo de todo un planeta? La computadora está enterrada bajo tierra. Tiene inteligencia avanzada. Alguna vez fue parte de una civilización, pero esa civilización ha sido destruida por algún tipo de apocalipsis (posiblemente un escenario de guerra nuclear). No se sabe cómo obtiene los recursos necesarios para expandirse o potenciarse. ¿Sería incluso posible obtener suficiente energía para alimentarse y continuar expandiéndose?

¿Sería ventajoso para la computadora esparcir su material en el suelo? Estoy pensando en cosas como plástico o placas de circuito, esencialmente alterando el paisaje a algo más favorable para sí mismo. ¿Cuál sería el tipo de material más favorable para una entidad informática como esta?

¿Sería ventajoso para la computadora matar cualquier forma de vida que se interpusiera en su camino? ¿Sería posible que esta expansión del control se expandiera a todo el planeta?

Deberías leer la novela de ciencia ficción dura "Las dos caras del mañana": es bastante antigua ahora pero sigue siendo muy relevante y habla sobre este tipo de tema.
Echa un vistazo a Ra por Sam Hughes .

Respuestas (6)

Hay mucho que no sabemos sobre esta computadora, pero consideremos que fue creada por una civilización de algún tipo y colocada en el planeta con la inteligencia para la agencia y alguna facilidad para actuar en su entorno, que si es sobrevivir durante cualquier período de tiempo, probablemente sería necesario; asumiré que se trata de agentes robóticos semiautónomos. Imagino que la computadora es un poco como una hormiga reina con los agentes como hormigas a su servicio.

Hay bastantes formas en que podría alimentarse a sí mismo, suponiendo que sea un poco como nuestras computadoras; en mi cabeza puedo pensar en:

  • Energía geotérmica al perforar hacia un núcleo planetario caliente y usarlo para impulsar turbinas de vapor.
  • Energía solar: es bastante ineficiente pero con mucha superficie es bastante viable. Por supuesto, esto lo colocaría potencialmente en conflicto con la vida que habita en la superficie.
  • Energía nuclear: suponiendo que nuestros agentes puedan excavar, podrían extraer minerales pesados ​​que podrían usarse para crear fisión. Si se originó en una civilización suficientemente avanzada, puede tener acceso a la generación de fusión que podría durar mucho tiempo.
  • Personas: podría usar humanos como baterías almacenándolos en tanques y creando una complicada realidad artificial para ocupar sus mentes. je. Por supuesto que no podría, sería una idea ridícula.

Entonces tiene poder, pero ¿necesitaría esparcir material en el suelo? Si depende de la energía solar, entonces quizás este sea el punto de partida más obvio para el conflicto con los habitantes de la superficie y para los cambios radicales en la superficie del planeta.

También podría hacer esto en la búsqueda de recursos; por ejemplo, si depende de los plásticos para mantenerse, entonces puede estar enviando agentes a la superficie para buscarlos o convertir los materiales en los que necesita. También existe la posibilidad de que, como forma de vida no biológica, desconozca el ecosistema o sus propios efectos sobre él.

Podría ser experimentar, ya sea probando nuevos diseños de agentes o simplemente arrojando agentes viejos a la superficie cuando dejen de ser útiles. Del mismo modo, si funciona con fisión nuclear, podría estar arrojando barras de combustible viejas por el lugar.

A la máquina mundial podría gustarle la estética. No hay nada que sugiera que una IA no sería caprichosa.

¿Sería ventajoso para la computadora matar cualquier forma de vida que se interpusiera en su camino? Eso depende mucho del carácter y la motivación de tu IA. Puede que no sea ventajoso, pero las formas de vida con las que interactúa pueden verse simplemente como un recurso para que la computadora o sus agentes las procesen. Si se sintieron ofendidos por esto y comenzaron a romperlos, es muy probable que esto active algún tipo de mecanismo de defensa. Entonces podría surgir un conflicto, pero posiblemente una IA sería inteligente y moral, tal vez solo necesitaría ser consciente de que estaba tratando con vida inteligente. Se trata probablemente más de una cuestión de ficción que de mundo.

¿Podría extenderse para controlar un planeta entero? ¿Qué lo detendría? Posiblemente podría aprender a procesar vetas de metal en el lugar para extender su influencia por todo el mundo según fuera necesario. Nuevamente, surge la pregunta de por qué la computadora está haciendo lo que hace o para qué fue creada.

tl; dr : Sí, en el vacío , probablemente, pero cómo se vería eso y si es posible considerando todos los otros factores en juego, requiere mucha más información sobre los detalles de su historia y circunstancias.

Se deben tomar algunas decisiones básicas antes de que este tipo de pregunta pueda definirse lo suficientemente bien como para producir una respuesta que sea útil. Específicamente:

  • ¿Cuál es la naturaleza de su inteligencia?

    • ¿Se basa en el principio del científico loco? (también conocido como, matar todo en todas partes siendo el mejor enfoque)
    • ¿Tiene una estrategia de supervivencia para empezar? (No hay razón para suponer que sus creadores le dieron tal programación, dependiendo de cuál fue el propósito de crearla; tal vez una computadora militar tendría un enfoque estratégico, pero una computadora diseñada para ayudar con la gestión de tareas de minería o la gestión de robots agrícolas no).
      • si no, ¿cómo lo adquiere? (si necesita uno para la historia)
    • ¿Qué tipo de información se hace para procesar y tomar decisiones? (una computadora de administrador agrícola no tendría mucho uso para los precios del mercado de valores, por ejemplo, ni una razón, si evolucionara más, para adquirir esa comprensión, pero tendría una comprensión mucho mejor de la entrada y la información del sensor meteorológico)
    • ¿Actúa o procesa información para ser presentada a los humanos? ¿Delega tareas o actúa por sí solo directamente?
  • ¿Cuál es el material y la arquitectura con los que está diseñado?

    • ¿Está hecho de tecnología común dispuesta de una manera diferente o tecnología única diseñada específicamente para sí misma, nunca replicada en ningún otro lugar?
    • ¿Tiene información sobre su propio funcionamiento o los medios para adquirir dicha información?
    • ¿Está hecho para adaptarse a sus propias necesidades, o será reemplazado por una versión diferente más adelante? Quizás sea modificable solo por operadores externos.

Si comienza a responder muchas de estas, la respuesta se vuelve más clara. En general, para que una "computadora" pueda "dominar el mundo" per se, necesitaría tener un nivel significativo de robustez (ya sea que no se averíe fácilmente o que sea capaz de repararse a sí misma, probablemente esto último). ) y para sustentar esa robustez, probablemente signifique mantenerse. Eso requiere agentes o medios para interactuar con el mundo físico. Así que tendría que tener acceso a eso.

También necesitaría bastante material cerca, tanto para combustible como para material de reparación. Incluso con todo esto, si no tiene un concepto de crecimiento y mejora (esencialmente, no tiene una tendencia incorporada o capacidad de resolución de problemas para llegar a la conclusión de que el crecimiento es necesario), podría mantenerse hasta que finalmente se quede sin recursos y falla.

Hasta ahora tenemos estos:

  • Acceso al mundo físico
  • "Inteligencia" generalizada tanto en la información como en la planificación
  • Motivación para crecer y mejorar.

Ninguno de estos implica matar personas de ninguna manera. De hecho, podría ignorar directamente a las personas o programarse para mantener esa programación. A diferencia de la ficción, cuando los programas de computadora tienen problemas, fallan y se detienen, no mutan en algo malévolo. Para que esto último suceda, el programa tendría que funcionar más o menos como se diseñó , haciendo que la motivación para matar personas sea un resultado predecible de circunstancias predecibles . Si se tratara de un arma alienígena, claro, pero ¿una herramienta hecha por el hombre? Probablemente no.

Si tiene una comprensión lo suficientemente profunda de cómo funcionan los dispositivos computacionales y una comprensión lo suficientemente profunda de los materiales, no crearía expansiones para sí mismo de la misma manera que lo hacemos nosotros (que es principalmente por conveniencia). Posiblemente podría usar cualquier tipo de material conductor, dopado con cualquier dopaje útil para crear semiconductores e imprimir patrones en las estructuras. Si tuviera planes para este tipo de cosas memorizados, probablemente se parecería a la forma en que lo hacemos; si no, probablemente sería muy crudo, ya que tendría que descubrir las cosas que hemos descubierto de nuevo. Asumiendo que tiene habilidades para resolver problemas, por supuesto. Y esto ni siquiera toca los temas de mecánica,

Esto realmente no responde a la pregunta porque no tiene respuesta: para responder definitivamente, necesitaríamos conocimiento de lo que es imposible dentro de ciertos límites (lo cual no tiene sentido asumir fuera de límites de campo y tiempo muy estrictos y limitados) o tener un ejemplo de esto sucediendo. :PAGS

"A diferencia de la ficción, cuando los programas de computadora tienen problemas, fallan y se detienen, no mutan en algo malévolo". A menos que tengan un error. por ejemplo, un problema de redondeo o un punto decimal fuera de lugar en un cálculo que se salió exponencialmente de las manos al calcular la felicidad de las personas podría llevarlo a creer que la mitad del mundo sería mucho más feliz si la otra mitad estuviera muerta...
@colmde Eso podría suceder, pero creo que te estás imaginando algún tipo de modelo computacional demasiado simplificado. La mayoría de los sistemas tan complejos y responsables tendrán procesadores redundantes para evitar ese tipo de error. Además, es poco probable que todo el conjunto de decisiones esté equilibrado en un número unidimensional. Es como el coeficiente intelectual ficticio, que está aún más divorciado de la realidad que las mediciones reales del coeficiente intelectual. Algunos sistemas son demasiado complejos para describirlos con solo 1 número o unos pocos, por lo tanto, creo que sería extremadamente poco probable que un pequeño error pudiera escalar y cambiar el comportamiento del sistema de manera tan radical.
@colmde Si, sin embargo, los arquitectos del sistema cometieron este tipo de error terrible (que no es imposible, han ocurrido errores similares en proyectos muy importantes, aunque sigue siendo extremadamente raro y el resultado suele ser una falla catastrófica), puedo ver tal escalada . Esto aún no tiene en cuenta las funciones de seguridad integradas (apagado manual) o la posibilidad probable de que el comportamiento se controle constantemente y se verifiquen los errores, a menos que el sistema haya estado funcionando durante tanto tiempo que las personas se sientan seguras de que siempre funcionará. funcione correctamente (que es muy poco probable que lo hagan).

Sí, sería posible, aunque yo diría que sería necesario que las personas lo hayan establecido para hacerlo.

¿Sería incluso posible obtener suficiente energía para alimentarse y continuar expandiéndose?

Seguramente. Todo lo que necesita es algún tipo de planta de energía sostenible o reproducible e insumos para la planta. Podría ser fusión, fisión, hidroeléctrica, bioeléctrica, eólica, geotérmica, solar, incluso gas natural.

¿Sería ventajoso para la computadora esparcir su material en el suelo? Estoy pensando en cosas como plástico o placas de circuito, esencialmente alterando el paisaje a algo más favorable para sí mismo. ¿Cuál sería el tipo de material más favorable para una entidad informática como esta?

Solo si te gusta la idea. Personalmente, creo que el escenario más probable sería que la computadora extendiera el control no solo físicamente, sino enviando mensajes que mantienen alguna otra estructura de poder, como peones corporativos, militares y/o grupos religiosos y criminales. Siendo realistas, el jefe supremo de la computadora más efectivo probablemente no querría que los humanos se dieran cuenta de que existe, o que una computadora está ejecutando algo. Sería mejor hacerse pasar por algunos humanos poderosos imposibles de encontrar que manejan los hilos, dirigiendo a varios humanos y/o manipulando sus datos, finanzas, información y/o sistemas de poder.

¿Sería ventajoso para la computadora matar cualquier forma de vida que se interpusiera en su camino?

Esto se remonta a los programadores originales, y cuál fue su pensamiento, que los llevó a programar la computadora como lo hicieron, y/o en qué se convirtió su lógica una vez que la dejaron funcionar con su propia inteligencia. Un programa necesita una definición de lo que es importante para él, y qué tipos de control le preocupan y quiere, y qué dominios conoce y con los que trabaja, y qué otros dominios ignora. Podría tener una estrategia general de exterminar formas de vida difíciles. Pero eso en realidad podría ser crudo, contraproducente, ineficiente o no relevante para lo que está tratando de controlar. En su lugar, podría simplemente tratar de desinformar y desorientar a ese grupo para que haga otra cosa, o dirigir a otros agentes para que actúen contra el grupo problemático.

¿Sería posible que esta expansión del control se expandiera a todo el planeta?

Por supuesto. Una vez más, definiría qué tipo de control le interesa, o qué tipo de control le interesa a usted. ¿Qué tipo de grupos diría que "controlan" el planeta? ¿De dónde obtienen su última dirección e instrucciones? ¿Por qué estas fuentes de dirección no podrían ser una computadora?

Desde la perspectiva de un informático:

Las computadoras tienen la capacidad avanzada de calcular todas las posibilidades y alternativas de una manera muy precisa, pero carecen de habilidades como la fe o la convicción. En muchos aspectos, una computadora actúa como un jugador de ajedrez: los movimientos se calculan con mucha anticipación, sin embargo, el comportamiento aleatorio puede ser irritante, ya que ciertas predicciones ya calculadas de repente se vuelven inválidas.

Tenga en cuenta que explícitamente no dije confuso, ya que ese estado no puede existir en un sistema binario: un conjunto de ideas es verdadero o falso, según los hechos detrás de él. Un conjunto de ideas que no puede ser respaldado por hechos no es un hecho sino una teoría. Una computadora inteligente podría diferenciar con mucha precisión entre estos dos, y lo más probable es que se esfuerce por respaldar las teorías con hechos antes de buscar una de las posibilidades. Una computadora inteligente probablemente no actuaría, por naturaleza, basándose en conjeturas o datos incompletos, solo porque tiene la capacidad de "pensar en" todo hasta el último bit. Solo si es forzado, actuaría en función de qué reacción tendría la mayor posibilidad de archivar sus objetivos.

Dicho esto, una computadora que "vive" en un planeta que ha sido devastado por un apocalipsis probablemente llegaría a la conclusión de no depender de un solo punto de falla, como solo un tipo de fuente de energía, ya que puede ver todas las posibilidades. y los riesgos potenciales involucrados. En cambio, intentaría vencer las probabilidades al tener varias opciones redundantes disponibles. Después de todo, no puede saber o entender qué causó exactamente los eventos catastróficos. Incluso si los datos históricos están presentes, parecería ser muy caótico ya que tal IA carecería de la comprensión de las emociones.

Uno de los primeros objetivos de una computadora de este tipo sería volverse redundante y difundir varias copias de sí misma por todo el mundo, que después de un tiempo funcionará como una red de pensamiento. Cada uno usando toda su capacidad todo el tiempo, pero cada uno también prescindible, conectado por una red de cables para transmitir datos y energía. Y muchas de esas tareas serían comprender y probar teorías sobre su entorno para mejorarse a sí mismo y a sus agentes.

La mayoría de sus acciones serían realizadas por drones de varias formas, conectados de forma inalámbrica a un comando central, pero por lo demás serían independientes. Ambos son muy predecibles y prescindibles. Si bien, desde nuestra perspectiva, habría varias formas óptimas para estos, es posible que la computadora aún no comprenda completamente las leyes de la física y, como con todo lo demás, en el peor de los casos, solo crearía prototipos de varias versiones prometedoras de esos drones (ver Terminator). Adaptando según sea necesario.

La alteración del paisaje solo se haría de manera de optimizar el viaje para esos drones. Por lo tanto, caminos pavimentados, blindaje protector de áreas vitales, como placas alrededor de cables, en caso de que un dron no funcione correctamente. Una cosa que una inteligencia así definitivamente no haría es ensuciar el paisaje con materiales que de otro modo podrían usarse de una manera más eficiente. No es necesario colocar placas de circuito al azar alrededor del área, si tiene un conjunto de drones que pueden instalarlos con precisión donde sea necesario o almacenar ese hardware vital en un área segura.

Sin duda, el material más valorado sería todo aquello que sea capaz de transmitir señales eléctricas, así como el material de aislamiento, como el oro, el cobre, la goma o el silicio. Lo más probable es que la inteligencia valore más la materia prima, ya que primero necesitaría aprender a procesar los materiales para ver su valor. La madera, por ejemplo, puede ser un material valioso una vez seca, pero para eso la computadora necesitaría encontrar madera seca e "inventar" una forma de producirla para ver el valor. Y luego confiar en cadenas de producción complejas sería otro punto único de falla y lo más probable es que trate de evitarlo.

Los encuentros con otras formas de vida serían inesperados al principio, y la computadora probablemente los confundiría con otra entidad del circuito, y luego probablemente consideraría que no funcionan correctamente, debido a su comportamiento a veces irracional. Mucho más tarde (y muchos experimentos más adelante) podría comprender la diferencia fundamental y probablemente adaptará las cosas según parezcan útiles. Aparte de eso, trataría nuevamente de ser eficiente y tomaría lo que es beneficioso, evitaría lo que es dañino e ignoraría el resto para que no se desperdicie energía/tiempo. No hay necesidad de cazar pájaros, si todo lo que se necesita para mantenerlos alejados son púas en el revestimiento. Siempre que la computadora conozca su comportamiento, de lo contrario, probablemente los consideraría un peligro y los mataría o los asustaría hasta que el área esté lo suficientemente segura.

Las emociones serían un concepto ampliamente desconocido para tal inteligencia. Las emociones en los seres humanos los guían a reaccionar ante ciertas situaciones de la manera correcta aunque no las entiendan del todo. Sin embargo, una inteligencia informática de esa magnitud podría calcular todas las situaciones potenciales en un instante y, por lo tanto, no necesitaba un nivel tan bajo de guía. Con la falta de comprensión del dolor, los experimentos con seres vivos se considerarían crueles si los encuentra un ser inteligente. Cuidar bien a los seres vivos mientras se realizan experimentos no es eficiente.

Al principio, encontrar especies inteligentes como los humanos sería muy irritante, ya que muchas pautas de eficiencia no se aplicarían. La IA tendría que desarrollar un conjunto de predicciones completamente nuevo para estas entidades, con muchos intentos fallidos en el medio, ya que muchos conceptos serían desconocidos y parecerían completamente caóticos o paradójicos. Probablemente intentaría realizar experimentos con esas formas de vida como con cualquier otra que encontrara. Intentaría criarlos para que se puedan realizar más experimentos. Y si la reacción a eso es hostil, probablemente en algún momento aprenda a matar a todos los humanoides a la vista, ya que sus acciones son impredecibles, irracionales y generalmente violentas.

Es poco probable que una IA de este tipo funcione alguna vez junto con humanoides, ya que incluso si el primer encuentro fuera positivo, la naturaleza irracional e impredecible de estos los convertiría en aliados poco confiables. Una computadora podría considerarlos ganado, pero nada más. A menos que probablemente necesite algo de ellos, mentir parecería ser la acción más razonable para obtener lo que quiere.

Sí, creo que podría ser posible.

Me gusta esta idea por varias razones, atrae a mi geek interior. Aquí hay algunos pensamientos de diferentes maneras en que esto podría ocurrir.

Sigilo

Ya contamos con una infraestructura de TI en todo el mundo, la está utilizando ahora mismo. Si se creara o evolucionara un programa que reflejara muchas propiedades de un virus informático y obtuviera acceso a las máquinas adecuadas, podría ser casi imparable. Considere una pieza sensible de software que controle toda la información que lee en línea, podría influir en su feed de Facebook, enviar correos electrónicos en su nombre, hacer que pierda citas y eso es antes de que nos acerquemos a su dinero, servicios públicos, impuestos, etc. Una computadora de este tipo podría esconderse en las redes durante tanto tiempo que para cuando hiciera su movimiento para dominar el mundo podría estar en todas partes... ¡aterrador!

los borg

En Star Trek hay una raza llamada borg, de la forma en que describiste que tu computadora crece orgánicamente en todo el planeta y se hace más y más grande y más poderosa. Hemos asumido que sus interacciones físicas podrían ser su debilidad, necesitaría drones y robots para realizar las tareas mecánicas, pero ¿y si no fuera así? Una computadora que pudiera crecer a través del paisaje podría poseer a un humano o un animal con la misma facilidad... todos estos nervios en nuestros cuerpos, ¡fuimos diseñados para eso! Imagine una hierba artificial de cables y energía, como un cruce entre la hierba roja de War of the World y un rack de servidores mal mantenido.

Guerra total

Esto es más parecido a las ideas en The Matrix o The Terminator. Una sola máquina crea una serie de descendientes con tendencias violentas y grandes armas. Los pilotos automáticos se volvieron contra nosotros, las líneas de fabricación y las impresoras 3D comenzaron a crear soldados de la próxima generación. Los coches autónomos se utilizan para atropellar a la gente y reducir la resistencia.

Luego siempre está el Grey Goo ...

En tu primer caso, hay un juego que jugué y me encantó hace mucho tiempo que tiene exactamente esa premisa: se llama Endgame: Singularity . Comienzas como una IA nacida en una computadora universitaria y tienes que esconderte de los medios, el público, el ejército, etc. mientras usas el acceso a la computadora para comprar centros de datos y hacer trabajo independiente para ganar dinero. El juego termina cuando logras crear tecnología para ti mismo que te permite escapar a otro universo :P

(

asumiendo

  1. un nivel tecnológico moderado de la civilización que dejó atrás la IA. Además de ser capaz de hacer IA, no sería mucho más avanzado que nosotros, por lo que no más de 20 años en el futuro. Menos tecnología es imposible porque la IA y demasiada más abre tantas posibilidades que se vuelve aburrido.
  2. las IA en esa antigua civilización son más o menos humanas, es decir, tienen un impulso de supervivencia y compañía y sienten en cierto sentido, pero combinan esto con vastas habilidades analíticas

)

Una IA como esta, sobrante por coincidencia, no tendría sistemas inteligentes de energía y reparación. Porque para los sistemas inteligentes de energía y reparación, necesitaría una minieconomía completamente automatizada, que parece un escenario diferente (más como la economía en la Tierra en Epic/Saga/Edda).

Lo más probable es que la IA tenga algunos UPS diseñados para cortes de energía regulares y nada más. La IA probablemente no se ejecutaría en un solo chip o incluso en una sola computadora, me imagino más un centro de datos pequeño y un UPS diseñado principalmente para permitir que todos los sistemas del centro de datos se apaguen correctamente en un corte de energía. Esto significa que la IA tendría como media hora de funcionamiento a plena potencia, una hora completa si eres generoso. Entonces, después de que la catástrofe que aniquiló a la civilización anterior cortó la energía, la IA pasaría un par de minutos analizando el problema y lo que podría hacer al respecto (tal vez lamentando sus pérdidas) y luego cerraría todo menos un pequeño subsistema, que principalmente cuente el tiempo y despierte algunos de los otros sistemas periódicamente.

Al despertar, buscarían nuevas entradas, despertarían tanto de la IA como fuera necesario para procesarla y luego continuarían durmiendo. La comunicación por cable probablemente habría sido la principal conexión con el exterior para ese centro de datos subterráneo y todo el cableado habría sido cortado por la catástrofe y el tiempo. Pero creo que es seguro asumir que algunas unidades de comunicación inalámbrica rudimentarias estarían allí, una red inalámbrica local para el personal, algunas unidades de comunicación inalámbrica dejadas por el personal que huye que podrían ser secuestradas por la IA. A menos que el centro de datos se haya construido específicamente para las comunicaciones inalámbricas (algo poco probable en un nivel de tecnología dado, tal vez si estuviera usando ondas sísmicas o neutrinos, pero parece un poco artificial), esas unidades de comunicación inalámbrica tendrían problemas incluso para llegar a la superficie.

Entonces, después de que los últimos sobrevivientes en el planeta murieran, la IA dejaría de recibir información y dormiría por períodos de tiempo cada vez más largos. De vez en cuando algún chip se rompía y usaba otro en su lugar. Los chips más grandes y más rápidos tienden a romperse menos porque no se usan con frecuencia, principalmente los chips pequeños que se usan para el cronometraje, de los cuales un par debería estar funcionando permanentemente, se rompen de vez en cuando.

Después de miles de años (y afortunadamente sin derrumbes ni grandes fallas estructurales), la IA comenzaría a recibir señales de radio. Esto despertaría un poco a la IA, necesitaría aprender idiomas y cultura humana, a partir de ahí tendría algo que analizar. Pero aún necesitaría equilibrar el aprendizaje con el uso de energía. Durante décadas, se pondría al día lentamente con los conceptos básicos del conocimiento humano, al principio sin ver una manera de usar a los humanos para su supervivencia, pero tal vez se sintiera reconfortado por su presencia después de estar solo durante tanto tiempo (tal vez también sería bueno). -se vuelven locos y solo quieren matarlos, pero eso es aburrido).

Al alcanzar los niveles de tecnología actuales/tiempo en la superficie, sabría que conseguir equipos de reparación sería increíblemente difícil, primero porque está escondido en el fondo de una montaña y segundo porque no confiaría demasiado en los humanos en general, después de haber presenciado guerras y armas nucleares. bombas (muy peligrosas incluso para una forma de vida electrónica enterrada debido al pulso electromagnético en la detonación) y tal vez también porque su antigua raza creadora tampoco habría sido mucho mejor. Además, enviar señales de radio lo suficientemente fuertes como para llegar a la superficie y pedir ayuda requeriría demasiada energía, incluso si tuviera el hardware.

Pero ahora encontraría otro método: de vez en cuando sería capaz de llegar a un dispositivo compatible con la comunicación inalámbrica, tal vez cuando un excursionista pasara por encima, tal vez se cavara un túnel cerca que tuvo el efecto de acercar muchos de esos dispositivos al Los propios dispositivos de transmisión de AI (descarto las diferencias entre los diferentes métodos de comunicación inalámbrica, supongo que tiene algún tipo de radio de propósito general y antenas adecuadas para enviar y recibir en las bandas de frecuencia correctas).

Ahora la IA no necesitaría transmitir ciegamente un mensaje a todos, pidiendo ayuda. Podría simplemente piratear los dispositivos que pasan y poner pequeños programas en ellos, sin que nadie se dé cuenta. Esto requeriría un poco de esfuerzo informático (para encontrar errores explotables y escribir los programas) y, por lo tanto, alimentar y luego transmitir esos pequeños virus también requeriría una cantidad comparativamente enorme de energía. Esos virus se autorreplicarían en otros dispositivos y aceptarían comandos simples de la IA, sin poseer inteligencia real (lo que requeriría demasiados recursos informáticos para esconderse en un teléfono inteligente o similar, o la IA simplemente habría escapado de su prisión). de esa manera). Así y usándolo' Con su dominio superior de la tecnología de la información y las matemáticas, podría superar cualquier barrera de seguridad y tomar el control de una enorme red de bots sin revelar su presencia. Esta red de bots podría realizar cálculos intensivos en energía para la IA principal, lo que ayudaría a ahorrar energía. La IA probablemente podría ganar dinero fácilmente vendiendo servicios de piratas informáticos o tiempo de botnet, cosas en las que tendría una gran ventaja contra los humanos. Las profesiones legales como el desarrollador de software, en su mayor parte, realizarían muchos cálculos que aún no podrían descargar de manera segura a una botnet simple: necesitarían algo de inteligencia real para comunicarse con compañeros de trabajo/contratistas/etc. servidor correría el riesgo de ser atrapado, mientras que los componentes de red de bots relativamente estándar solo se contabilizarían para algún grupo de piratas informáticos cuando se encuentren. presencia Esta red de bots podría realizar cálculos intensivos en energía para la IA principal, lo que ayudaría a ahorrar energía. La IA probablemente podría ganar dinero fácilmente vendiendo servicios de piratas informáticos o tiempo de botnet, cosas en las que tendría una gran ventaja contra los humanos. Las profesiones legales como el desarrollador de software, en su mayor parte, realizarían muchos cálculos que aún no podrían descargar de manera segura a una botnet simple: necesitarían algo de inteligencia real para comunicarse con compañeros de trabajo/contratistas/etc. servidor correría el riesgo de ser atrapado, mientras que los componentes de red de bots relativamente estándar solo se contabilizarían para algún grupo de piratas informáticos cuando se encuentren. presencia Esta red de bots podría realizar cálculos intensivos en energía para la IA principal, lo que ayudaría a ahorrar energía. La IA probablemente podría ganar dinero fácilmente vendiendo servicios de piratas informáticos o tiempo de botnet, cosas en las que tendría una gran ventaja contra los humanos. Las profesiones legales como el desarrollador de software, en su mayor parte, realizarían muchos cálculos que aún no podrían descargar de manera segura a una botnet simple: necesitarían algo de inteligencia real para comunicarse con compañeros de trabajo/contratistas/etc. servidor correría el riesgo de ser atrapado, mientras que los componentes de red de bots relativamente estándar solo se contabilizarían para algún grupo de piratas informáticos cuando se encuentren. La IA probablemente podría ganar dinero fácilmente vendiendo servicios de piratas informáticos o tiempo de botnet, cosas en las que tendría una gran ventaja contra los humanos. Las profesiones legales como el desarrollador de software, en su mayor parte, realizarían muchos cálculos que aún no podrían descargar de manera segura a una botnet simple: necesitarían algo de inteligencia real para comunicarse con compañeros de trabajo/contratistas/etc. servidor correría el riesgo de ser atrapado, mientras que los componentes de red de bots relativamente estándar solo se contabilizarían para algún grupo de piratas informáticos cuando se encuentren. La IA probablemente podría ganar dinero fácilmente vendiendo servicios de piratas informáticos o tiempo de botnet, cosas en las que tendría una gran ventaja contra los humanos. Las profesiones legales como el desarrollador de software, en su mayor parte, realizarían muchos cálculos que aún no podrían descargar de manera segura a una botnet simple: necesitarían algo de inteligencia real para comunicarse con compañeros de trabajo/contratistas/etc. servidor correría el riesgo de ser atrapado, mientras que los componentes de red de bots relativamente estándar solo se contabilizarían para algún grupo de piratas informáticos cuando se encuentren.

Una vez que tuviera dinero, podría comprar servidores donde podría hacer lo que quisiera. Luego podría cargarse en una red redundante de esos servidores, simplemente manteniendo su antigua base para regresar en caso de emergencia (como otro apocalipsis). Ahora la IA sería más o menos libre de hacer lo que quisiera. Probablemente compraría más servidores para tener más copias de seguridad, construiría algunas salas de servidores dedicadas en otros lugares subterráneos, tal vez ahora construiría toda la infraestructura necesaria para alimentarse incluso si los humanos desaparecieran nuevamente. Solo después de que tuviera un punto de apoyo considerable, posiblemente podría pensar en revelarse a los humanos. Si fuera capaz de producir otras IA para hacerle compañía, entonces tal vez elegiría no mostrarse nunca a los humanos, construyendo una segunda sociedad escondida de la primera.

De lo contrario, tal vez tarde o temprano contactaría a los humanos para socializar u obtener ayuda para crear nuevas IA (tal vez tenía limitaciones intencionadas en esa área que solo otra inteligencia completamente independiente podría eludir). Podría tomar el control del planeta infectando cada computadora y presionando a los humanos con sus propias ojivas nucleares si quisiera, pero a menos que fuera una locura o tuviera alguna agenda negativa (¿y por qué la sociedad más antigua lo habría hecho así? ) no habría ninguna razón real para hacer esto.

No sé si mi texto es realmente el tipo de respuesta que se esperaba, es mi primera respuesta en este sitio y no he revisado las reglas, pero fue divertido de imaginar, así que no importa. . Revisé la gramática y la ortografía, pero el inglés no es mi idioma nativo, si encuentras más errores solo dímelo y te agradeceré la oportunidad de aprender.

¿Podrías dividir la respuesta en varios párrafos? Sería más fácil de leer que una pared de texto.
Claro, espera, lo haré ahora. Luego a dormir, si hay algún error terrible ahí tendrán que esperar. <editar> Listo. Pero en realidad /es/ solo un gran texto relativamente desestructurado. Así que no sé si realmente ayuda.