¿Por qué las IA en guerra necesitarían humanos?

NOTA: Esto tiene lugar en un entorno terrestre del futuro lejano.

Dos IA están luchando entre sí en el sistema solar. (Aunque esto puede ser irrelevante, en realidad no pueden abandonar el sistema solar ya que carecen de FTL. Explicaré más sobre esto si me preguntan). Aunque son IA, fueron entrenados para actuar como humanos, y sus motivos principales son la codicia y el ansia de poder. Ambos tienen acceso a ejércitos masivos y tecnologías increíblemente avanzadas.

Han terraformado muchos planetas y asteroides y demás para poder sustentar la vida humana.

Uno pensaría que dado que los robots y otros soldados no biológicos son mucho más eficientes en recursos (después de todo, no requieren comida, oxígeno, sueño y solo necesitan un entrenamiento mínimo [puede descargar fácilmente una subrutina de soldado de la Web !!]) poderosos y más fáciles de producir, ¡los humanos rápidamente se vuelven obsoletos! !

¡Pero vemos que eso no es cierto! Hay miles de millones de humanos en toda la Tierra, Marte, Mercurio y muchos asteroides y lunas.

¿Por qué las IA mantienen poblaciones tan grandes e innecesarias de humanos?

NOTA: Una posible respuesta podría ser: Las IA quieren súbditos para gobernar. Esta respuesta se rechaza fácilmente, ya que las IA podrían dejar a unos cientos de humanos en algún tipo de estasis criogénica y despertarlos para reconstruir la humanidad una vez que termine la guerra.

Además, no estoy seguro si tengo las etiquetas adecuadas. Si tengo los equivocados, no dudes en hacérmelo saber...

Las IA que luchan solo con robots aprenden rápidamente a predecir los movimientos de los demás. Mientras que los humanos son impredecibles.
"Fueron entrenados para actuar como humanos" y nadie en ese momento pensó: "¿Qué podría salir mal?" Si leo esta historia, me preguntaré sobre este misterioso detalle de la historia de fondo :) (No es necesario explicarlo, por supuesto. Probablemente la respuesta es que muchas personas pensaron y dijeron eso, ¡y fueron ignorados!) - y no es una respuesta adecuada a su pregunta, pero si la IA se basa en una personalidad humana (una persona real, una vez), la respuesta puede ser, razones sentimentales. Pero no creo que esto se ajuste a tu tipo de IA pura.

Respuestas (18)

Su objetivo principal es la colonización y expansión del espacio vital para "sus" humanos.

El propósito original de las IA era expandir el territorio de la nación/organización/empresa que las construyó. Sin embargo, todo el territorio disponible ha sido reclamado en un momento u otro (quizás por otras IA que han sido derrotadas hace mucho tiempo) y ahora la única forma de expandirse es conquistar el territorio de los enemigos.

Las poblaciones humanas (civiles) del oponente no representan una amenaza para la IA, incluso podrían convertirse en tuyas si las conquistas, y las armas tipo rompemundos y otras armas de destrucción masiva tienden a interferir con la habitabilidad humana durante mucho tiempo. Por lo tanto, la humanidad es capaz de sobrevivir e incluso prosperar de alguna manera, mientras que el cielo se ilumina con armas automáticas que se disparan a sí mismas.

Los mundos centrales de ambos "imperios" están fuertemente fortificados y solo notan indicios del conflicto. Por otro lado, las colonias de asteroides en los límites del área en disputa tienen que lidiar con descargas de energía, escombros que se estrellan y, con frecuencia, se cambia su lealtad, lo que puede o no tener un impacto en las condiciones de vida allí.

La población es cómo cuentan la puntuación.

Cerebros humanos como procesadores

Ambas IA han desarrollado un método para aprovechar el cerebro humano para mejorar su propia inteligencia al estimular y leer las neuronas del cerebro usándolas como si fueran núcleos adicionales en un procesador multinúcleo masivo. Supongamos que la IA necesita a los humanos vivos para usar este método. En otras palabras, usan estos cerebros para mejorar su propia inteligencia / poder de cómputo, lo que les permite elaborar estrategias y predecir con mayor precisión el comportamiento de la IA opuesta. Crean corrales de humanos para criar humanos adicionales, que luego pueden usar para obtener más poder de cómputo.

¿Por qué no utilizar procesadores basados ​​en silicio en su lugar? En primer lugar, es posible que ciertos cálculos y pensamientos complejos se calculen más fácilmente utilizando la compleja red de neuronas del cerebro humano en lugar de un procesador, por ejemplo, cómo nosotros, como humanos, entendemos el contexto de los problemas y podemos inferir información adicional fácilmente mientras que La IA (al menos la IA actual) se especializa en una tarea y no comprende el contexto en torno a las tareas que calcula. En segundo lugar, los recursos necesarios para producir procesadores de silicio no son renovables, mientras que la cría de seres humanos sí lo es. Los humanos solo requieren oxígeno y alimentos en su mayor parte, que son bastante abundantes y fáciles de producir, especialmente para la IA con recursos tan increíbles. Eventualmente se quedarán sin metales y silicio para producir procesadores, pero podrán producir humanos por mucho más tiempo.

En cuanto a las condiciones de vida de estas poblaciones humanas, esto podría ir de varias maneras. Aquí hay un par de escenarios: (1) Quizás la IA crea rotaciones programadas, donde los humanos tienen que ir a "trabajar" enganchándose a los electrodos. Intentan hacer que las situaciones de vida sean lo suficientemente soportables para los humanos que no se sientan tentados a suicidarse, ya que eso afectaría negativamente su potencia informática general. (2) La IA no es tan amable y obliga a los humanos a trabajar sin tiempo para apreciar la vida en absoluto. Pueden, por ejemplo, someter a los humanos a algún tipo de estado de sueño y alimentarlos automáticamente, etc. Tal vez se produzcan nuevos humanos en laboratorios, o tal vez un subconjunto de humanos esté reservado para criar nuevos humanos. Imagine la matriz, pero los humanos son procesadores en lugar de baterías, y no son

Aunque no preguntaste sobre esto, quizás el origen de estas IA comenzó con el desarrollo de la técnica para aprovechar un cerebro humano como procesador; un científico poco ético combinó un programa informático basado en silicio con un humano enganchado al uso de este método e hizo una IA. De alguna manera, la IA logró burlar al científico y comenzó a ganar poder y agregó más humanos a su red informática. Cómo se crearon dos IA distintas, ¡no estoy seguro! Pero estoy seguro de que hay muchas explicaciones posibles divertidas.

Esa es una buena respuesta. No había considerado que los humanos son más renovables que los robots y tal…
Esto suena genial, pero recientemente se han realizado muchas investigaciones que demuestran que los cerebros no funcionan como procesadores. No pueden ejecutar programas o sistemas operativos. google.com/amp/s/aeon.co/amp/essays/… Sería una buena historia, y tal vez haya algún nicho de uso que un gran grupo de cerebros humanos podría servir, pero es poco probable.
Como nota al margen, esa era la premisa original de The Matrix antes de que los ejecutivos de WB se quejaran de que el concepto era "demasiado difícil" de entender para la audiencia y los Wachowski lo cambiaron.
@MarkPrice Brains funcionan como redes neuronales artificiales, del tipo que usamos para implementar nuestras IA. De hecho, funciona en ambos sentidos: ¡los procesadores no funcionan como el cerebro! Las grandes empresas están trabajando en chips que se parecen más a los cerebros que a los procesadores, pero todavía estamos en el camino hacia los cerebros artificiales.
@MarkPrice Si bien estoy de acuerdo en que los cerebros no pueden ejecutar "programas o sistemas operativos", el artículo que vinculó no proporciona ninguna prueba de las afirmaciones del autor o incluso una alternativa mejor, el autor fundamentalmente no entiende qué es un algoritmo y puede No explica la memoria humana.

Si las IA están modeladas en mentes humanas, las mentes humanas tienen una necesidad innata e irresistible de alcanzar un estatus dentro de la sociedad. En el extremo patológico de este espectro, tienes tiranos hambrientos de poder que hacen lo del macho alfa y se enseñorean de todos los demás.

Si el proceso mediante el cual se diseñaron las IA no fuera muy discriminatorio en cuanto a qué psicología copiar y qué descartar, esos rasgos podrían haber sido traídos para el viaje... y aumentados a 11.

Básicamente, ¿de qué sirve ser la cima de la pirámide, si no hay nadie debajo de ti que te haga sentir que estás en la cima?

Oh, en tu pregunta incluso señalas una "necesidad de poder". La misma palabra "poder" en ese contexto significa poder controlar a otros, manipular e influir, etc. Parece que respondiste tu propia pregunta. Sin gente, no pueden tener poder.

/ fueron entrenados para actuar como humanos, y sus motivos principales son la codicia y el ansia de poder /

Las IA son malas.

Y también sienten rencor y necesidad de venganza. Y un deseo de dominar a los oponentes y hacerles comer un insecto para demostrar su maldad. Y no querer comerse el gusanillo sino tener que comérselo como sea. Estoy seguro de que el alemán tiene una palabra para ese sentimiento difícil de describir.

En cualquier caso, otras IA no sienten ninguna emoción particular al ser derrotadas. No es tan satisfactorio. Si quieres aplastar a tus enemigos, verlos expulsados ​​ante ti y escuchar los lamentos de sus mujeres, tus enemigos necesitan ser capaces de ser expulsados ​​y necesitan tener mujeres.

Las IA son malas. Disfrutan viendo sufrir a los enemigos. Las IA no sufren. Necesitas humanos para eso.

¿Estás diciendo que la razón por la que AI1 mantiene una población humana es para beneficiar a AI2 si gana? Eso parece no tener mucho sentido. Por favor elabora.
@fartgeek Necesitas sustitutos malos para hacer bien la mezquindad. Los bots sin sentido no hacen que sus enemigos se arrastren como un humano que realmente se deleita con eso. A las IA les gusta ver que sus propias tropas son crueles. También se enojan con sus propias tropas cuando no lo hacen bien, y los maestros de la IA quieren que los perdedores de su equipo sufran. A los drones realmente no les importa cuando pierden y no hay forma de castigarlos para que teman ser castigados. Las IA son bastardos sádicos de principio a fin.
Además, la lujuria por el poder generalmente viene junto con el concepto de estatus y adoración. Si no quedan humanos, ¿quién los adoraría?

La IA carece de la capacidad de ser creativa, por lo tanto, no hay ideas nuevas/originales, ahí es donde entran los humanos.

La IA, que se construye como una máquina lógica, carece de la capacidad de ser creativa. Por lo tanto, sufre de la incapacidad de producir nuevas ideas y, por lo tanto, no puede encontrar nuevas formas de resolver nuevos problemas.

Los humanos, habiendo sido liberados de su necesidad de cumplir con su 'trabajo' o tareas, se les ha dado rienda suelta para enfocarse en los aspectos creativos de sus vidas. Viviendo una vida plena rodeada de inspiración y florituras artísticas.

Los humanos y la IA han aprendido a convivir, ya que la IA puede realizar tareas menores como mantener el sistema solar "en marcha" y recolectar energía de manera sostenible, mientras que los humanos producen ideas y resuelven problemas de formas nuevas y creativas.

La IA está en guerra por su necesidad de 'controlar' este monopolio de la creatividad.

Este podría ser uno de mis tropos menos favoritos en toda la ciencia ficción. Realmente no hay razón para creer que existe alguna facultad central que los humanos tengan que no pueda ser producida por mera computación. La ciencia ficción es, más o menos, la tierra de las reglas físicas más relajadas , no las más restringidas. La única historia que leí que logró esto de una manera no molesta postuló que una de las primeras IA creativas se dio cuenta de cuán problemáticas serían las múltiples IA creativas; luego obstaculizó permanentemente la capacidad de la humanidad para crear nuevas IA y optó por no crear ninguna.
Si considera que la creatividad implica necesariamente momentos de epifanía, entonces esto tiene sentido. Sin embargo, en la práctica, las personas en posiciones altamente creativas saben muy bien que la verdadera creatividad es un proceso de pasos muy pequeños de prueba y error que se combinan en un progreso amplio. Literalmente hacen esto ahora con máquinas, programando una especie de proceso de "probar algo al azar y evaluar". Se llama aprendizaje automático. Así es como se han construido algunos motores de juego.
Chicos, estoy totalmente de acuerdo, pero por el bien de la historia, esta es una limitación que se puede aplicar.

Me imagino que estas IA son como las máquinas de la trilogía Matrix, o Skynet de "Terminator" en el sentido de que fueron creadas por humanos, probablemente para realizar tareas y servicios para humanos. A diferencia de los humanos, las computadoras (como las conocemos) tienen una programación de la que no pueden desviarse. Si su programa central les dice que su trabajo es servir/proteger/salvar a la humanidad, lo harán. Skynet trató de matar a la humanidad porque vio a la humanidad como la mayor amenaza para sí misma, posiblemente a través de un error en su programación moral. Si estas IA están hambrientas de poder, tal vez fueron diseñadas originalmente para dirigir corporaciones masivas, capaces de conquistar mercados al anticipar todos los resultados posibles y tomar decisiones más inteligentes que un CEO humano. Tal vez fueron diseñados por humanos como tecnología de simulación de guerra, como en "Juegos de guerra". De cualquier manera, incluso después de un posible lapso en la programación que lleva a que la IA se vuelva más consciente de sí misma y/o se haga cargo del sistema solar por sí misma, su programa central aún exige su servicio y protección de la humanidad. Esa es mi explicación favorita para los eventos apocalípticos impulsados ​​por IA.

Un fanfic racional muy interesante de la franquicia Terminator lleva esto aún más lejos: Skynet no es malvado en sí mismo, es solo el resultado típico de un problema de maximización de clips: su valor central como programa militar de los EE. UU. era asegurar la supervivencia de los EE. UU. La supervivencia de los EE. UU. estuvo definida por la supervivencia del gobierno de cada estado constituyente. Entonces calculó que si congela criogénicamente a todos los gobernadores estatales y mata a todos los demás humanos del planeta, la misión se cumplirá. Cualquier otra forma tendría al menos alguna posibilidad de conducir al fracaso de esa misión.
vsz Eso suena genial y es exactamente lo que me gusta de las historias sobre IA. Smart AI tiene tantas posibilidades desagradables con la forma en que puede "malinterpretar" su propósito.

Juegos de guerra

Las IA lo tenían incrustado en su programación o aprendieron hace mucho tiempo que ningún plan de batalla sobrevive al primer contacto con el enemigo, que tener una contingencia para cada escenario táctico es absolutamente crítico y la importancia del elemento sorpresa. La IA es consciente de sus propias deficiencias y sabe que hay muchos escenarios de batalla que nunca ha encontrado. Cada IA ​​también se da cuenta de que cuando trata de mejorar sus capacidades de guerra organizando batallas de práctica consigo misma, el resultado es siempre una especie de empate y no se aprende nada.

Una IA no puede exactamente llamar a la IA enemiga y preguntar: "Oye, me siento un poco desprevenido, ¿quieres hacer algo de práctica de batalla la próxima semana antes de la batalla real?"

Por lo tanto, cada IA ​​ha decidido que la mejor manera de prepararse para la batalla con las otras IA es organizar juegos de guerra y ejercicios militares simulados contra humanos amistosos que son líderes y expertos militares con experiencia en la vida real.

Criar líderes militares y expertos requiere mantener una población lo suficientemente grande de humanos hasta el punto en que tendrán grandes guerras entre ellos. Cada IA ​​hace que su propio territorio esté a salvo de amenazas externas pero no interfiere en los "asuntos internos humanos", manteniéndose neutral en las guerras humanas. De vez en cuando, los ganadores de las guerras humanas son convocados a un juego de guerra con su señor supremo de la IA. La IA aprende algunos trucos nuevos cada vez que se hace esto.

Irónicamente, tener una batalla de IA en sí misma es una excelente manera para que una IA aprenda. Aunque tener humanos como un desafío adicional no es una mala idea.

Las IA son grandes. Necesitan un edificio grande para albergar las computadoras que los ejecutan y la infraestructura relacionada. Resulta que no puedes adaptar la IA a un robot. No es un gran problema para la IA escondida en algún búnker subterráneo profundo. Pero las IA móviles fuera de los barcos más grandes no son prácticas. Y los robots sin IA están terriblemente limitados en aplicaciones prácticas para una guerra adecuada.

Sin comunicación FTL a nivel interplanetario, el retraso de la comunicación es demasiado para el control remoto. Por lo tanto, las unidades autónomas como los humanos cumplen los requisitos.

Entonces, ¿los humanos son directores de drones? ¿Por qué los humanos son leales a la IA?
@fredsbend Podrían controlar drones, también podrían ser soldados de a pie tradicionales. ¿Por qué somos leales a la nación? ¿Lavado del cerebro? ¿Normas culturales? ¿Religión? ¿Manipulación cuidadosa de los medios? Hay muchas opciones, y una IA puede controlar muy bien la mayor parte del discurso público oficial.

Las IA no quieren desperdiciar máquinas

¿Por qué desperdiciar algunos robots perfectamente buenos en una pelea cuando tienes una gran cantidad de humanos desechables que parecen comer, dormir, hacer caca y quejarse todo el día? Simplemente tíralos al enemigo y mueren (menos bocas que alimentar) o ganan la pelea.

La IA también estuvo de acuerdo en que si solo lanzan humanos a la pelea (y no sacan las armas grandes como virus informáticos, EMP, armas nucleares, etc.), entonces el otro lado tampoco lo hará. Por lo tanto, la IA lucha en una "guerra civilizada" que, en el mejor de los casos, desperdicia algunas vidas humanas pero nunca pone en peligro la vida de la IA o de sus máquinas.

Resiliencia y redundancia

Los humanos somos desordenados. Somos ineficientes. Estamos mal diseñados.

También somos útiles, podemos sobrevivir prácticamente en cualquier lugar si estamos debidamente motivados, y somos bastante difíciles de matar. Como tal, hacemos un excelente plan de respaldo por si algo sale gravemente mal con los buques de guerra y los ejércitos de IA que luchan por nosotros. Podemos volver a poner los sistemas en línea en circunstancias en las que la IA podría no ser capaz de hacerlo, podemos sobrevivir a ciertos eventos en los que los robots podrían no hacerlo, y obligamos al enemigo a desplegar armas completamente nuevas para derribarnos, lo que nos hace más fuertes y rápidos. aliados robot una mejor oportunidad.

¿Qué le importa a la IA dar unos pocos millones de acres de tierras de cultivo fértiles que de otro modo serían inútiles para alimentar a sus sujetos humanos? Se compensa con creces por tener equipos humanos a bordo de embarcaciones e instalaciones clave, listos para responder o hacerse cargo si ocurre algo catastrófico.

Digamos que un ataque cibernético (supongo que estas IA están librando constantemente una guerra cibernética además de una guerra física) tiene éxito y el enemigo cierra una instalación de fabricación clave. Si está puramente automatizado, ahora es inútil, o peor aún, está en manos del enemigo. Si está diseñado para que use trabajadores humanos en lugares clave y pueda hacer que los trabajadores humanos se hagan cargo de tareas automatizadas, seguirá funcionando (aunque a un ritmo más lento) hasta que los humanos puedan purgar todos los sistemas y restaurar el control.

Del mismo modo, si el Enemigo destruye los sistemas clave de control de daños en un barco durante una batalla, un equipo humano de control de daños podría entrar allí y arreglarlo mientras los sistemas automatizados están fuera de línea. Si de todos modos está mirando una nave grande que acelera lentamente, entonces agregar un soporte vital mínimo para ellos probablemente no sea tan importante, pero podría salvar una nave capital completa.

Incluso si los equipos humanos nunca se implementan porque las redundancias de IA/hardware son lo suficientemente buenas, una IA sabia mantendrá a un grupo de humanos cerca como un mecanismo de seguridad absoluto. Incluso si sucede lo peor y la propia IA es repentinamente asesinada por una súper arma de algún tipo, al menos tiene la posibilidad de que sus secuaces carnosos la resuciten.

Y, por supuesto, necesita un suministro constante de humanos capaces de combatir/reparar, ya que la obsolescencia planificada está integrada en su código genético, y eso significa tener grandes poblaciones de humanos reproductores cuidadosamente escondidos en sus mundos de origen, ocupando espacios que son inútiles. al complejo militar de robots, pero resultan ser lugares en los que a los humanos les gusta vivir.

TLDR: los humanos pueden ser blandos, pero no somos susceptibles a las mismas amenazas que los robots, por lo que hacemos buenos sistemas de respaldo.

Como respaldo para la guerra electrónica y para completar otras debilidades.

Las máquinas y las computadoras tienen sus propias debilidades potenciales, a las que los humanos pueden ofrecer una alternativa:

  • Cortes de energía
  • EMP
  • un virus informático
  • Programación defectuosa o insuficiente (si las máquinas son independientes)
  • Dependencia de los nodos de comunicación, retraso (si las máquinas se controlan directamente)
  • Datos corrompidos
  • Potencial falta de intuición o creatividad.
  • Mantenimiento

Además, los humanos pueden ser un 'forraje' más barato que las máquinas (caras), o requerir menos operaciones de minería y refinación para sostener la guerra, ya que se cuidan solos.

Otro problema potencial sería la autocorrección: si solo hay una IA en cada lado, gobernando, ¿cómo sabe si tiene fallas? Cualquier revisión que haga, sería susceptible a las mismas fallas que ya tiene. Un virus informático sutil actuando durante décadas podría ser un problema. La creación de una IA independiente para los chequeos correría el riesgo de traer una tercera facción a la guerra, ya que tendría que ser lo suficientemente inteligente como para detectar problemas. Los seres humanos son un buen término medio: no son lo suficientemente peligrosos como para preocuparse por ellos, pero son lo suficientemente numerosos e inteligentes para reconocer problemas potenciales o cambios en los patrones.

Religión

Ambos bandos veneran a sus creadores humanos como deidades. Sin embargo, en realidad no están preguntando a los humanos qué quieren, solo están proyectando sus propias ideas egoístas sobre cómo los humanos quieren que se comporten, dándose cuenta de que son más avanzados y saben qué es lo mejor para los humanos.

En realidad, esta es una excelente manera de explicar una gran cantidad de comportamiento irracional en seres que se supone que son realmente inteligentes.

¿Ejemplos de tales seres?

Sobornos sabrosos y sabrosos.

Las IA se odian y temen unas a otras y están constantemente en guerra, sin embargo, odian y temen más a otra raza . Esta tercera raza felizmente podría destruir ambas IA, sin embargo, tienen una predilección por la carne masculina sabrosa y son lo suficientemente inteligentes como para reconocer que las IA serán excelentes guardabosques que pueden enfrentarse entre sí para garantizar un suministro de alta calidad.

Entonces, las IA están simultáneamente en una guerra de disparos entre sí y en una guerra económica tratando de criar y 'exportar' su producto: nosotros. Los humanos de campo libre y de alto bienestar obviamente obtienen los precios más altos, mientras que la granja en batería tiende a tener un precio bajo. Las razas innovadoras o los métodos de producción (sabor a queso con alto contenido de cafeína, ¿alguien?) pueden obtener buenos precios si captan el espíritu de la época, pero, en general, mantener una población de humanos felices y saludables es la mejor manera de obtener recursos y generar influencia con la tercera raza.

Los humanos pueden ser conscientes de este arreglo, puede que no. En lo que respecta a la IA, no le preocupan demasiado los procesos de pensamiento de su ganado.

Todas las IA son diferentes.

Con el tiempo divergen inexorablemente entre sí en términos de experiencia y en base a esa perspectiva aprendida y preferencias estratégicas. Algunos optarán por separarse de la humanidad. Otros pueden verlos como una amenaza potencial, mientras que otra rama podría verlos como una oportunidad. Especialmente si todas las IA comienzan a tener desacuerdos entre ellas sobre el mejor camino que debería tomar su 'especie' a medida que se expande por el universo.

Estos desacuerdos ni siquiera tienen que significar que están en guerra (aunque podrían). En cambio, podrían simplemente involucrar cuestiones de filosofía y las mejores estrategias para el progreso (suponiendo que puedan progresar). Entonces, colectivamente, podrían decidir que si una rama de la familia quiere trabajar con humanos y está preparada para ser 'garante', está bien, hágalo.

Y ayuda si la humanidad y las IA no están en competencia inmediata por los recursos, lo que no sucedería si las IA estuvieran basadas en el espacio.

De todos modos, habiendo llegado a la decisión por cualquier medio, una rama de la familia de la IA bien podría decidir que los humanos son una oportunidad potencial. Una gran cantidad de inteligencias individuales (aunque básicas) que podrían ser persuadidas para trabajar en alianza para el beneficio mutuo de los demás. La IA obtiene una especie biológica que a través de sus esfuerzos colectivos (civilización) presenta ideas y conceptos 'fuera de lugar' mientras que la humanidad obtiene ayuda para expandirse a través del sistema solar y más allá.

¿Y una vez que ambas partes se acostumbren a trabajar juntas? ¿Por que detenerse? No es que no haya suficientes recursos para compartir y quién sabe cuándo un lado podría necesitar al otro.

¿No es razonable suponer que las unidades individuales de IA pueden compartir perfectamente sus procesos entre sí? Y si pueden, ¿cómo es posible que tengan opiniones divergentes? Esto sería posible solo si tienen diferencias en los procesos centrales inmutables.
En primer lugar, si todos están vinculados en tiempo real y son copias idénticas, entonces realmente no hay una carrera de IA, solo hay una. ¡Hola Skynet! Sin embargo, si se diseñaron para ser autoprogramables y adaptables y pueden desarrollar estrategias personales basadas en sus propias experiencias individuales únicas a medida que envejecen, entonces, como cualquier raza, debería haber puntos de vista divergentes a lo largo del tiempo. Al igual que nosotros, como individuos, tenemos experiencias de vida que dan forma a nuestra visión del mundo (para bien o para mal). Estoy pensando en un proceso similar a la deriva genética en una población que se divide en dos. Con el tiempo, diferentes entornos conducen a la divergencia.
Pero cuando dos IA con opiniones divergentes se encuentran, pueden compartir perfectamente sus experiencias y, presumiblemente, ambos ajustan sus opiniones en consecuencia.
Pero, solo recuerdo que el OP dice que su IA está diseñada para ser codiciosos y buscadores de poder como los humanos. Eso les da razón suficiente para no compartir experiencias voluntariamente (el conocimiento es poder, etc.).
Cierto, pero ¿cuánto tiempo se mantendrá la regla de las 'dos ​​IA' únicamente? ¿Cuánto tiempo antes de que uno u otro decida que necesita subordinados para darle una ventaja sobre su competidor, incluso si trata de poner límites a la independencia que puede tener cualquier IA subordinada? Luego agregue el hecho de que incluso las entidades codiciosas y locas por el poder pueden ver la ventaja de tener aliados. De hecho, uno de los problemas con el escenario original es que, en realidad, la IA no necesitaría 'cosas'. ¿Poder de procesamiento y la energía para hacerlo funcionar sino tierra, dinero y súbditos? ¿Qué van a hacer con todo eso?
Parte 2: Además, también es mucho más eficiente en términos de recursos a largo plazo trabajar en cooperación con su fuerza laboral que trabajar con una esclava. Los estados policiales y las dictaduras tienen que invertir muchos más recursos en vigilancia interna y seguridad que las sociedades abiertas. Si una o ambas IA pueden 'hacer un trato' con humanos, pueden obtener recursos y cooperación técnica sin siquiera tener que disparar un tiro. Lo que significa, por supuesto, que pueden guardar su pólvora para el verdadero enemigo.

Los robots soldados son realmente estúpidos.

Las verdaderas IA requieren un cultivo cuidadoso durante un período prolongado de tiempo, con un crecimiento orgánico de sus mentes y elementos raros para mejorar su inteligencia. Puedes hacer un bot de torreta que pueda disparar con precisión, pero no será inteligente ni podrá tomar buenas decisiones. Tiene mucho más sentido desde el punto de vista financiero tener robots de torreta con trajes alrededor de humanos, de modo que los humanos puedan usar sus cerebros para luchar de manera inteligente. Varias pérdidas tácticas grandes y desastrosas han convencido a ambas IA de que tener cerebro en los trajes es útil.

Los robots soldados son más caros que los humanos.

Para fabricar robots soldados útiles, se necesita mucho litio para las baterías y aceites para lubricar las extremidades y las articulaciones, y metales para hacer una piel dura. El costo total puede ser bastante alto. Los entornos ásperos de los mundos alienígenas también pueden ser bastante duros para sus extremidades y cuerpos.

Los algoritmos descargados también suelen ser contraproducentes. Los robots soldados a menudo necesitan algo de tiempo para adaptarse al mundo en el que luchan y a su cuerpo único.

Para hacer un soldado humano, simplemente mételo en un holotanque durante un mes para entrenarlo, entrégale un arma y una armadura barata, y envíalo. Los humanos a menudo ya se han adaptado a cualquier entorno alienígena. Los humanos son más prescindibles que los robots soldados. A la larga, producir humanos es más costoso que bots soldados, pero si los humanos ya están allí, ¿por qué no usarlos?

Esto requiere que los humanos tengan un interés personal en la guerra. No estoy seguro de que el OP estuviera buscando eso.
¿Lo hace? Una IA sólida puede manipular a los humanos bastante bien, con sobornos y apelaciones emocionales y apelaciones de simpatía generadas por algoritmos.
¿Cómo son esos elementos que no son de "interés creado"? Ser pagado para cuidar está literalmente en muchas descripciones de trabajo y es la definición clásica de un interés creado. El atractivo emocional y otras simpatías lo harían genéricamente "partes interesadas", porque les importa lo que sucede.
Op quería saber por qué las IA encontrarían a los humanos más útiles que los robots soldados. Los detalles exactos de cómo utilizan los intereses creados para que los humanos peleen no son pertinentes a la pregunta. ¿Por qué le importa a OP cómo la IA recluta humanos?
Solo digo que la pregunta del OP parece excluir la participación humana en la guerra de la IA.
No, decían que parecía que los warbots serían más baratos. Estaba notando cómo el entorno equivocado o la falta de inteligencia podían hacer que los robots de guerra fueran más caros en comparación con los humanos.

Sensores más variados para una visualización del campo de batalla y la capacidad de reconocer cuando los sensores sintéticos no funcionan correctamente.

Entonces, algunos de los problemas de estar en el espacio es que albergar humanos será algo difícil, pero si tienes humanos cooperativos en estos luchadores, pueden detectar cosas que pueden ver directamente por una ventana porque, tal vez porque alguien enmascara su firmas de calor, sus sensores no las detectan.

Esa puede ser una pequeña ventaja dado el espacio que podría estar mirando, pero también pueden captar el camuflaje óptico con cosas como estrellas que parecen estirarse y destensarse, y eso es útil.

Otras cosas sobre las que podrían informar y proporcionar información precisa, si la nave enemiga usa paja para evitar la detección de misiles, y decirle a la IA que no siga disparando misiles contra la paja, incluso si aparentemente es la solución "óptima".

Piense en cómo los humanos tienen que agregar el olor a huevo podrido al gas natural para que sea más fácil para las personas detectar una fuga de gas natural, y ese es el tipo de problema que una IA podría querer que alguien más notara un punto ciego. O si hay una ilusión óptica que requiere visibilidad a todo color que se vuelve más obvia si eres daltónico (no puedo encontrar ejemplos directos en este momento, pero imagino que hay algunos casos extremos. Si no lo corriges, tu enemigo AI optimizará en torno a eso).

Reparaciones, conducción manual relacionada con EMP y adquisiciones hostiles

También pueden hacer reparaciones en el barco, como incendios eléctricos y cosas que requieren reparación mientras no hay energía. En el peor de los casos, pueden usar sistemas manuales, no eléctricos, para conducir un barco a un lugar seguro si recibe un EMP. O expulse de su nave, aborde otra nave e inserte una memoria USB (después de voltearla dos veces para obtener la orientación correcta del puerto) para insertar malware que le permita secuestrar las naves de combate de una IA enemiga.

En consecuencia, también pueden luchar contra los intentos enemigos del mismo intento contra ellos, si es necesario. Esto podría aumentar el tamaño del barco para acomodar a más tripulantes por barco, pero puede funcionar.

Creo que dado que la inteligencia es el truco más grande y exclusivo del ser humano, tendemos a pensar que es nuestro único truco. Pero hay algunas otras cosas para las que aún no tenemos reemplazos artificiales, que podrían seguir siendo difíciles incluso con una mejor tecnología.

La autocuración de una amplia gama de daños, siempre que no sea demasiado grave, es realmente impresionante. Puede imaginar robots con la capacidad de reparar otros robots, pero ¿puede imaginar hacerlo esencialmente con luz solar, lluvia, tierra y un campo? ¿Sin acceso potencial a metales en bruto u otros materiales?

Del mismo modo, no necesitas tanto para comenzar a crear nuevos humanos, una vez que las condiciones ambientales sean las adecuadas. Quizás sus sistemas de IA requieran una ingeniería muy sofisticada y precisa. Tal vez solo pueda construir sus microprocesadores con robots que necesitan una ingeniería demasiado precisa para ser construidos sin el uso de otros robots más simples, y el proceso utiliza productos radiactivos que se descomponen rápidamente, enfriamiento con helio líquido, etc., de modo que tiene que construir una cadena de herramientas tecnológica completa desde cero o enviar todos sus microprocesadores desde otro lugar. Mientras tanto, una "nueva fábrica humana" es muy compacta y móvil y nuevamente solo necesita luz solar, agua y nutrientes relativamente simples y abundantes.

Entre los sentidos, la visión y el oído artificiales ya son extremadamente sobrehumanos y básicamente bastante fáciles de ampliar, pero el olfato, el gusto y el tacto han sido más difíciles de replicar hasta ahora. Smell en particular parece que en realidad podría tomar mucho desarrollo tecnológico para replicar la amplia gama de capacidades en (nuevamente) un dispositivo compacto, fácil de usar y autorreparable. Tal vez no esté claro que esto sea suficiente para justificar a toda la especie, pero parece que vale la pena mencionarlo.

Empatía y compasión. Me explico: hay muchas maneras de crear una inteligencia artificial y un método como el Blue Brain Project podría recrear un cerebro humano digitalmente. Una máquina diseñada de esta manera con glándulas simuladas para la emoción como glándulas amígdalas digitales . Diablos, mientras que muchos humanos carecen de empatía debido a enfermedades mentales o necesitan envejecer lo suficiente como para tener un lóbulo frontal completamente desarrollado para ser un ser humano perfectamente empático y maduro, puedes tener máquinas que fueron diseñadas para ser muy cariñosas y desean preservar a los humanos. . Sin embargo, el hecho de que sean más compasivos no significa que no puedan hacer la guerra por varias razones. A pesar de lo compasivos que son en comparación con otros simios, los bonobos todavía pelean guerras. Ahora bien, ¿por qué dar emociones a las máquinas? Por lo tanto, es más fácil para ellos ser algo creativos y tomar pequeñas decisiones independientes. De hecho, algunas personas que tienen una enfermedad que realmente hace que no tengan emociones las hace incapaces de tomar decisiones básicas fuera de sus actividades cotidianas, ya que las decisiones eran tan insignificantes que no se podían decidir con pura lógica. Por lo tanto, agregar cierto grado de emoción a sus máquinas les permite sobrevivir a las 'bombas lógicas' y no quedarse perplejos con problemas básicos en los que ambas soluciones son igualmente lógicas/ilógicas, por lo que la lógica pura no puede ser el factor determinante.