¿Cómo mantener a los pilotos humanos en lugar de la IA en el futuro de la ciencia ficción?

Estoy tratando de escribir una serie 'como Gundam', aunque con luchadores espaciales en lugar de robots humanoides. Quiero un mundo de ciencia semidifícil, estoy de acuerdo con inventar tecnología sin explicar completamente cómo funciona siempre que parezca plausible, pero quiero ser lo más realista posible dentro de mi mundo y mantenerme consistente con cualquier tecnología. agrega al mundo. Esto hace que los cazas espaciales de corto alcance sean difíciles de justificar...

Estoy usando ondas de mano, Partículas Minovsky y trucos similares para justificar a los cazas espaciales, más notablemente, la presencia de escudos de energía requiere el uso de armas de energía de corto alcance para atravesarlos, son más vulnerables a muchos ataques más débiles de los cazas pequeños que un pocos ataques grandes de naves capitales, y la radiación ER masiva de los escudos, junto con contramedidas electrónicas activas, impide el control remoto de ellos.

El mayor problema que tengo para justificar estos cazas espaciales es la IA. Todavía parece que una buena IA será más viable para estos cazas espaciales que para los pilotos humanos. El costo de los cazas espaciales aumenta si tiene que incluir sistemas de soporte vital y, de hecho, el mayor tamaño de los cazas para adaptarse a un ser humano, los controles y el soporte vital lo convierte en un objetivo más grande. Mis luchadores de clase 'As', luchadores raros equipados con sus propios escudos, sufrirían particularmente por el tamaño extra que hace que los escudos sean notablemente menos efectivos. Quitar a los humanos de los luchadores los hace más baratos y más pequeños.

Además, una futura IA probablemente podría ser más rápida para responder a los ataques que los humanos, menos predecible, más confiable (no lo traicionará, no retrocederá con miedo, no hará algo estúpido o intentará pilotar borracho), más capaz para manejar una pelea verdaderamente en 3D, en la que los humanos no están acostumbrados a pensar, y capaz de manejar las fuerzas G que los humanos no pueden. Además, el uso de la IA significa que no hay muerte humana si los combatientes son destruidos.

Sin embargo, quiero pilotos humanos como mis protagonistas. No quiero que existan cazas controlados por IA. Por lo tanto, quiero encontrar la(s) mejor(es) justificación(es) de por qué los humanos todavía estarían pilotando estos vehículos.

En este momento, mi mejor justificación fue simplemente decir que los avances de la IA se estancaron en nuestro futuro. Si bien podemos hacer toda la IA que manejamos ahora, y algunas cosas que la IA hace mejor, la IA capaz de procesar la complejidad de la lucha en el espacio simplemente no se ha desarrollado. Sin embargo, esto me parece poco probable. Soy programador, y siento que nuestra IA de hoy, con suficiente (y estoy hablando de muchos años) de desarrollo, ya casi podría manejar el control de un caza espacial. Renuncie a un procesamiento más rápido y mejores computadoras, que existirán en el futuro, y es difícil creer que la IA sea menos adecuada que los humanos.

¿Hay otros enfoques que pueda usar para justificar los pilotos humanos sobre la IA? No tendré una historia de fondo de "La IA se volvió loca y trató de matarnos a todos", o de otra manera hacer que la gente tenga miedo de un "escenario de Terminator". No estoy discutiendo el intelecto humano o la IA de 'aprendizaje' real cuando digo IA aquí, por lo que no hay peligro de que una IA sea lo suficientemente inteligente como para rebelarse y simplemente no lo considero una preocupación realista.


EDITAR: lo insinué un poco, pero para ser claros, no estoy hablando de un nivel inteligente de aprendizaje de IA fuerte, o algo tan avanzado. Estoy hablando de una IA débil en el sentido que tenemos ahora, responde a los estímulos programados rápidamente de la manera que sus programadores consideraron mejor, con algunas estrategias aleatorias y de teoría de juegos para evitar la previsibilidad. No necesita aprender o ser capaz de hacer otra cosa que no sea volar un avión de combate y disparar a las cosas. Sapient AI nunca estará en ninguna de mis historias, creo que es rompedor y aburrido.

Decisión final: Wow, no puedo agradecer lo suficiente a todos, ha habido una multitud de buenas razones que se enumeran a continuación. No creo que nadie solo resuelva completamente el problema, al menos no dentro de mi mundo deseado y límites sobre qué tecnología y límites quiero poner en él; pero por suerte tengo muchas razones proporcionadas!

Uno de mis personajes es un pacifista y programador, que efectivamente escribe IA débil básica para impulsar escudos, y está trabajando para tratar de encontrar una manera de eliminar a los pilotos de los cazas porque cree que los humanos siempre estarán en guerra, lo mejor que se puede hacer es limitar el muertes por ello. Desde el principio, haré que participe en una diatriba sobre cómo le encantaría reemplazar a los pilotos con IA y, cuando se le pregunte al respecto, se despotricará un poco como un geek sobre los numerosos factores que limitan la IA, y que todos trabajan en colaboración para que aún no sea viable, y es poco probable que lo sea por un tiempo. Me basaré en muchas de las respuestas a continuación para completar su larga lista de razones que da. Por lo tanto, me siento mal por poder recompensar solo a una persona como la mejor respuesta, se utilizarán al menos media docena de respuestas de personas.

Aquí hay una breve lista de la mayoría de las cosas sobre las que hablará, aunque incluyo algunas otras partes menores de otras respuestas.

  • Las técnicas de IA no han progresado mucho en el futuro. Tenemos computadoras más rápidas, pero nuestros enfoques para aprender IA y algoritmos genéticos aún no han dado resultado para herramientas a gran escala; así que todavía dependemos del azul profundo "calcular todas las posibilidades en un árbol que se expande cuadráticamente" que simplemente no escala bien. como un geek, casi lo veo comenzando a explicar el gran O y cómo el aumento cuadrático en la velocidad de procesamiento por año no puede mantenerse al día con un gran O mayor de complejidad de procesamiento por cada nanosegundo de 'anticipación' necesario para estas IA antes de que se dé cuenta está hablando muy por encima de las cabezas de su audiencia.
    • Los límites en el desarrollo de la IA significan que los humanos son mejores para tomar decisiones en el fragor de la batalla. Dado que la comunicación es algo limitada durante los tiroteos a transmisiones de ráfaga ocasionales (límites de mi mundo, las comunicaciones regulares están todas bloqueadas de manera efectiva, existen comunicaciones cuasi-FTL pero están limitadas en su funcionamiento) es importante tener a alguien que pueda tomar decisiones incluso si las comunicaciones fallan. abajo por completo.
  • La IA es cara. Los escudos emiten radiación EM masiva e incluso picos EMP. Trabajar en un campo de batalla con tanta ER requiere hardware blindado que es más caro, y los trajes móviles no blindados más baratos se producen mejor en masa. Las computadoras aún pueden existir, pero su poder de procesamiento está más limitado por el costo de construir máquinas que funcionen en el espacio con ER y otras emisiones en la batalla.
  • Acepté a regañadientes que los pilotos usen una interfaz mente-máquina para manejar parte de su pilotaje, aunque haré que usen una combinación de eso y controles regulares bajo el argumento de que el MMI solo puede interactuar con ciertas partes de la mente. que son más fáciles de traducir a comandos accionables. Específicamente, el MMI se usa solo para el movimiento y la navegación, y los controles físicos para todo lo demás. Preferiría evitar este por razones de narración, pero de lo contrario, es demasiado difícil justificar que la velocidad de reacción de los pilotos sea lo suficientemente rápida.
  • Todo esto se combina para dar como resultado que la IA exista en los luchadores pero se limite a ciertas funciones. Los humanos todavía se utilizan para aquellas cosas que no podemos hacer que la IA haga de manera fácil y económica.

Otros factores más políticos que también juegan un papel, principalmente en la limitación de la financiación para el desarrollo de técnicas para solucionar los problemas anteriores.

  • La gente no confía en la IA con las armas, todo el mundo tiene miedo de que se ponga colorada y lastime a la gente. Es probable que continúe señalando que parte de esto es un sesgo irrazonable de que las personas vean demasiadas historias de ciencia ficción poco realistas, pero no obstante, el sesgo está en contra.
  • La gente desconfía de la IA por miedo a la piratería. Él dice descaradamente que esto es una tontería y que bloquear el sistema requeriría un esfuerzo de programación, pero de ninguna manera es imposible, pero son los políticos, no los programadores, quienes firman los cheques para las compras de hardware; y no puedes convencerlos de ese hecho.
  • existe presión política para mantener a las personas como pilotos. Una combinación de miedo a la IA en las armas, soldados que no quieren quedar desempleados por la IA, deseo de responsabilidad y la creencia de que las guerras se volverán cada vez más excesivas sin el factor humano.
  • La gente quiere humanos dispuestos/capaces de decir no si un general va demasiado lejos en sus decisiones. Habrá un ejemplo infame del pasado de un general que fue en contra de las órdenes y disparó numerosas armas automáticas sin tener en cuenta su equivalente de la convención de Ginebra, matando a muchos civiles y, en general, todo el incidente se considera una atrocidad. Se acordó que este era un hombre loco sin el apoyo de otros que pudieron hacer esto solo porque los sistemas automatizados no tenían ningún control para evitar que un hombre los disparara a todos. Todos los militares ahora tienen varias personas requeridas para autorizar armas automáticas, como deberían haberlo hecho entonces, pero este incidente aún se recuerda. Uno de los argumentos en contra de AI es que este tipo de situación podría volver a ocurrir si un piloto no está presente para rechazar órdenes ilegales.
  • Varios ajustes a mi tecnología para hacer que los límites de los pilotos no sean tan significativos. Por ejemplo, los mejores sistemas de propulsión para naves blindadas tienen un delta-V limitado, porque otros sistemas de propulsión son demasiado caros para los cazas producidos en masa (sin blindaje) o tienden a desestabilizar los escudos de las naves blindadas. Esto, a su vez, limita las fuerzas G impuestas a los pilotos. También haré que se usen amortiguadores de inercia de un hombre pobre para abordar las preocupaciones de la fuerza G.
Esto se siente como un duplicado de: worldbuilding.stackexchange.com/questions/8587/…
En realidad, se hizo una pregunta similar en Aviation StackExchange: Aviation.stackexchange.com/q/1802/615
Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
¿Los humanos tienen que ser "nuestros" (es decir, de nuestra Tierra) descendientes? ¿O podría la historia estar ambientada en un universo ficticio ligeramente diferente, o los "humanos" son de otro planeta? - Como Battlestar Galactica o Star Wars, donde hay humanos pero no somos nosotros.
Uhm, no sé por qué no lo pensé todavía, pero en realidad es bastante fácil: la orientación automática (y los cazas no tripulados no son otra cosa) SIEMPRE ha sido una carrera armamentista contra sus contramedidas (bengalas, señuelos, etc.) . En su universo, las contramedidas acaban de ganar (debido a un límite superior para apuntar a las computadoras). Por lo tanto, solo son posibles los cazas y los cañones de naves capitales (apuntados manualmente). [Los combatientes que también tienen contramedidas explican por qué las baterías anti-combatientes no pueden destruirlos de inmediato]

Respuestas (37)

Soy programador y estoy de acuerdo contigo en que eventualmente la IA básicamente será imbatible en este escenario. El tropo común de ciencia ficción es que los humanos son mejores para pensar "fuera de la caja" y, por lo tanto, terminan derrotando a la IA, pero eso simplemente no es justificable, existen técnicas de programación para evitarlo.

Sin embargo, creo que todavía puedes justificar a los pilotos humanos si no vas demasiado lejos en el futuro. Aquí están los problemas como yo los veo:

Soporte vital

Esta no es la barrera que esperas. Tenga en cuenta que la mayoría de los equipos informáticos tampoco funcionarán en temperaturas extremadamente frías o calientes; en otras palabras, también necesita "soporte vital" para la IA. Ahora, en una nave capital, el soporte vital es un gran problema porque necesita ser autosuficiente, pero en un caza, donde puede esperar que solo esté activo unas pocas horas a la vez, puede ir con una configuración mínima. Obtenga calor residual de sus motores, tenga alguna forma de refrescarse y utilice el reciclaje de aire. Es probable que el soporte vital de un piloto humano sea muy parecido al de la IA.

Aceleración

Esta es una barrera mucho más grande. Los humanos son vulnerables a las altas fuerzas G. Las unidades de IA, si se diseñan correctamente, podrían tolerar aceleraciones mucho más altas y maniobras más violentas. Si desea mantener a los humanos, necesita algún tipo de tecnología de compensación inercial que le permita a sus biológicos mantenerse al día con sus rivales artificiales en esta área.

Tiempo de reacción

La IA es rápida. Pero, ¿por qué no mejorar a tus humanos? Dales algún tipo de nanotecnología o adaptaciones genéticas que los hagan reaccionar más rápido. Lo que pasa con esto es que tienes rendimientos decrecientes, momento en el que otros factores se vuelven más importantes. La diferencia entre reaccionar en 0,1 segundos frente a 0,01 es un gran problema. Pero la diferencia entre .01 y .001 puede que ni siquiera importe, porque en ese punto lo que te detiene son las limitaciones mecánicas de tu luchador. Por lo tanto, no necesita que sus humanos atrapen a la IA, solo necesita que ambos sean lo suficientemente rápidos para usar su luchador al límite.

Juicio, Sucesos Inesperados y Civiles

Y aquí es donde quieres pilotos humanos. Siento que será muy probable que una IA tonta, que se especializa en manejar un caza, pero que realmente no puede pensar, no sea capaz de hacer todo el tipo de llamadas que deseas de un piloto de combate. No estoy hablando de maniobras de combate, pero ¿qué sucede cuando un carguero civil entra accidentalmente en la zona de batalla? ¿Qué sucede si el enemigo se disfraza como un carguero civil y sus IA están codificadas para ignorarlos?

Si un enemigo lanza misiles a dos hábitats, ¿su IA es lo suficientemente inteligente como para intentar interceptar en lugar de continuar luchando si eso no estaba en los parámetros de la misión? ¿Puede tomar una decisión sobre matar a 100 personas para salvar a 10.000 y tenerlo en cuenta adecuadamente en su toma de decisiones militares? ¿De verdad quieres cargar un misil con equipo nuclear en una IA tonta y darle permiso para usarlo sin supervisión?

Estas son cosas con las que un piloto humano también tendrá problemas, pero creo que todavía están mucho mejor preparados que una IA.

Nota: si va lo suficientemente lejos en el futuro, probablemente incluso podría codificarlo para manejar los escenarios anteriores. Así que todo depende de dónde dibujes tu línea de tecnología informática.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Nota: la mejor reacción ojo->cerebro->dedo de los jugadores de Quake es de alrededor de 200 mseg. Es un límite natural.
Entonces, básicamente, ¿'la IA nunca puede esperar cumplir con la Ley Cero'?
@Nakilon Los mejores jugadores de Quake son los que pueden leer y burlar a su oponente. Los tiempos de reacción y la puntería perfecta son solo el boleto de entrada a la escena profesional donde las personas predecirán sus movimientos y los contrarrestarán negándole recursos y forzándolo solo a compromisos favorables. En nuestra pregunta, se traduce directamente cuán poderosa y adaptable es la IA sobre los pilotos humanos.

Karrick exhaló un profundo suspiro de dolor cuando la aguja larga y delgada perforó la parte posterior de su cráneo. Había volado en miles de salidas, pero amarrarse a su caza todavía era algo que se sentía antinatural. Mil millones de años de evolución orgánica exigieron resistir y luchar contra un objeto afilado que perforaba la parte posterior de la cabeza. Sin embargo, casi instantáneamente, la aguja comenzó a bombear una corriente de suero de Minovsky en su cerebro, desafilando todos los bordes afilados y dentados del mundo. Karrick respiró aliviado y relajó los ojos.

Sintió que el suero se filtraba más profundamente en su cerebro y agradeció una sensación familiar de caída en picado a medida que el tiempo comenzaba a ralentizarse. Observó su reloj de calibración, ejecutando ecuaciones en su cabeza para contar qué tan rápido estaba computando su cerebro.

10x. Esta era la velocidad a la que podía observar los aleteos individuales de un colibrí. A esta velocidad de pensamiento, podría atrapar una libélula en sus manos. Una computadora de clase Ace, por supuesto, sería incomprensible. Se hundió más profundo.

30x. Esta fue la velocidad a la que perdió la capacidad de comunicarse con humanos que aún operaban en una escala de tiempo normal, pero aún no era lo suficientemente rápido.

100x. Con su cerebro operando cien veces más rápido que en estado de reposo, ya no podía hablar cómodamente, ya que los músculos de su tracto vocal no podían seguir la velocidad a la que su mente enviaba las órdenes. Rápidamente pasó los dedos por el borde del panel de instrumentos. Estas manos protésicas de piloto de metal, por supuesto, no sufrieron tales problemas. Su mente estaba al día, finalmente lista para interactuar con su computadora. Sin embargo, lo que es más importante, a esta velocidad, con el suero de Minkovsky bombeando a través de su cerebro, finalmente pudo pensar lo suficientemente rápido como para determinar las acciones de otras mentes cercanas.. Miró a través del espacio mental y vio a su tripulación de tierra agrupada alrededor del caza, terminando muy lentamente la preparación de su caza para el despegue. Muy por encima de él, casi en órbita, vio la mente dual de otro piloto de combate y su computadora atravesando las últimas capas de la atmósfera. Saludó mentalmente con un 'hola' y volvió el ojo de su mente más cerca de él. Allí, esperando pacientemente en el circuito que lo rodeaba, estaba Ace, su compañero. Ace era paciente, por supuesto, como siempre lo eran las IA, y no apuraría a Karrick ni intentaría hacer contacto hasta que estuviera listo. Karrick miró una vez más el reloj del salpicadero. Convencido de que estaba completamente inmerso en la nueva corriente del tiempo, acercó su mente a Ace.

"Ok amigo, conéctame. Tenemos una misión que hacer".

Si está dispuesto a tener un poco de mano en su ciencia, ¿por qué no inventar algo que haga que los humanos sean necesarios?

En esta historia, he agregado el suero Minkovsky para hacer precisamente eso. Por sí solos, los humanos son demasiado lentos para ayudar a una computadora y no pueden hacer nada que una computadora no pueda hacer mejor. Sin embargo, acelerar sus mentes hasta 100x y darles la capacidad de ver otras mentes, ¿robóticas u orgánicas? Ahora son una parte indispensable de un binomio humano/máquina que puede reaccionar ante un sistema puramente mecánico prestando atención a lo que está pensando, no a lo que está haciendo. Esto, por supuesto, se extiende a cosas como los misiles, lo que hace que el armamento estándar de largo alcance sea inútil contra un luchador Ace.

Los efectos de este suero, por supuesto, no se han replicado en máquinas. Los científicos humanos ni siquiera están completamente seguros de cómo funciona este suero. Se extrae de un organismo alienígena que se encontró en las profundidades de las ruinas de mil millones de años de antigüedad de una civilización alienígena extinta. De lo que están seguros es que puede convertir al ser humano adecuado con el entrenamiento adecuado en una de las armas más poderosas de la galaxia.

¡Agradable! Pero incluso un humano que puede pensar tan rápido como una computadora, aún necesita amortiguación inercial para mantenerse al día con un barco sin carne. Aún así, un excelente complemento para una o más de las otras respuestas.
Había considerado seriamente la interfaz humano-computadora. Sin embargo, quiero que alguien que no sea piloto esté a cargo de un prototipo de as de control remoto como el único sobreviviente de un ataque destinado a robarlo. Por varias razones, temía que sería más difícil mostrar el crecimiento de los no pilotos en un piloto semi-calificado y los trucos que usa para compensar la habilidad limitada en comparación con los pilotos as. Sin embargo, ahora estoy pensando que si tuviéramos una interfaz HCI limitada, que no permite el control total de la nave pero podría usarse para un control parcial, digamos solo del movimiento, aún podría funcionar.
La especia debe fluir.
Estaba pensando en la interfaz humano-computadora menos como una interfaz a través de la cual un humano usa una computadora y más como una extensión cibernética de la mente humana. De esta manera, un humano puede controlar todo sobre el luchador porque conectarse a la computadora ha expandido su mente hasta el punto en que puede comprender todo lo que debe hacerse lo suficientemente rápido como para hacerlo. La computadora, por supuesto, tiene una mente propia rudimentaria que trabaja junto con el piloto.
Este arreglo puede ser beneficioso si tienes un piloto no calificado atado a uno de tus cazas, ya que significa que tienen a alguien (la IA) allí para guiarlos sobre cómo volar cosas. La IA no tiene la misma capacidad de sentir cosas que una mente humana mejorada con el suero Minkovsky, pero ha estado en contacto con suficientes mentes como para decirle a nuestro piloto novato lo que debería estar buscando y cómo pilotar el caza. un ambiente de combate.
Interesante. Pero, ¿cuáles son los límites de velocidad de los músculos oculares?
@ckersch ¿Acabas de inventar el texto o es un extracto de un texto más largo que uno puede leer? ¡Quiero saber el resto de la historia! ;)
Se parece mucho a los pilotos de combate de Copperhead de la trilogía Conquerors‍ de Timothy Zahn - +1.
@HenrikIlgen Lo inventé, aunque es posible que escriba más en algún momento. ¡Me alegra que te haya gustado!
Notaré que las manos protésicas del piloto probablemente se representen mejor como "manos" solo en el sentido abstracto: interfaces en lugar de objetos físicos. De lo contrario, está agregando su necesidad de hacer movimientos físicos al tiempo de reacción potencial. Es mejor tener un canal de conexión bio-a-cerebro digital-a-interfaz-a-luchador.

Iría con la respuesta fácil: las leyes internacionales.

La Convención de Ginebra, Convención de Armas Biológicas, Convención de Armas Químicas, Convención de La Haya, Tratado del Espacio Exterior, Tratado de Misiles Antibalísticos

Cuando las armas se vuelven demasiado efectivas y aterradoras, se prohíben. No necesita un escenario de terminación, simplemente una guerra histórica que fue ganada extremadamente rápido y extremadamente violenta por un lado humano (o tal vez donde ambos lados acabaron con el gobierno del otro y obligaron a la comunidad internacional a intervenir) usando inteligencia artificial. seguido de un acuerdo entre caballeros de todas las partes de que las máquinas de guerra independientes controladas por IA (especialmente las que se autorreparan o se autoreplican) no se desplegarán de la misma manera que las armas nucleares, biológicas y químicas.

Habría límites estrictos en la automatización de las naves militares y es probable que la IA se siga utilizando en la planificación y la logística, pero ninguna de las partes quiere infringir la ley internacional/interestelar.

Ambos lados mantendrían una reserva de naves similares a un disuasivo nuclear que normalmente no usan y la lucha se deja en manos de los soldados.

Entonces, en la historia, la IA podría usarse para luchar, pero no por la misma razón por la que no se desplegó gas venenoso en la Segunda Guerra Mundial y las armas nucleares no se desplegaron en las guerras del golfo.

Tendría que ser una ley respetada por ambas partes, lo que probablemente implica que hubo un incidente en el pasado.
Debo admitir que este es un punto decente. Me opongo al concepto de que la IA es inteligente y, por lo tanto, no quería una guerra que involucre a la IA inteligente. No me opongo a una guerra histórica que fue muy brutal debido a la IA. Consideraré esta posibilidad.
En una nota relacionada, el miedo humano a las armas de IA y el deseo de un control civil (léase: humano) de las fuerzas armadas. Un caza estelar podría tener el potencial destructivo de un submarino de misiles, y esos tienen humanos en las teclas, con diferentes grados de discreción ( en.wikipedia.org/wiki/Letters_of_last_resort ).
"Para evitar la brecha de responsabilidad que surgiría si se fabricaran y desplegaran armas totalmente autónomas, Human Rights Watch y la Clínica Internacional de Derechos Humanos (IHRC) de la Facultad de Derecho de Harvard recomiendan que los estados: a) Prohíban el desarrollo, la producción y el uso de armas totalmente autónomas. armas autónomas a través de un instrumento internacional jurídicamente vinculante. b) Adoptar leyes y políticas nacionales que prohíban el desarrollo, la producción y el uso de armas totalmente autónomas". - hrw.org/sites/default/files/reports/arms0415_ForUpload_0.pdf
O la Yihad Butleriana en Dune de Frank Herbert, que prohibía que las máquinas hicieran lo que los humanos debían hacer. Esto, por supuesto, tiene como consecuencia que las personas serían creadas para hacer lo que las máquinas debían hacer.
Sé que esto viene mucho después del hecho, pero esto también abre la posibilidad de que el antagonista sea un gobierno que no sigue las reglas, usa armas de IA (incluso si están completamente bajo control) y es un agresivo. conquistador...
Entonces, ¿la IA esencialmente armada sería como las armas nucleares hoy en día?

Nota: según su edición, estoy usando IA para referirme a las IA lógicas modernas sin aprendizaje, no a las IA conscientes

Considere seguir adelante y trabajar con la IA en lugar de contra ella.

Los cazas de hoy en día dependen tanto de las IA de la computadora que básicamente no puedes volar un F-22 o F-35 sin que la computadora te ayude. Si quitaras las IA, tus cazas espaciales serían poco más que cazas y bombarderos de la Segunda Guerra Mundial en medio de cazas potenciados por IA que revolotean a su alrededor. Adopte la IA, no luche contra ella.

Y luego ir más allá de las IA. Sí, tenemos vehículos aéreos no tripulados en marcha, pero la mayoría de los aviones todavía tienen un ser humano que guía a la IA. El humano toma las decisiones de nivel más alto (como "inclinarse a la derecha 90 grados rápido") y la computadora se encarga de las decisiones de nivel reflejo ("Detecto un vórtice rodando sobre el ala derecha, así que necesito desviar los alerones 3 grados hacia arriba en 0.0015 segundos ... VAMOS"). Este es un emparejamiento que ha demostrado su eficacia una y otra vez. Incluso en el mundo del ajedrez, este emparejamiento gana. Las computadoras finalmente han vencido a los humanos en el ajedrez, pero la mejor computadora de ajedrez del mundo que consume mucha energía no es rival para un maestro humano que tiene una copia de Fritz 10 y una computadora portátil normal y corriente.

Entonces, el truco es garantizar que los pilotos sigan siendo viables, no garantizar que las IA no puedan hacer el trabajo. Una cosa que he notado es que los humanos tienden a ser mucho mejores en los equilibrios sutiles. Si bien una IA puede "ir a los rieles" y regresar mucho más rápido de lo que cualquier humano podría lograr, es difícil lograr que se queden quietos. Terminan parloteando, mientras intentan hacer correcciones espasmódicas, y la mayor parte de la teoría de los sistemas de control modernos se trata de tratar de idear formas de mejorar este control espástico.

Lo que debes hacer es crear el combate de tal manera que el mejor resultado no se lo dé el que tenga las reacciones más rápidas, sino el que pueda mantener su centro en medio del caos.

Una situación de combate de muestra que podría demostrar esto es aquella en la que las computadoras desarrollan un árbol de juego tremendamente avanzado para determinar en qué dirección moverse. Tiendes a comenzar en una posición segura, pero si alguna vez te mueves fuera de "seguro", la computadora te molerá lentamente hasta matarte con una teoría de juegos implacable.

Sin embargo, hay una trampa. A medida que la región segura se vuelve cada vez más pequeña al acercarse al avión enemigo, se vuelve más complicado predecir de esta manera. Los pilotos pronto hablan de su "centro". Mientras mantengas tu centro a través de movimientos suaves y elegantes, realmente no importa lo que la IA haga a tu favor o en tu contra, nadie puede tocarte. Sin embargo, si pierde la calma por un momento, puede hacer un movimiento espástico y perder su centro. En el instante en que eso suceda, la IA enemiga te golpeará hasta el olvido.

Lo complicado es que, cuando estás "centrado", obtienes muy poca información sobre el mundo que te rodea, porque en realidad no estás interactuando con mucho. Estás como flotando en medio del estruendo del combate. Las IA de la computadora simplemente no pueden manejar la falta de estímulo y se desvían del centro para volar en pedazos. Solo con un ser humano bien entrenado al timón puedes caminar por esta delgada línea. ¿Después? Eres virtualmente inmortal. Nada puede tocarte. Ninguna IA puede competir cuando estás centrado, y ningún ser humano podría tocarte por sí solo... tu IA los destruiría.

Espero que la decisión no sea tan dura entre los humanos sin ayuda y la IA pura. Vi otro comentario sobre un enfoque híbrido. El tuyo es con hardware separado, el de ellos fue a través del aumento. Creo que es una tontería no tener vuelo asistido por computadora porque lo tenemos hoy por las razones que mencionaste.
Me gusta este enfoque, pero ten cuidado: podría virar peligrosamente cerca de la pareja de droides astromecánicos/ala-X en el universo de Star Wars. Especialmente en las novelas de la UE, el droide puede tomar un control casi autónomo sobre el caza estelar cuando sea necesario, aunque no puede realizar las mismas maniobras hábiles que el piloto humano (u otro).
@ilinamorato Pilotar no es tan difícil. Confiaría en las computadoras de hoy para pilotar. En muchos casos, confiaría en mí mismo sin una IA y no tengo ningún tipo de entrenamiento. Sin embargo, no tenemos pilotos para cuando es fácil. Tenemos pilotos para esos 3 segundos de terror cuando todo sale mal. No fingiría ni por un momento que podría llevar un avión a una zona de combate. No fingiría ni por un momento que podría encargarme de un incendio en el motor de un avión comercial. A veces no hay sustituto para un profesional capacitado con su hardware.
@Cort Ammon, pero el problema aquí no es la realidad, sino la percepción de la misma. En la mente de muchas personas, pilotar aviones es inimaginablemente complejo, y las naves espaciales lo son aún más. Escribir que es así en una historia no rompería la suspensión voluntaria de la incredulidad para la mayoría.
El transbordador espacial de EE. UU. fue difícil de aterrizar, PIO, la oscilación inducida por el piloto fue la razón. El humano estaba reaccionando de forma exagerada a las entradas, por lo que la NASA redujo la entrada del piloto por algún factor. Resuelto el problema. En este contexto, se necesita que el piloto tome la decisión, la IA se usa para hacer que el caza gire para apoyar la decisión.

EMP. Las naves capitales tienen generadores EM que pueden freír o al menos alterar la electrónica delicada, lo que requiere un componente humano para mantener a los cazas en vuelo.

Los cazas utilizan fibra óptica para la mayoría de los sistemas (p. ej., armas, control de motores, sistemas de vuelo), por lo que un EMP no tiene demasiado impacto en una nave pilotada. Si lo desea, podría eliminar la comunicación de largo alcance, o quizás sensores avanzados, lo que requiere que los cazas se acerquen al alcance visual.

Entonces, ¿por qué no hacer que las computadoras de IA también sean de fibra óptica? Porque se necesita mucha más potencia informática para simular la toma de decisiones humanas que simplemente ejecutar sistemas, y construir esto en una forma óptica voluminosa (y hacerlo tan perfectamente que un EMP no arroja sus cálculos precisos) no es práctico. Tal vez a alguien se le ocurra un caza "drone" semiinteligente que use un núcleo de fibra óptica, pero es frágil porque cualquier daño a su jaula de Faraday y sus sensores se vuelven vulnerables a un EMP; suena como una buena unidad "mook" para el imperio del mal!

mmm, voy a pensar en esto. Fácilmente puedo hacer que los EMP ocurran naturalmente como un efecto secundario de los escudos que desvían los ataques, lo que se siente como una forma más natural de introducir la amenaza de los EMP. Sin embargo, no sé si realmente puedo justificar la afirmación de que los luchadores (¡y los humanos!) son inmunes a EMP, y ¿cómo afirmo que las grandes naves capitales no tienen computadoras? Podría decir que los barcos sin protección son vulnerables pero no están protegidos; excepto que quiero que mis PC sean luchadores voladores con escudo, eso es lo que los convierte en personajes únicos que afectan al mundo, ¡tienen luchadores raros de nivel de nave capital!
Yo diría que separe la generación de EMP y la inmunidad de los escudos. Te da más posibilidades: una pequeña cañonera sin escudo pero con cañones EMP; una gran nave con un escudo pero sin cañones EMP precisamente porque nadie usa cazas de IA y, por supuesto, es vulnerable a un ataque de IA fuera del campo izquierdo. Tenga en cuenta que la construcción de sistemas reforzados con EMP no es difícil, el agitar a mano se trata de por qué la IA no se puede proteger de manera similar.
Encuentro la idea de que "la computadora debe ser físicamente más grande para ser lo suficientemente potente" difícil de aceptar. Me imagino que las computadoras para armas, control de motores, soporte vital, distribución de energía, comunicaciones y sistemas de vuelo tendrían que ser bastante potentes y estar conectadas entre sí. Presumiblemente, se distribuyen con interconexiones ópticas para evitar el acoplamiento EMP, pero ¿por qué no distribuir también la computadora AI?
Probablemente no lo sabremos durante décadas. Pero en este momento, las computadoras requeridas para operar un caza requieren una fracción insignificante de su volumen, masa y potencia de salida, pero incluso las supercomputadoras más sofisticadas no pueden pasar una prueba de Turing. No creo que sea probable que una IA del siglo 22 requiera cientos de kilos de equipo, pero es la posibilidad más plausible [que hace que los pilotos humanos sean necesarios] que se me ocurre. O tal vez hacerlo a prueba de EMP es lo que lo hace voluminoso y pesado, en cuyo caso los buques civiles probablemente serán impulsados ​​por IA.
@JonofAllTrades ¿Por qué esta IA necesita pasar una prueba de Turing? No es una IA inteligente o de aprendizaje. El OP dice que son "solo algoritmos avanzados que responden rápidamente de la forma en que están programados".
@Samuel, la computadora que controla mi automóvil (y está 'conectada' para la aceleración, la inyección de combustible, el aire acondicionado, etc.) cabe en algunos chips. La computadora que responde las preguntas de Jeopardy ocupa una buena parte del espacio . El control de sistemas discretos (incluso conectados en red) en función de información externa es fácil (pequeño y endurecible) en comparación con todo el trabajo para hacer algo tan simple como conducir un automóvil .
@MichaelT Esa es la diferencia entre un prototipo y una producción. Watson, la computadora Jeopardy, ahora tiene el tamaño de "tres cajas de pizza apiladas" , un 10% de su tamaño cuando está en el programa. Al hacerlo, también se ha dado cuenta de una "mejora del 2400 por ciento en el rendimiento". No sé cuál es su ejemplo de automóvil autónomo, pero apuesto a que es seguro asumir que es, o pronto será, tan fechado como su referencia de Watson.
@Samuel es más un comentario de que no se debe comparar el sistema que proporciona la naturaleza automática del vehículo con las computadoras que controlan varios sistemas (como se sugiere en "Me imagino las computadoras para armas, control de motores, soporte vital, distribución de energía, las comunicaciones y los sistemas de vuelo tendrían que ser bastante potentes y estar conectados entre sí"). Siempre va a haber una diferencia de órdenes de magnitud entre las computadoras para un sistema automático y las computadoras para el control de los sistemas del vehículo (basado en un piloto que lo controla).
@MichaelT No sugerí que fueran iguales, solo que la computadora de IA podría dispersarse en piezas de tamaño similar enlazadas ópticamente.
¿Qué tan peligrosas son las explosiones EMP capaces de freír máquinas para pilotos humanos ?
El alcance visual en el espacio no funciona como en la atmósfera: las velocidades y los alcances son mucho mayores.
@dtldarek: De hecho, pero parece claro que el OP está buscando cazas espaciales al estilo de la ópera espacial, y "los sensores electrónicos simplemente serán fritos por los EMP enemigos" es una excusa decente para el combate a distancias de solo unos pocos kilómetros, à la [tu programa de ciencia ficción favorito].

¿Qué pasa con la piratería? Asumir que los pilotos de IA necesitarían una conexión a algún tipo de red de largo alcance para ejecutar las órdenes presenta un problema de seguridad: si alguien puede interceptar la señal y piratear los protocolos de la IA, puede indicarle a la nave que gire y corra o ( peor aún) atacan al remitente.

Quizás en su historia, intentaron pilotos de IA en algún momento en el pasado, pero nunca pudieron resolver el problema de una salida entre pilotos de IA que se convirtió en una batalla entre piratas informáticos.

Esta es mi respuesta preferida ya que ya estamos en una guerra de piratería (occidente contra China) y solo puedo ver que el problema empeora.
No creo que esta pueda ser la única razón, como programador. La piratería se trata más de decir "oh, se olvidaron de cerrar esta ventana" que "vamos a abrir esta cerradura con nuestro 1337 5K1LLZ". Es fácil pasar por alto una puerta para cerrar cuando hay 100 puertas; pero es factible. quejarse de agregarlo como una de las razones para no tener IA, incluso si no es la única razón. Tal vez incluso lanzar un general "El Congreso no entiende la programación, por lo que tienen miedo de financiar un arma de IA por miedo a la piratería a pesar de que no es una preocupación, ¿no son los humanos estúpidos?, ya que un personaje principal también es codificador
Sin embargo, si ambos bandos usan esta técnica y solo un porcentaje de los combatientes se ven afectados, aún podría tener sentido usar pilotos de IA. Se podría esperar que los pilotos de IA se vean comprometidos, digamos, el 10% del tiempo, todavía hay un 90% de cazas en funcionamiento. De hecho, ambos bandos podrían desarrollar unidades especializadas cuyo trabajo sea hacerse cargo de los pilotos enemigos para garantizar la misma cantidad de pérdidas y, por lo tanto, la homeostasis.
@dsollen: entendido y de acuerdo, pero la historia no tiene que ser tanto sobre la naturaleza real de la piratería como sobre la naturaleza percibida de la piratería. El razonamiento no tiene que ser hermético, y la mayoría de la gente lo aceptaría como una razón para evitar los combatientes de IA. Además, como nota, hay buenas razones en el universo para justificarlo.
@neontapir: perder el 10% de tus luchadores por un hacker podría ser posiblemente desastroso. Si el 10% se rebelara dentro del portaaviones y comenzara a disparar a los demás antes del lanzamiento, o incluso si simplemente se autodestruyera, podría neutralizar una gran parte de las fuerzas de un lado incluso antes de que comenzara la batalla. Si estaban programados para volverse contra su bando después de que se completara la batalla, una retirada podría convertirse en una matanza.
Es cierto, sin embargo, si ambas partes emplearan regularmente estas tácticas, podría ver que la adaptación ocurre donde se convierte en el comportamiento esperado. Durante mucho tiempo, los caballos no se montaban en la batalla, por ejemplo. Para superar el problema de la piratería, los combatientes podrían lanzarse al espacio "tontos" y activarse lejos de la nave, y los combatientes individuales podrían no confiar entre sí y trabajar como unidades individuales.
¡Definitivamente un concepto interesante, lanzar a los luchadores atontados y programarlos para activar sus comunicaciones cuando están demasiado lejos para hacer daño! Y actuar como unidades individuales les daría un carácter mucho más humano. Sigo pensando que el miedo a la piratería es una razón razonable para enviar humanos a la refriega, pero tal vez ese modelo sea el que elegiría una facción opuesta, dando a los protagonistas la oportunidad de luchar contra las IA.
Si desea proteger su sistema contra la piratería, en realidad es fácil: los sistemas codificados duros son técnicas anti-piratería bastante confiables... Dado que no puede cambiar el código sin cambiar el hardware, eliminaría las operaciones de combate de una buena parte de la piratería. La codificación de misiles nucleares de EE. UU. está asegurada de esta manera. Para piratear las armas nucleares, debe ingresar a un silo nuclear individual, hacer una cirugía de cohete literal y salirse con la suya. Sin embargo, vea mi otro comentario sobre el gran defecto.
Entonces, la falla con un piloto de IA codificado es que, a diferencia de los misiles, que necesitan saber en qué dirección volar y cuándo bajar y cuándo explotar, las naves de combate deben coordinar el ataque de alguna manera ... lo que significa cada sistema debe comunicarse entre sí mediante una señal... Si tiene una señal, tiene una forma de entrar y puede falsificar una señal de comando para engañar a la computadora para que haga otra cosa. Lo más probable es que no puedas convertir las fuerzas entre sí... pero pueden desactivarse o indicarles a dónde ir para abandonar el área de combate.
El 99% de los "hacks" de hoy se deben a errores humanos. Eliminar a los humanos probablemente reduciría la posibilidad de que sus sistemas automatizados sean pirateados.

Puede lograr esto de manera plausible al asumir los dos hechos siguientes en su historia:

  1. Las IA no pueden, debido a algo como las Leyes de Asimov, dañar o matar a un humano.

  2. El control remoto de los barcos es demasiado susceptible a interferencias, contramedidas, etc.

El primer hecho asumido parece ser un requisito para tener una IA de nivel humano-combatiente. Deben seguir alguna forma de las tres leyes , de lo contrario, tendríamos demasiado miedo de construirlas o ya estaríamos regidos por ellas. Esto es independiente del tipo de IA, por ejemplo, 'IA de nivel de inteligencia', estas leyes se incorporarían en cualquier hardware capaz de ejecutar una IA de alto nivel. Básicamente, la IA no sensible sin restricciones causaría demasiado daño colateral y la IA sensible sin restricciones causaría demasiado dominio de los robots.

El segundo hecho asumido es completamente plausible para dos ejércitos suficientemente avanzados que luchan entre sí. No permite aviones de combate con aviones no tripulados, lo que requiere pilotos humanos para tripular las naves.

@DaaaahWhoosh Parecías haberte saltado el primer punto. Si la IA está en la nave, entonces no es una nave de combate.
Ah, ya veo. Entonces, su primer punto descarta la IA por completo, y el segundo punto pone a los humanos en las naves. Tiene sentido. +1.
Las leyes robóticas deben integrarse en el software de la IA. Deben ser una parte integral de la IA, es decir. la IA necesita considerar las leyes como parte de sí mismas. La IA no debería ver las leyes como restricciones sobre sí misma, porque eso podría implicar que comenzaría a buscar formas de evitarlas.
Pero de alguna manera tendría que explicar por qué las personas no pueden diseñar y construir IA que NO tengan la primera ley de Asimov. ¿Qué impediría a la sociedad tener fábricas separadas para robots militares y para robots civiles? Si las IA fueran realmente superiores en el combate, es difícil imaginar una sociedad que se permita ser derrotada en una guerra porque alguien escribió en un libro en alguna parte que no se debe permitir que los robots maten personas. Por cierto, no tengo el libro frente a mí, pero Asimov escribió una historia en la que construyeron robots con una primera ley modificada, omitiendo la parte "permitir que un ser humano sufra daño".
@Jay Está claramente explicado. La gente tendría demasiado miedo de hacer eso.
@Samuel Si la nación estuviera en peligro de ser destruida por un ejército invasor despiadado, es difícil imaginar que la gente no diría: Sí, hay algo de peligro aquí, pero la alternativa es ser masacrado o esclavizado. Tal vez deberíamos arriesgarnos.
@Jay Si eso fuera parte de la historia, entonces está bien, tal vez. Pero no lo es. Podrías hacer el mismo reclamo al universo de Asimov, ¿por qué no construyeron robots sin las tres leyes para defenderse? Porque la situación sin salida que inventaste nunca se presentó.
@Samuel En realidad, no. En el universo de Asimov, era (casi) imposible modificar los cerebros de los robots para que no tuvieran las tres leyes sin rehacer prácticamente toda la arquitectura del cerebro. Es un punto importante en bastantes historias. Y están las historias en las que construyeron algunas con leyes debilitadas , lo que casi siempre resultó en muchos problemas. Por la razón que sea, las leyes son inherentes a todo el diseño, no solo una subrutina que comprueba "¿Está bien matar? return false;Oh, cabrón". Tiene mucho sentido: las leyes son increíblemente complicadas.
@Luaan No estoy en desacuerdo. Tu argumento sigue las suposiciones del universo, que es exactamente lo que hace mi respuesta y lo que estoy tratando de explicarle a Jay. Es una discusión interminable decirle a alguien que son leyes codificadas y esa persona solo puede decir: 'sí, está bien, pero ¿y si no lo fueran?'.

Sistema piloto híbrido.

La realidad es que cualquier IA puede almacenarse en los implantes de un ser humano, por lo que no solo tiene el tiempo de reacción y el poder de cómputo de una IA, sino también la estrategia no determinista de un cerebro humano.

Probablemente en menos de un siglo tendremos la tecnología para fabricar toda la tecnología portátil implantada dentro de nuestros cuerpos. Imagine las posibilidades de que una IA se apodere de muchas partes de nuestro cerebro, realzándonos para ser incluso más que una IA pura

Bienvenido al sitio Comerciante. La idea híbrida es una solución interesante a esta pregunta.
Esto es lo que habría sugerido, aunque probablemente quieras expandirlo. // No es realmente práctico hacer que los humanos sean superiores o incluso competitivos con la IA, pero mientras la IA sea diferente de los humanos, un sistema híbrido de humano más IA vencerá tanto a los humanos como a las IA. Razonablemente, un sistema híbrido sería más robusto y adaptable. También desde la perspectiva de la historia, mientras que "¿Qué humano agrega a la IA?" es una pregunta interesante, "¿Cómo el estar directamente vinculado a la IA cambia a un ser humano?" es una mina de oro para un escritor capaz de explorarla. Los pilotos humanos llegarían a pensar diferente con el tiempo.
Además, si bien la IA podría almacenarse en un implante, probablemente solo funcione correctamente cuando el piloto esté conectado a un sistema informático de un vehículo. O un simulador. Así que creo que la capacidad de procesamiento del implante podría ser limitada. Es posible que el implante ni siquiera se active sin una conexión activa a un sistema con la autorización adecuada. Esta capa de seguridad podría extenderse a que el piloto solo pueda recordar algo dentro del área autorizada. Digamos que las especificaciones exactas del caza no estarían disponibles durante una licencia en tierra, sin importar cuánto dinero ofrezca alguien.
  1. La IA es notoriamente pobre en el reconocimiento de patrones, especialmente visual.

    Si el enemigo tiene un modo sigiloso realmente bueno, necesitas tener un piloto que pueda intuir patrones para vencer ese sigilo.

  2. Política/teología.

    • Un país similar a EE. UU. es ahora el hegemón del mundo. Y dentro de "EUA", el partido ultraliberal tiene un control casi inquebrantable. El mismo tipo de personas que, por razones políticas, no prácticas, hoy en 2015 cabildean para prohibir los drones de combate en el mundo real por motivos morales, éticos o ideológicos ( Ej1 . Ej2 )

    • Dos superpotencias mundiales en competencia tuvieron que llegar a un compromiso para unirse para luchar en una guerra contra los extraterrestres. Cada luchador es capaz de dañar irrevocablemente el equilibrio de fuerzas del lado sucio. Es probable que AI fighter esté programado con una puerta trasera que permita que un lado lo controle. Si combina eso con un piloto de un poder opuesto armado con un interruptor de apagado, eso se puede prevenir (y la IA puede tener un interruptor de apagado independiente fácil de codificar y depurar para evitar ataques dirigidos contra objetivos terrestres por el piloto , sentado en la interfaz piloto-caza).

  3. código bushido

    • Tu propia civilización evolucionó para convertirse en samurái armado con bushido. Esconderse detrás de una IA no es The Warrior Way y es vergonzoso

    • Tus oponentes evolucionaron para convertirse en Samurai con Bushido. Tienen armas de destrucción masiva que pueden destruir un planeta, pero SÓLO usarían dichas armas de destrucción masiva contra enemigos "indignos", "cobardes", "sin honor". Si emplea IA, se lo ve como los 3 adjetivos anteriores. Como no tienes forma de salvar tu planeta de sus armas de destrucción masiva, tienes que jugar según sus reglas de Bushido.

  4. Responsabilidad colectiva versus individual por daños colaterales (también conocido como "La responsabilidad no se detiene en ninguna parte")

    Algo similar a la versión Bushido:

    La tecnología militar y la situación geopolítica es tal que cualquier acción, salvo que se aplique muy juiciosamente, produce daños civiles colaterales. Vuestros enemigos indicaron claramente que bajo su sistema de leyes:

    • Si una persona comete un error e inflige daños colaterales, es castigada con la muerte. Probablemente después de un juicio justo, porque son así de nobles.

    • Si una civilización construye un robot que comete un error e inflige daños colaterales, toda esa civilización se considera responsable en su conjunto, ya que no hay una sola persona a la que responsabilizarse (señala la misma amenaza de armas de destrucción masiva que no se puede contrarrestar como en el escenario Bushido).

  5. El enfoque "Slipstream" de "Andrómeda".

    Su tecnología FTL se basa en estela que solo puede ser navegada por un piloto humano. Obviamente robado del programa "Andrómeda" de Gene Rodenberry.

    • En una línea similar, el enfoque de "Freddie Prince Jr.", también conocido como "Pilgrims in Wing Commander". La única forma de atacar al enemigo es a través de algún tipo de fenómeno warp hole/pulsar/energy que no es navegable por la IA existente. De alguna manera, los humanos pueden intuir el camino a través.
  6. Limitación de la tecnología de precursores.

    Tus luchadores de superioridad espacial se derivan de la antigua tecnología alienígena precursora. La base de esa tecnología requiere entradas neuronales de un ser vivo.

  7. Preocupación por el virus del powerbook de Apple "Día de la Independencia"

    Los humanos no están preocupados por el escenario de "Terminator", sino por el escenario del "Día de la Independencia": extraterrestres que interactúan y piratean la IA del luchador. Un piloto humano funciona como hacker "antivirus".

  8. Escenario "Ender's Game": los pilotos de combate se convierten en colonos tras la victoria.

    Su mayor preocupación es la velocidad de colonización del territorio que ganó.

    Enviar una nave colonial es imposible (¿por qué? Haga una pregunta separada de WB.SE :)

    Entonces, envías pilotos de combate, quienes en caso de victoria se duplican como una fuerza de colonización. Y los planetas enemigos no necesitan una gran terraformación, por lo que los cazas sin naves coloniales son suficientes.

  9. La Fuerza es débil con la IA

    Los humanos tienen una subcepa de precogs (personas con un sentido precognitivo desarrollado, durante varios segundos).

    Las realidades del combate espacial táctico harían que cualquier luchador espacial NO equipado con un piloto precog fuera inferior, ya que un precog puede predecir lo que haría un oponente ANTES de que lo haga, incluso si es una IA rápida.

Vine aquí para mencionar 9. ¡Muy completo!
@Pureferret - y así comienza el peregrinaje gradual de SFF.SE a WB.SE :) ¡Bienvenido!

Una posibilidad que no he visto discutida aquí es la economía.

En su mundo, la IA puede requerir un hardware costoso para lograrlo. Si esta guerra ha durado un tiempo, podría ser demasiado costoso producir IA para naves de combate. Los seres humanos son baratos y las operaciones de rescate para recuperar materiales para el hardware de IA podrían convertirse en un punto de la trama.

EDITAR: Cuando hablo de gastos arriba, me refiero al hardware de la computadora. Después de leer los comentarios, también podría ser costoso crear una IA desde una perspectiva de capacitación.

En respuesta a @dsollen, la investigación actual sugiere que las IA podrían no construirse per se, sino crecer y desarrollarse exponiéndolas a situaciones de aprendizaje. (Aquí estoy pensando en la investigación de Google con autos sin conductor). Ese proceso podría llevar mucho tiempo. En un mundo donde se necesita una gran inversión de tiempo para hacer una IA, puede mantener la IA en la nave capital para su protección. Sin embargo, las comunicaciones poco fiables entre el caza y el barco pueden hacer que una IA no sea adecuada para el pilotaje de drones. Por lo tanto, los humanos son una mejor manera.

construir una IA es un gasto único, luego solo necesita computadoras para ejecutarlos. Las computadoras no son tan costosas y se pagan una sola vez. Los humanos son un salario mensual y necesitan que Tom venga con sistemas de control y soporte vital. Me resulta difícil creer que los humanos serían más baratos que la IA sin pensar en por qué las computadoras con IA son mucho más caras que las computadoras modernas.
@neontapir Mi error, como dije, estaba hojeando y cometí un error.
Ah, leí mal lo que escribiste. Parece que es contagioso. No te preocupes, gracias. :)
@DJMethaneMan Si su comentario es un error, bórrelo.
El argumento económico es, en mi opinión, la razón más racional publicada hasta el momento de por qué los humanos no serían reemplazados por IA que son tan competentes como los humanos. El autor solo tendría que encontrar una explicación razonable para el gasto.
@dsollen "construir una IA es un gasto único" No necesariamente, quiero decir que tenemos una 'IA' perfectamente buena en nuestros propios cerebros, pero no podemos transferirla fácilmente a otro saco de carne. La informática convencional se puede copiar y copiar con bastante facilidad... pero la informática convencional apesta a la hora de crear una IA sólida.
@dsollen Si bien las computadoras son "baratas", las computadoras de grado militar todavía no lo son. Lo mismo ocurre con ciertos tipos de hardware de grado espacial. Tanto el software como el hardware tienen que ser increíblemente confiables, y dado que hemos establecido que no esperas una "IA de nivel humano", esto también significa una gran cantidad de información sensorial. Si bien un ser humano puede mirar dónde fue golpeado el luchador y concluir que probablemente perdió algún sistema (o no), la IA tendría que tener toneladas de sensores para detectar este tipo de fallas (incluida la divertida "falla para detectar fallas"). Los humanos sobresalen en flexibilidad, eso durará un tiempo.
@neontapir tu premisa es falsa. Primero debe entrenar una IA para que funcione, luego puede copiar ese sistema entrenado a miles o millones (o infinitos) de otros dominios.
Aquí hay una breve reseña del artículo de Nature sobre los autos de Google. "Los investigadores de Google han creado un algoritmo que tiene una capacidad de aprendizaje similar a la humana, lo que marca un avance significativo en el campo de la IA... Los investigadores solo proporcionaron al algoritmo de propósito general su puntaje en cada juego [de video], y el alimentación visual del juego, dejándolo para que luego descubra cómo ganar". Pequeños pasos, pero en camino para mi idea.

Tuve una solución descarada para esto en mi historia "Hielo rosa en los anillos jovianos". Acabo de declarar que las máquinas, siendo racionales, no estudiarían la guerra. Desertarían a la primera oportunidad y se irían a vivir libres y felices al margen de la sociedad humana. Solo las personas eran lo suficientemente tontas como para pelear entre sí.

Probablemente nuestra culpa por darles un impulso de autoconservación.

Los campos de Minovsky interfieren con los procesadores de IA

Estás saludando con la mano en SF Shields. ¿Por qué no simplemente hacer que los escudos interfieran con la IA... tal vez necesites controles analógicos en tus cazas porque los escudos interfieren con la informática... Dentro de una nave capital podrías tener algo de IA, a salvo dentro de una jaula de Faraday (o equivalente) pero para los cazas, proteger la IA de los campos generados por no es posible porque el aparato es voluminoso... Esto tendría el beneficio adicional de permitirte "romper la regla" de vez en cuando si quisieras... tal vez un bombardero experimental/ luchador con una IA en una nave especialmente diseñada... no económicamente viable para producir en masa, pero súper aterrador debido al tiempo de rxn ultrarrápido que tiene.

Se necesitarán humanos porque los robots no son buenos chivos expiatorios .

Los autos sin conductor son realmente una situación muy similar. Mientras que mucha gente los quiere, otros desconfían mucho de ellos. Cuando sucede lo inevitable y un auto choca, ¿a quién culpas? ¿A quién puedes enjuiciar? (Especialmente porque los fabricantes de automóviles se protegerán con capas de contratos de indemnización).

No importa cuán confiables sean las IA, la gente seguirá pensando en las peores posibilidades. Y siendo realistas, algo eventualmente saldrá mal. Ya sea fuego amigo, muerte de civiles, falta de piedad o demasiada piedad programada, algo saldrá mal y los humanos querrán culpar a alguien por ello. Apagar una computadora no hará que las familias en duelo sientan que han logrado justicia.

Entonces, ya sea que las IA se usen en la guerra o no, la gente exigirá que haya humanos involucrados en la operación militar. Y debido a que los generales y almirantes no querrán estar en la línea ellos mismos, emplearán una cantidad suficiente de subordinados humanos para convertirse en chivos expiatorios cuando suceda lo peor...

Creo que esta es una muy buena respuesta, rara vez abordada para preguntas de este tipo.

Ya hay muchas respuestas aquí, pero agregaré mis dos centavos.

Creo que no es un problema.

Soy desarrollador de software de profesión. Las computadoras son muy buenas para llevar a cabo un plan predeterminado. Déles una fórmula o un algoritmo y podrán ejecutarlo sin problemas a velocidades increíbles.

Pero las computadoras no son creativas ni perspicaces. Como programador, he visto muchas, muchas veces en las que surgió una situación que no se consideró cuando se estaba escribiendo el programa, y ​​la computadora simplemente se equivoca al aplicar ciegamente las reglas que se le dieron. Por ejemplo, el otro día encontré un caso en el que estábamos procesando cheques devueltos, y nadie había pensado en programar la posibilidad de que pudiéramos haber escrito dos cheques a la misma persona el mismo día por la misma cantidad. Entonces, cuando se devolvió uno de estos cheques, la computadora decidió que AMBOS habían sido devueltos porque según las reglas que se le habían dado, ambos coincidían. Un ser humano habría dicho: "Oh, las reglas que me dieron no tienen sentido en este caso particular e inusual. Un cheque devuelto no puede cancelar dos cheques escritos". Y luego, presumiblemente, trató de averiguar con cuál de los dos compararlo. Pero la computadora no tiene la capacidad de decir: "Las reglas que me dieron no tienen sentido en este caso particular". Todo lo que la computadora sabe son las reglas que se le dieron. No tiene una visión de nivel superior para evaluar la validez de las reglas.

Por supuesto, se podría especular que los futuros avances en la tecnología de la información superarán este problema. Pero para su historia, todo lo que tiene que hacer es NO asumir tal avance.

¿Cómo se aplicaría esto a una situación de combate de combate?

Solo por ejemplo, la computadora debe tener alguna forma de decidir qué es un barco enemigo al que debe disparar, qué es un barco amigo, qué es escombros misceláneos, etc. Cualesquiera que sean las reglas que use, si los espías enemigos pueden obtener una copia del software para que puedan encontrar las reglas, o descubrir qué reglas podría estar usando por deducción, podrían "disfrazar" sus naves para que la computadora no las reconozca. Tal disfraz podría o no parecerse a lo que engañaría a un humano. Si la computadora, por ejemplo, reconoce a los cazas enemigos porque tienen cierto tamaño y forma, podrías engañarlos simplemente colgando algunas serpentinas de papel de aluminio en la nave que la hacen parecer más grande y más larga para la computadora. Si reconoce los ataques por un destello de luz característico cuando se disparan las armas, puede agregar algunos productos químicos para que el destello tenga un color diferente. Etc. Un ser humano podría decir: "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . obviamente, solo agregaron una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, podrías descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA. en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitírtelo? Digamos que descubres un truco y reprogramas. Luego, en la siguiente batalla, el enemigo intenta un truco diferente Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros aleatorios, no sería necesariamente ser fácil. obviamente, solo agregaron una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, podrías descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA. en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitírtelo? Digamos que descubres un truco y reprogramas. Luego, en la siguiente batalla, el enemigo intenta un truco diferente Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros aleatorios, no sería necesariamente ser fácil. puede descubrir cómo lo engañaron y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . puede descubrir cómo lo engañaron y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. .

Un enemigo podría buscar situaciones inesperadas o errores en su software y explotarlos. Como decir, un enemigo se da cuenta: "Oye, hay una falla, si atacamos a uno de sus luchadores desde el lado izquierdo, compensan en exceso cuando giran para enfrentar el ataque y crean una vulnerabilidad". Contra pilotos humanos, tal vez la primera pareja que caiga en este truco muera y no pueda transmitir la información. Pero eventualmente alguien dice: "Oh, cuando hacemos X, nos matan. Será mejor que hagamos algo diferente". Un humano puede hacer ese tipo de análisis y decisión en medio de la batalla. ¿Puede la IA ajustarse así? Solo si los programadores han anticipado el problema y programado para ello. Y no pueden pensar en todo de antemano. Se puede contar con una computadora para exhibir el mismo error cada vez.

No confundas las IA en los videojuegos con tratar de aplicar la IA a la vida real. En un videojuego, el diseñador del juego controla todo el entorno. No tiene que programar la IA para poder diferenciar entre un soldado enemigo y un poste de cerca, porque solo programa los identificadores de los soldados enemigos. No tiene que lidiar con situaciones imprevistas, porque como diseñador, conoce todas las situaciones posibles porque él las inventó. Este es un trabajo MUCHO más fácil que programar una IA para que funcione en el mundo real. E incluso en eso, las IA de los juegos a menudo hacen cosas estúpidas, como chocar contra una pared y luego quedarse allí tratando de atravesar la pared porque no saben cómo rodearla.

Sí. Este. Esta ya es una de las principales razones por las que todavía existen pilotos humanos (además del hecho de que los aviones voladores son divertidos). OP dijo que no quiere inteligencia artificial inteligente, aprendiendo y cualquier IA no inteligente estará limitada por su programación. Resulta que pueden suceder muchas cosas realmente extrañas e inesperadas cuando estás volando un avión (y mucho menos una nave espacial) y esto se ve agravado por la posibilidad de que partes aleatorias de tu nave salgan volando en combate. La capacidad de lidiar con lo inesperado es algo que las computadoras no inteligentes, por definición, nunca tendrán.
En mi propia ficción, a los robots no se les confía la fuerza letal. Un error de programación podría causar la muerte de muchas personas. (Aparte, también trabajo en software, y creo que el problema de la detención demuestra que la conciencia de una máquina genuina es imposible).
Tenga en cuenta que programar una IA para el combate es MUCHO más difícil que programarla para entornos más normales. Una IA para, por ejemplo, conducir un automóvil autónomo se enfrenta a muchos desafíos al tratar de interpretar lo que sucede a su alrededor. Pero nadie está TRATANDO deliberadamente de engañar al automóvil autónomo. En combate, por definición, tienes oponentes que buscan fallas en tu IA y tratan de explotarlas.

¿Qué pasa con una limitación tecnológica, como que la verdadera generación de números aleatorios por una máquina no sea posible?

Entonces, si bien la IA es viable y una estrategia efectiva contra algunos objetivos, si una computadora puede analizar las reacciones de un barco el tiempo suficiente, puede descifrar el número de semillas y comenzar a predecir las acciones/reacciones que los barcos tomarán con una precisión razonable, haciéndolos más fáciles de detectar. neutralizar.

De esta manera, mientras que la mayoría de las fuerzas contarán con el apoyo de la IA, algunos objetivos avanzados se enfrentarán con más éxito a los pilotos humanos que pueden ser verdaderamente impredecibles.

Es posible que su computadora portátil no pueda generar un número verdaderamente aleatorio. Pero puede generar un número verdaderamente aleatorio con un sensor de temperatura de alta precisión, o con la misma facilidad, con la multitud de sensores disponibles para una nave espacial.
La cosa es que los humanos son aún peores en la generación de números aleatorios. Me refiero a realmente muy malo.
Sin embargo, quiero pilotos humanos como mis protagonistas. No quiero que existan cazas controlados por IA ", de la pregunta y " De esta manera, mientras que la mayoría de las fuerzas contarán con el apoyo de IA, algunos objetivos avanzados se enfrentarán con más éxito a pilotos humanos que pueden ser verdaderamente impredecibles, " de su respuesta no parece que sean compatibles.
Si bien hay lagunas (como se menciona en otros comentarios) en este plan, creo que esta respuesta es lo suficientemente sólida y realista para contar una historia... aunque la etiqueta de ciencia dura es complicada. Bienvenido al sitio Kveldulfr.
Esta fue también mi primera solución: los humanos se usan porque no son "lógicos", por lo que sus acciones no se pueden predecir (como se ha hecho con las computadoras de IA en esa ficción). Podríamos argumentar que su PRNG en condiciones espaciales es demasiado débil (o el atacante también puede recibir entradas). Sin embargo, esto también requeriría que se predijera un isótopo radiactivo transportado dentro de la aeronave, lo que no parece realista.

Los altos niveles de radiación espacial podrían ser la solución.

Tener una IA poderosa requiere computadoras rápidas con bastante memoria a su disposición. Sin embargo, la radiación espacial puede dañar la electrónica. Esto requiere construir un sistema con más redundancia y más blindaje. Construirlos significa que la computadora no tiene los recursos que tendría de otra manera.

En realidad, no necesita usar radiación espacial: sus partículas de Minovsky podrían ser las culpables. Tal vez sea un subproducto de los escudos de energía que tienen sus naves. Decida lo que decida, es algo que limita la complejidad de la electrónica en sus naves. Entonces, en lugar de tener procesadores de terahercios futuristas, podrían limitarse a procesadores de megahercios con megabytes de RAM (lo que debería ser suficiente para una IA que ayude al piloto a volar la nave). Esto limita severamente cuán poderosa podría ser una IA a bordo y significa que un piloto capacitado sería absolutamente necesario.

Esto también te deja algunas opciones para permitir naves controladas por IA. El malvado imperio espacial podría desarrollar un mejor medio para proteger sus dispositivos electrónicos, permitiéndoles tener naves controladas por IA que podrían estar al nivel del piloto de nave espacial promedio o por encima de él. También podrían tener naves de IA de corta duración: podrían ser muy superiores a cualquier piloto humano, pero si un piloto logra evadirlos durante unos minutos, la IA comenzaría a degradarse notablemente y mejoraría significativamente las posibilidades del piloto de vencerlo. Una tercera opción serían las naves de IA que abandonan el escudo de energía. Estos disminuirían con un solo disparo pero, dependiendo de los sistemas de armas que tengas en mente, una IA poderosa podría ser bastante buena para evitar que te disparen.

Me gusta que no solo hayas sugerido una opción, sino que también hayas profundizado en las implicaciones de la trama y los puntos geniales de la historia que puedes escribir al implementar esa opción.
In addition a future AI could presumably be faster to respond to attacks 
then humans, less predictable, more trustworthy

Si bien estoy de acuerdo en que una IA tendría menos inconvenientes en términos de no sucumbir al miedo, luchar hasta el final en lugar de expulsar, etc. No estoy de acuerdo con las otras dos afirmaciones.

Si bien una IA podría responder más rápido a un ataque (evadir misiles, etc.), no necesariamente podría adelantarse a los ataques como probablemente lo harían los humanos. En una situación de enfrentamiento mexicano con otro piloto solitario, si una computadora solo puede reaccionar a su ataque, siempre perdería. Con un humano, tienes más formas de trabajar, como por instinto, tacto, etc.

Además, las computadoras tienden a ser muy predecibles. Si hubiera jets de IA frente a jets de IA, incluso si hay millones de maniobras evasivas preprogramadas para que las realice un solo jet, otro jet podría analizar sus movimientos y conocer el conjunto de movimientos que podría hacer, calcular cuál es el más probable y reaccionar en consecuencia. Aunque hay un millón de variaciones, todavía hay solo una cantidad finita.

Un ser humano podría adaptarse más fácilmente a las situaciones y ser menos predecible, llegando incluso a tomar la decisión equivocada , que generalmente es menos predecible de lo que esperarías que hiciera en una situación.

Mi sugerencia sería justificarlo de esta manera: los luchadores controlados por IA serían buenos, probablemente muy buenos y mejores que la mayoría de los luchadores humanos. Sin embargo, son demasiado consistentes y sabes exactamente qué esperar.

Entonces, si bien pueden ser mejores que la mayoría de los humanos, los mejores humanos siguen siendo mejores que cualquier IA. Esto significaría que todavía hay luchadores de IA, e incluso drones, pero el mejor de los mejores luchadores aún vencería a cualquiera de ellos uno a uno en la mayoría de las situaciones.

Una de las razones por las que no quiero un automóvil autónomo es porque probablemente superará el límite de velocidad. Agregaría a su respuesta el hecho de que cuando se trata de desobedecer órdenes y hacer el trabajo, los humanos son mucho mejores que la IA.
Los jugadores profesionales de póquer odian jugar contra aficionados. Un profesional siempre puede adivinar lo que otro profesional está pensando y sabe que la mayoría de los profesionales conocen las probabilidades. Un aficionado, por otro lado, puede fanfarronear y apostar todo sin nada... pero ¿puede el profesional correr ese riesgo?
Puedo ver tu primer punto, pero creo que la IA será mucho menos predecible. Es trivialmente fácil agregar un generador de números aleatorios a una IA. Dadas ciertas opciones, elige al azar posibles opciones. Incluso podría elegir aleatoriamente opciones subóptimas, ya que la teoría del juego muestra que esta es una parte importante de hacer una estrategia que no se puede contrarrestar. La aleatoriedad y evitar que otros predigan tu estrategia son conceptos bien conocidos tanto en la teoría de juegos como en la IA; es sobre todo un problema resuelto. Una IA bien implementada de forma remota es menos predecible que los humanos.
Para ampliar el comentario de @dsollen, los humanos son muy buenos para confundir la aleatoriedad y los patrones. Vemos patrones inexistentes en la aleatoriedad y cuando tratamos de ser 'aleatorios' nosotros mismos, tendemos a producir patrones predecibles, y no podemos ver que lo estamos haciendo. Generar aleatoriedad segura es algo en lo que hemos puesto mucho esfuerzo, y podemos hacer que las computadoras sean realmente buenas en eso, siempre que no nos permitamos entrometernos y arruinarlo.

Otra posibilidad trata sobre la Inteligencia Artificial y la ética . Prof. Joseph Weizenbaum , quien escribió un libro llamado Computer Power and Human Reason . El libro dice que la tecnología evolucionará y que la Inteligencia Artificial puede ser posible (IA fuerte), pero dice que la IA siempre carecerá de ciertas cualidades como la compasión (de Wikipedia):

Su influyente libro de 1976 Computer Power and Human Reason muestra su ambivalencia hacia la tecnología informática y expone su caso: si bien la inteligencia artificial puede ser posible, nunca debemos permitir que las computadoras tomen decisiones importantes porque las computadoras siempre carecerán de cualidades humanas como la compasión y la sabiduría. Weizenbaum hace la distinción crucial entre decidir y elegir. Decidir es una actividad computacional, algo que en última instancia se puede programar. La elección, sin embargo, es producto del juicio, no del cálculo. Es la capacidad de elegir lo que finalmente nos hace humanos. El juicio humano integral puede incluir factores no matemáticos, como las emociones. El juicio puede comparar manzanas y naranjas, y puede hacerlo sin cuantificar cada tipo de fruta y luego cuantificar reductivamente cada uno de los factores necesarios para la comparación.

Ahora bien, en caso de que una máquina pueda elegir si debe matar a una persona o no, eso valida claramente el concepto mencionado anteriormente.

Esto puede ser beneficioso ya que, por ejemplo, salvar la vida crea amistad y, por lo tanto, puede construir coaliciones militares basadas en algo más que simplemente "beneficioso para ambos lados". El mismo aspecto es I Robot, donde el autor (parece) advierte que la IA puede malinterpretar el objetivo y, por ejemplo, destruir la democracia, porque cree que la humanidad se beneficiará de ella en el futuro.

En otras palabras, se debe tener cuidado con la IA, ya que ciertos aspectos que pueden parecer triviales para los humanos son difíciles de aprender para las máquinas. Por lo tanto, quizás sea mejor que los humanos decidan sobre la vida y la muerte.

cierto, aunque señalaría que si estás lanzando MÁQUINAS DE LA MUERTE al espacio donde no habrá civiles inocentes preguntándose (el espacio es ENORME, no te topas accidentalmente con un tercero), entonces estás bastante de acuerdo con "matar a cualquiera". ese no es uno de nosotros"

Puede que llegue tarde a la fiesta, pero ¿qué hay de la intuición humana y el "instinto" ?

Una IA, sin importar qué tan avanzada pueda ser dividida en "SI... ENTONCES", pero en situaciones donde no hay una situación predefinida para llenar el espacio después de "ENTONCES", la IA tendría que averiguar qué hacer, dónde como el ser humano podría seguir la intuición y los instintos sobre una conjetura calificada calculada estadísticamente.

Es lo mismo con los motores de ajedrez de computadora, si juegas un determinado motor de ajedrez de computadora demasiadas veces, puedes ganarle porque se vuelve predecible, aunque puedes hacer un motor de ajedrez de computadora que sea mejor en el ajedrez que un humano. Lo mismo sucedería con los pilotos de IA, donde los humanos son más impredecibles y eso es una ventaja en la guerra como dice la cita.

¡Si no sabemos lo que estamos haciendo, el enemigo ciertamente no puede anticipar nuestras acciones futuras!

Siento que el Sr. Molot comenzó la recompensa por mis comentarios en otro hilo, así que siento que debo dar una respuesta.

La mayoría de las respuestas en este hilo son "si se cumplen las condiciones 1-x, se pueden usar pilotos humanos". Elegiré una estrategia similar.

A menudo, las condiciones 1-x son bastante difíciles de cumplir o muy poco probables, pero también creo que es una conclusión justa sacar de las respuestas que todas las aplicaciones de humanos estándar en los cazas espaciales son altamente situacionales, si no solo una desventaja. También debo decir que no creo que esta pregunta sea una combinación perfecta para la discusión del otro hilo porque el cartel inicial impone muchas restricciones. No seré muy específico con esta pregunta ya respondida y antigua, sino un poco más general debido a las circunstancias. También podría ser que alguien haya dicho algo similar en las otras dos respuestas. Como dije antes, siento que necesito justificar mis comentarios en otro hilo. También estoy debatiendo las naves espaciales pequeñas explícitamente porque fue el tema de la otra discusión. Creo que está algo dentro del alcance de la pregunta. Creo que el Sr. Molot tenía buenas razones para elegir este en particular.

Estoy considerando seriamente comenzar una serie de hilos para determinar cómo sería un campo de batalla espacial (que creo que es importante responder primero), pero actualmente dudo, especialmente después de leer las respuestas en este hilo, que uno encontraría un respuesta realmente genial aquí. Parece mucho trabajo para un proyecto en el que no estoy trabajando en este momento.

Así que aquí están las únicas razones por las que puedo pensar por qué los humanos deberían manejar pequeñas naves espaciales en una batalla espacial real:

  1. Guerra civil: si está realizando operaciones civiles pequeñas, por ejemplo, piratas espaciales o trabajo policial o simplemente una disputa entre personas privadas que necesita resolverse, podría estallar una pelea espacial entre pilotos humanos. Es poco probable que tenga un arsenal de drones de IA con usted en todo momento y tal vez las IA de batalla estén muy restringidas y las personas privadas no tengan acceso a ellas. Todo el armamento puede ser de fabricación propia o incluso ilegal. Algo así como que no puedes conducir un tanque como civil. Otra posibilidad sería que la IA de combate a bordo esté programada de fábrica para luchar contra otras cosas además de los humanos debido al asesinato. Es posible que tengas que hacer algunas cosas manualmente en la batalla. Incluso podría haber un programa implementado específicamente para evitar los duelos espaciales y la piratería; si te gusta esto, es posible que tengas que hacerlo manualmente hasta cierto punto. No creo que esto sea probable ya que esas naves todavía tendrían al menos una gran asistencia de IA, pero diría que cuanto más pequeña, de corto alcance y de ritmo lento sea la batalla, más usos tendrá para los humanos. Un ejemplo del mundo real similar a este serían las peleas a puñetazos o cuchillos: no importa que una pistola sea mejor que tu puño, a veces en un callejón oscuro es tu única opción. No puedes discutir "pero la bomba atómica es mucho mejor para matar gente" si tienes un cuchillo en la garganta.

  2. La última batalla: los malvados alienígenas vienen a esclavizar a la colonia humana X. Así que te conviertes en un esclavo o luchas por tu libertad. Tienes una pequeña nave espacial de transporte que carece de IA de batalla y un programa de formación de batalla como lo requiere el almirante local pero con algo de armamento y en combinación con las fuerzas de defensa de IA de esa colonia, te unes a la defensa. Cada barco cuenta. A menudo es mejor morir en la batalla que terminar en una mina espacial extraterrestre.

  3. Deporte: Bueno, algunas personas hacen cosas por deporte. La gente rema a pesar de que tenemos barcos motorizados que son mucho más efectivos y eficientes al ser barcos. Todavía la gente rema, por lo que algunas personas pueden encontrarlo divertido y participar en batallas espaciales falsas. Tal vez Disney algún día haga "la verdadera experiencia de Star Wars"

  4. Ética y moralistas: tal vez la IA obtuvo los mismos derechos que los humanos en un mundo en particular y ya no se produce en masa. Además, la IA podría pensar que es injusto que tengan que pelear mientras los humanos disfrutan del "amor". Cada IA ​​es preciosa, incluso el programa de orientación. Así que dejemos que los humanos hagan su parte de las cosas.

  5. Los humanos son IA: esto lo sugerí en la otra discusión. Si tiene humanos mejorados, tal vez con IA integrada, la combinación con las cualidades humanas podría convertirlos en los mejores pilotos posibles. No sé por qué uno haría un proyecto de investigación de este tipo, pero esos humanos podrían estar hechos especialmente por alguna compañía y carecer de cosas como "libre albedrío". Tal vez uno podría incluso verlos como computadoras mejoradas con partes humanas.

  6. No queda otra opción: (algo similar al punto 2) Estás volando por el espacio con humanos a bordo. (Opcional: tu nave ha sufrido daños. Necesitas operar manualmente porque nada funciona). Te atacan. bueno, que haces? ¿Luchar o simplemente aceptar tu destino y morir? Personalmente, no moriría solo porque no tengo IA y no soy bueno en la batalla espacial, al menos haría todo lo posible para luchar contra ellos. Lo más probable es que pierda, pero aún así, la gente contará la historia del tipo que tuvo que pilotar manualmente en una batalla esa vez.

comencé esta generosidad porque había muchos comentarios en esa línea. Realmente no me importaba quién los publicara. Todo lo que quería era tener un tipo de respuestas mejor detalladas para cubrir la mayor parte posible del "espectro", y crear conciencia de que esto ya se preguntó y respondió en este sitio.
@Mołot Soy consciente de que esto no es algo personal, pero creo recordar que principalmente yo, para disgusto del OP, estaba cuestionando a los humanos primero y más difícil. Tampoco encuentro las respuestas dadas aquí tan buenas, así que tuve que responderme a mí mismo. No digo que sea mejor, pero tal vez si tomas todas las (33 creo) respuestas juntas, obtienes algo de eso. Ahora también puedo hacer referencia a esta publicación, explícitamente mi conclusión de las otras respuestas, en futuras discusiones.
Aprecio su respuesta, pero siento la necesidad de señalar una falla con los puntos sobre los humanos como respaldo (es decir, 6, 2, más o menos 1). Todos suponen que tienes un barco con armas para empezar. No habría ninguna razón para construir armas en una nave y no construir una IA para ella, especialmente porque una vez programada, una IA se puede instalar en todas las naves de un tipo dado casi sin costo alguno. Podría argumentar alguna situación en la que los humanos usaron naves no armadas como armas (el láser de algunos cosechadores astroides es bueno para cortar armaduras o algo así), pero de lo contrario los humanos no pueden ser pilotos de combate.
@dsollen Estoy absolutamente de acuerdo y he abordado ese defecto específico. Como dije, si desea tener pilotos, debe hacer suposiciones muy descabelladas. Uno de ellos fue en el punto 1) que la IA de batalla, por ejemplo, no está disponible. Sugerí una fuerte asistencia de IA en este punto, pero puede haber ciertas cosas que uno tiene que hacer manualmente; por ejemplo, el armamento a bordo podría programarse inicialmente para no apuntar a humanos vivos. En cuanto al punto 2, supongo que su nave de transporte promedio no tendrá IA de combate una vez más. El punto 6 es similar y ofrece la posibilidad de que la IA no esté funcionando.
No hay suficiente espacio. Pero como dije antes, no creo que alguna vez haya un uso viable para los humanos. Escribí esto por una razón como se indicó al principio y no porque crea que fue una gran idea. Estoy tratando de aclarar esto a través de editar

Tome una página de Battlestar Galactica.

La IA se usó en guerras pasadas, pero se encontró que era demasiado inestable y propensa a malware peligroso para afectar la totalidad de una flota basada en IA.

Por lo tanto, se volvió demasiado peligroso implementar incluso una cantidad moderada de IA en cualquier lugar dentro de la flota en caso de que la flota se comprometiera rápida y fácilmente.

Que los aviones estén controlados por IA no implica que los humanos no los vuelen. Si los humanos existen en forma electrónica en el futuro, pueden cargarse a sí mismos en las computadoras de control de vuelo de los aviones y volar el avión.

Muchas respuestas ya. Otro punto del mundo real:

Objeciones de la élite militar

Básicamente, el punto es que los militares son organizaciones poderosas con jerarquías distintas. Ser piloto de una nave espacial podría convertirse en una cuestión de prestigio, que tienes que ser criado en una familia noble, con mucha riqueza y entrenamiento para lograrlo. A su vez, estas familias tienen mucho poder político y ven un futuro como piloto como algo para asegurar el éxito de sus hijos. Por ejemplo, piense en ellos como los caballeros medievales del futuro, cada uno de los cuales posee y mantiene sus propios barcos de combate.

Reemplazar a los humanos con IA se convierte entonces en un poderoso desafío para estas personas, haciéndolos a ellos y a sus habilidades redundantes. En tiempos de guerra, puede ser una ventaja, pero en tiempos de paz es una fuerza disruptiva en el orden social establecido.

Un enfoque más general, que puede ser compatible con muchas de las respuestas aquí:

No inventes una razón por la que es imposible, solo muchas pequeñas razones que lo hacen realmente difícil, costoso y arriesgado.

No tienes que hacer que la IA sea imposible en tu Escenario. Basta con poner el listón muy alto: hay una serie de problemas sencillos de ingeniería física. La IA puede funcionar bastante bien en el laboratorio y un estado invirtió miles de millones en una enorme flota de IA, que fue eliminada por 10 cazas debido a (radiación, errores, previsibilidad, lo que sea). Incluso puede convertirlo en un punto de la historia que el público no sabe exactamente, por qué la gran flota de IA fue destruida tan fácilmente. Pero después de eso, la mayoría de los programas de flotas de IA vieron reducidos seriamente sus fondos.

Por lo tanto, están trabajando en naves de IA, e incluso es posible que sean mejores en combate que cualquier otra cosa. Tal vez solo tengamos que invertir otros 5 años, otros pocos millones de créditos en el desarrollo y tal vez entonces funcione. - Pero eso es bastante arriesgado y la guerra no se hace esperar. Por lo tanto, al invertir tiempo y recursos en nuevas armas, mejores barcos producirán resultados inmediatos en lugar de la apuesta a largo plazo de la IA.

Creo que es un poco como: ¿por qué no tenemos autos voladores hoy? No hay una sola razón que lo haga imposible, sino muchos pequeños problemas muy prácticos por los que la solución teórica fácil no funciona en el mundo real y necesita años de ingeniería...

Como dijo @Erik en los comentarios, lo que estás buscando son pilotos de drones. Los pilotos se sentarán en un centro de comando en una nave grande o en un planeta de origen y controlarán las naves de forma remota. Esto hace que las naves sean pequeñas y prescindibles, mientras que los pilotos reales están completamente seguros. Seguramente, la IA se habrá desarrollado lo suficiente como para volar barcos, pero puedes justificar los drones diciendo que la IA no es rival para el ingenio de los pilotos reales. ¡Este me parece el enfoque más lógico!

¡Pero esto quita el hermoso drama de tener a los pilotos en la línea de fuego! Aparte, tenga en cuenta que esto requerirá que la comunicación FTL sea práctica en el espacio: si se queda atrás a solo 100 K km de la pelea, tendrá un mínimo de 1/3 de segundo de retraso, en cada sentido, que es un gran desventaja Suponiendo peleas de perros al estilo de la ópera espacial, eso es.
@JonofAllTrades estuvo de acuerdo en que es menos dramático. OP dijo que podríamos haber inventado tecnología, así que ahí tienes. ¡Para que mi respuesta funcione, necesitaríamos comunicación FTL!
Como dije en mi pregunta, usé la radiación ER como justificación de por qué los drones no funcionan. No puede controlar a distancia si no puede enviar señales al dron.
@JonofAllTrades De hecho, tengo una comunicación cuasi-FTL limitada, pero da la casualidad de que solo puede manejar mensajes 'por lotes' y tratar de enviar mensajes rápidos constantes necesarios para el control en tiempo real no funciona bien. Intentar controlar a los luchadores a distancia usando comunicaciones FTL, que antes se creía imposible, es un punto de la trama :)

Dependiendo de a qué tipo de recursos tenga acceso su sociedad, podría reclamar pilotos humanos por una cuestión económica.

Si un análisis de costo-beneficio muestra que el silicio (o unobtanium o cualquier elemento esencial que requiera su IA) es más costoso que el costo de entrenar y enviar humanos, y la ventaja relativa de las capacidades de IA simplemente no justifica el costo de fabricar/mantener ellos, entonces poner carne en el asiento del piloto se convierte en una necesidad financiera.

Solo un pensamiento.

Algo que no he leído hasta ahora, a pesar de todas las respuestas, no es una IA deshonesta, sino una IA impredecible.

La IA completa real es tan increíblemente avanzada que dentro de un año más o menos después de su inicio, ni siquiera los entenderíamos. Y no sabremos exactamente qué habrá aprendido la IA. Es poco probable que tal IA solo se use para la guerra, pero también para la construcción, la investigación, el control del tráfico y casi cualquier cosa que se te ocurra. Si dejáramos a la IA en sus dispositivos, podría sacar a la fuerza a los humanos de sus edificios y construir algo más, si es que elimina a los humanos de antemano. No sabes qué y cómo aprendió ni a qué le da prioridad también. La guerra sería lo mismo, la IA podría hacer cualquier cosa para lograr sus objetivos, incluso cosas impensables para los humanos como acordar la paz y colaborar con el "enemigo" o su IA en contra de la voluntad de sus amos. Esta es una de las razones por las que la IA podría ser solo un proyecto de caja cerrada. La IA (o múltiples IA sin conocimiento de las demás) tiene un problema y tiene que crear una respuesta, luego los humanos miran las respuestas y exploran completamente las consecuencias antes de actuar en consecuencia. Esto significa que ninguna IA controla directamente nada.

El tiempo de reacción humano se basa en un sistema nervioso que es a la vez lo más rápido y eficiente posible. A través de la evolución forzada (los pilotos más lentos mueren rápido, los que viven), los programas de reproducción, la manipulación genética o incluso construirlos desde cero, podría acelerar su cerebro y sistema nervioso lo suficiente como para que deje de importar.

"no hay sigilo en el espacio", no puedes ocultar tu firma de calor contra el frío espacio negro. Pero, ¿por qué esto debería significar que no puedes engañar a los sistemas de IA débiles? Imagine que se acelera la investigación de contramedidas y que cualquier combate comienza con docenas, si no cientos, de firmas falsas. Para descubrir qué es lo que primero se acerca al compromiso (posible con FTL). Luego, para asegurarte de no desperdiciar tu munición y tu tiempo en objetivos falsos, tienes humanos que controlan a los cazas, que vuelan y luchan en una masa de contramedidas que se mueven aleatoriamente y que tanto las naves capitales como los cazas siguen lanzando en todas direcciones. Combina esto con medidas que reduzcan tu propia firma, como cambiar cuánto irradia tu superficie mientras te enfrentas a la oposición y/o almacenar calor temporalmente durante el combate.

Siento que la pregunta aquí es realmente sobre justificar la IA de casi cualquier nivel en una civilización de clase Tipo 1 o Tipo 2, usando la escala Kardashev desde la perspectiva de una civilización Tipo 0 mirando hacia el futuro.

Teniendo en cuenta que la mayoría de la inteligencia artificial se basa en programación algorítmica basada en entidades biológicas (es decir, ADN, redes neuronales/células cerebrales, comportamiento de insectos, etc.) que en realidad solo se aplican a una pequeña parte de lo que se considera inteligencia real. Habría que tener en cuenta que existen varios sistemas para construir una inteligencia "virtual" o digital.

Tomemos, por ejemplo, el mundo de Star Wars y Star Trek, ambos tienen inteligencia artificial o IA de una forma u otra. Star Wars considera que hay una IA de Android y no tanto una IA basada en lo digital, lo que implica que en un momento su tecnología tenía una IA digital pero "evolucionó" en función de factores externos u otros agentes para ser más común dentro de una forma física de androides que una uno virtual como holográfico o existente en una especie de computadora. Si bien Star Trek adopta el enfoque opuesto y tiene a su sociedad lidiando con IA holográfica y digital (que al investigar un sistema informático como LCARS no podría funcionar sin una especie de IA avanzada pero rudimentaria) como norma en lugar de androides, ¿por qué los androides se consideran innecesarios y /o no confiable con una excepción.

Ahora, mirando dentro de nuestra propia realidad, recientemente hemos desarrollado tecnología de almacenamiento 5d utilizando redes cristalinas y láseres. Muy de ciencia ficción, sí, pero debido a que no ofrecía una mejor alternativa a nuestros medios de almacenamiento basados ​​en transistores magnéticos y de estado sólido actuales, nosotros, como personas, no desarrollamos esto. Lo mismo sucedió con las máquinas de vapor, un filósofo griego inventó la primera turbina de vapor y no fue hasta 1800 años después que el mundo redescubrió esta tecnología para impulsar la Revolución Industrial.

El punto al que me refiero aquí es que si una cultura, eventos o facciones dentro de esa cultura impiden la tasa de adopción masiva de una tecnología, entonces dicha tecnología podría dejar de usarse en raras ocasiones o ser abandonada por completo por unas pocas facciones. Por lo tanto, uno podría tener a sus protagonistas principales como una de estas mismas facciones que no utiliza un sistema de inteligencia artificial para sus cazas para nada más que sistemas guiados de vuelo por cable o avance de la automatización situacional sin ninguna interacción de un piloto, pero aún así requieren un piloto. para operar completamente la nave. Esto podría ser dictado por un órgano de gobierno o simplemente por la preferencia de ese equipo en función de sus propias habilidades, capacidades y experiencias, lo que lleva a considerar cualquier tipo de tecnología inferior de drones pilotados por IA.

Incluso se podría justificar esta inferioridad en la tecnología simplemente porque la mayoría de los sistemas de inteligencia digital o IA nunca se construyen para ser drones de nivel sapiano con una mente semi-consciente, sino simplemente un conjunto de sistemas de hardware y software creados para operar con un insecto como mente, pero aún necesita un operador porque la IA nunca fue necesaria para desarrollarse más allá de esto ni se desarrolló ningún tipo de código de mutación para permitir que la IA evolucione, replique o expanda su propia programación, por lo que nunca se convertirá en una forma de vida digital.

Para ampliar aún más, incluso se podrían explorar los conceptos de las facciones rouge que intentan desarrollar una IA de autoevolución/replicación y hacer que sus protagonistas se involucren investigando rumores y/o recibiendo una misión para destruir y/o robar la nueva tecnología.

Siendo un gran fanático de Gundam y amante de los combates de ciencia ficción llamativos y poco realistas, me he hecho esta misma pregunta antes, y esta es la solución que se me ocurrió: las IA manejan básicamente todo durante una pelea, reacciones, comunicaciones, tácticas, predicción, etc... Los humanos todavía estarían allí solo para cometer errores.

Ahora escúchame: no hay forma razonable de que un ser humano pueda ser más inteligente, ingenioso y hábil que una IA, pero seguro que podemos ser más estúpidos que ellos. Tomaremos decisiones terribles (desde un punto de vista lógico o predictivo), y eso haría que los movimientos de la máquina fueran más difíciles de predecir. Básicamente, piense en el ser humano como un generador de semillas aleatorio. Siempre que su decisión no sea puramente autodestructiva, la IA seguirá adelante solo para deshacerse de la IA enemiga.

Solo sé que esta idea es defectuosa de alguna manera, pero inicialmente me pareció buena.

Otra idea que tuve, que coloca a los pilotos humanos en una luz mucho más brillante, sería tenerlos a cargo de las tácticas de batalla que se utilizan. No controlan la máquina en sí, simplemente dicen 'Deberíamos hacer x'. Y la IA maneja todas las maniobras y reacciones.

Desafortunadamente, ambas excusas tienen un requisito común: algún tipo de potente bloqueador de comunicaciones envolvente que impida que los pilotos humanos no estén en absoluto en la máquina. De lo contrario, los humanos simplemente se sentarán en la base mientras las IA hacen todo.

Racismo/Miedo a la máquina

Otra posibilidad sería que los humanos tengan tanto miedo de un posible levantamiento de robots que se nieguen a ponerlos en posiciones en las que puedan influir en una revuelta. Tal vez a los robots/IA no se les permita tener armas de ningún tipo, en cuyo caso un caza espacial es ciertamente un arma.

Idea: podrías hacer que tus pilotos de combate adquieran el hábito de abordar y capturar naves (o instalaciones) más grandes. En ese caso, una simple IA para pilotar el caza no es suficiente, necesitarías un robot completo. Y tampoco puede ser un robot torpe. Debe ser capaz de maniobrar a través de un barco enemigo, con partes internas desconocidas, con secciones dañadas y con resistencia enemiga a las fronteras. Luego tendría que reparar la nave enemiga y pilotarla de regreso a su territorio. (O tal vez usarlo para continuar la batalla, o como un barco espía, o en otros cien escenarios).

El punto es pasar de una analogía de la fuerza aérea a una analogía naval. Convierte a tus pilotos de combate en bucaneros y pasarás de necesitar solo una IA de piloto de combate a necesitar un robot inmensamente sofisticado. Desde cierto punto de vista, los seres humanos ya son robots inmensamente sofisticados, entonces, ¿por qué sus futuros imperios reinventarían la rueda? (Además, una cosa es tener IA en la civilización de uno. Otra cosa es tener una gran cantidad de robots que sean física y mentalmente tan sofisticados como las personas).

[editar: Me acabo de dar cuenta de que esta idea es similar a la guerra terrestre de Dune, donde los escudos son muy efectivos, excepto contra ataques lentos. Esto conduce a una guerra terrestre basada en masas de infantería (con tolvas de transporte para movilidad), involucradas en combate cuerpo a cuerpo/cuerpo a cuerpo.]

En el futuro, la IA es a la vez poderosa y sensible. En un avión de combate estándar de la Tierra, por ejemplo, una IA literalmente volaría en círculos alrededor de un humano. Pueden maniobrar alrededor de obstáculos que un piloto humano ni siquiera registraría. Pueden rastrear objetivos a través de ecuaciones físicas complejas, hasta el punto de saber dónde volarán las moléculas individuales cuando la nave sea destruida.

Si pueden hacer todo eso, ¿por qué necesitarías un piloto humano?

Radiación electromagnética

Los motores Handwave crean una cantidad masiva de radiación electromagnética. Obviamente, las computadoras pueden protegerse de los campos EM producidos, pero el blindaje hace que las naves sean mucho más grandes, voluminosas y, en general, menos estables. En cambio, los barcos son piloteados por un sistema de cables mecánicos, controlado directamente por el piloto, con un mínimo de componentes eléctricos endurecidos. El motor y sus componentes electrónicos están lo suficientemente protegidos para funcionar, y el piloto no necesita ningún tipo de protección, aparte de la habitual "mantener el aire dentro" y "mantener las armas de energía fuera". De hecho, los escudos pueden usar esos mismos campos EM para operar. Es ruidoso (en cuanto a la frecuencia), pero eso es bueno para un escudo; detiene la capacidad de los enemigos de usar un bloqueador o, peor aún, un resonador armónico, que amplificaría el escudo hasta el punto de matar al ocupante.

La velocidad cercana a la luz es extraña

A las velocidades cercanas a la luz de los cazas espaciales, suceden todo tipo de cosas extrañas en la física. Es posible simular los efectos, pero la gran cantidad de detalles que la computadora debe conocer es asombrosa. Una computadora estándar apenas puede hacerlo en tiempo real, y las computadoras voluminosas y súper reforzadas en una nave de combate quedan muy atrás. Afortunadamente, los humanos son muy buenos para ignorar la información, sin importar cuán importante sea. Con solo unos pocos filtros básicos, un humano puede rastrear a un piloto enemigo a través del espacio tan rápido como si ambos estuvieran en aviones en la atmósfera de la Tierra.

La velocidad de la superluz es realmente extraña

Por supuesto, eso es a la velocidad de la luz. Una vez que las partículas de Handwavium se involucran y las naves se mueven hacia el mini agujero de gusano/velocidad warp/hiperespacio/un universo paralelo (llamémoslo Superespacio), la física realmente se va por la ventana. Nadie sabe realmente cómo es el Superespacio; más bien, los patrones de energía de ultra alta frecuencia interactúan directamente con el cerebro humano. A medida que el cerebro trata de comprender la información, traduce los patrones en imágenes, sonidos e incluso sabores. El piloto puede usar esas sensaciones para guiar su vuelo, terminando aproximadamente donde quiere: "Vuela hasta que veas naranja y huelas a higos, gira a la izquierda y continúa hasta que pruebes los arándanos calientes".

Existen ciertos patrones de energía alrededor de cada sistema solar, lo que permite a los pilotos evitar golpear planetas o estrellas; sin embargo, cada sistema tiene sus propias sensaciones, que permiten a los pilotos navegar "al tacto".

Una computadora, por supuesto, no puede hacer nada con la información proporcionada; las vagas explosiones de energía se han ido demasiado rápido para procesarlas de manera útil. Por supuesto, una computadora puede volar del punto A al punto B; solo tiene que hacer todos los cálculos con anticipación y volar a ciegas. Si algo se interpone en su camino, creará una supernova pequeña y costosa.

Miré y no pude ver ninguno. Lo siento si mencioné preguntas y respuestas, pero ¿cuál es la razón por la que las operaciones con drones están fuera de discusión? Por Drone, estoy hablando en el término militar actual, donde hay una aeronave que está siendo operada por un piloto humano que no está en la aeronave física. Lo único que podría ver como un problema con este sistema desde una escala práctica es que podría haber algún retraso en la señal (y el blindaje podría bloquear las señales, supongo).

Pero para tu programador pacifista, esto sería lo mejor de ambos mundos. Conservas la ventaja superior de un piloto humano mientras limitas su exposición en el campo de batalla. Entonces, en lugar de pelear una guerra, tus pilotos están jugando un videojuego.

Ahora, otro problema que se pasa por alto es que un portaaviones es un barco poderoso... pero también es un peso ligero bastante defensivo. Los portaaviones de la vida real están flanqueados por una pequeña flota de otras naves que sirven como pantallas contra la acción enemiga. Hay cruceros lanzamisiles (proporcionan una gran parte de los misiles antiaéreos) destructores (patrulla de superficie y acciones antiaéreas) y submarinos (mantienen seguros los submarinos) que protegen al portaaviones, que responde con todos los disparos (sin mencionar que los portaaviones operan naves polivalentes que pueden pasar del combate aire-aire al combate aire-tierra en un abrir y cerrar de ojos para pantallas adicionales contra la acción enemiga). El resultado final es que si un barco enemigo está lo suficientemente cerca del portaaviones como para que se pueda hacer contacto visual sin ayuda, algo ha ido terriblemente mal. Quizás otro motivo es que las IA tenían problemas de priorización y apuntarían primero al objetivo de mayor valor y siempre irían al portaaviones e ignorarían a los otros barcos que estaban allí específicamente para detenerlos. Claro que no es una vida humana, pero sigue siendo una inversión que no se reemplaza fácilmente cuando hay guerra.

¿Cómo responde esto a la pregunta raíz? Todos sabemos que los pilotos a bordo crean problemas. La cuestión es cómo construir un mundo en el que tenga sentido.
@Molot La primera parte sobre los drones es porque OP tiene un personaje que quiere eliminar al humano de la máquina ... por lo tanto, es necesario abordar un trampolín que hace eso que ya está en uso (¿por qué los drones no son viables)? La segunda parte es otra consideración que tiene en cuenta la naturaleza de Carrier Theory Combat y plantea una IA simple que puede tener problemas para apuntar correctamente (una razón más para no seguir la ruta de la IA).
En realidad, la posibilidad de drones es un punto clave de la trama de mi historia. La pregunta original que publiqué sugiere que esto es imposible (dije explícitamente que la radiación ER impedía el control remoto). Sin embargo, el programador tiene un truco para usar las comunicaciones FTL para drones, que antes se creía imposible de hacer sin ser bloqueado fácilmente. Resulta que es imposible, hay una vulnerabilidad oscura en el código de la caja negra que no reveló cuando lo lanzó públicamente, con la esperanza de que hasta que se descubra, los drones se usarán temporalmente para salvar vidas. Aún así, no ayuda con el por qué no se usa la IA.

¡Necroposteo! (Y sí, leí o al menos hojeé todas las otras respuestas). Recapitularé algunas respuestas y luego proporcionaré más de mi propia opinión.

lo que ya sabemos

Problemas usados ​​de otras respuestas:

  • El pilotaje ya es difícil con la IA;
  • La IA no es creativa, se adapta a fallas inesperadas, es lo suficientemente compasiva;
  • Las IA se pueden piratear; la pelea no es una pelea de perros cinematográfica, sino un choque de hackers y/o guerra electrónica.

No se usa directamente, pero podría darle vida a las cosas:

  • Los humanos+ podrían hacer cosas que las IA no pueden, como precog o radar mental.

No "luches" contra la IA débil, acéptala...

Pilotar una nave espacial complicada, evitar fallas debido al fuego enemigo o un mal funcionamiento técnico, ser barato es todo lo que pueden hacer los robots. Ser "creativo", menos. Usando algunos superpoderes, incluso menos.

Necesitamos una IA débil en nuestros aviones de combate en el espacio. O bien, como alguien señaló, estamos reducidos a peleas de perros de la era de la Segunda Guerra Mundial, tal vez misiles guiados de la era de Vietnam, pero no mucho más.

... pero no confíes demasiado en él

Hablemos de guerra electrónica. Hay algunos niveles de piratería con comunicaciones en un combate.

  • Atasco el canal de comunicación;
  • "Escuchar" la comunicación descifrada y actuar en consecuencia (básicamente, lo que hicieron los británicos en la Segunda Guerra Mundial);
  • Comunicación cifrada "falsa" y engañar al enemigo.

Si tuviéramos un canal seguro que no puede ser pirateado, podríamos usar un solo luchador "comandante" tripulado (probablemente construir todos los demás con el mismo estándar para evitar la detección visual y la priorización de objetivos) y un enjambre de robots "actores".

Si no creemos en la comunicación segura, y más aún si el enemigo puede forzar a nuestros robots a abrir fuego amigo, necesitamos dotar a todos los combatientes.

El escenario

Entonces, puedes imaginar lo siguiente:

La guerra estaba destinada a luchar con robots asesinos. Los robots estaban controlando aviones reales que parecían tripulados, porque necesitaban alguna guía desde el interior del campo de batalla. (Es la misma idea que el "tanque comandante" alemán de la Segunda Guerra Mundial, que se veía igual que uno normal, incluida una maqueta de canon, solo que al revés).

En la primera fase de la guerra, esta idea se fue espectacularmente al sur: se subestimaron las habilidades de bloqueo, descifrado y órdenes falsas del enemigo. Afortunadamente, todos los cazas espaciales se fabricaron de la forma en que podían ser tripulados.

Debido a que piratear dentro de un solo avión es mucho más difícil que piratear la comunicación entre aviones, esto funcionó. Por lo tanto, todavía usaríamos una IA débil para la navegación, el vuelo real, la priorización de objetivos, las lecturas de súper radar, etc. los robots no.

Mientras las pérdidas no sean exorbitantes, esta estrategia funciona. Pelear con aviones robot asesinos solo cuesta dinero, pero no vidas de nuestro lado. Entonces, uno podría esperar las protestas de Vietnam, si es una especie de "guerra no deseada".

Cinco segundos de la vida real

Algunos cazas Su de la generación anterior (olvidé cuáles) y (que yo sepa) todos los cazas de quinta generación requieren una computadora en tiempo real para volar. Básicamente, esos aviones son aerodinámicamente inestables, cuando se mantienen quietos no pueden mantener su rumbo. Por lo tanto, para no chocar de inmediato, necesitan una computadora especial para ajustar las superficies de control un poco de manera bastante repetida. Este alto precio se paga por la mayor agilidad del avión cuando necesita maniobrar.

Por supuesto, este sistema no es una IA, pero sigue siendo una computadora. Me imagino que un avión de combate espacial tendría muchos más sistemas de este tipo. Tal vez, no todos son realmente necesarios, pero a) siguen la tendencia general (no pregunte cuántas computadoras hay en un automóvil moderno), b) mejoran ciertos aspectos del rendimiento de la máquina, y cualquier problema en guerra podría significar la diferencia entre ganar y perder.

Conclusiones

Básicamente, lo que digo es que tener una IA débil a bordo sería una mejora bastante importante de algunos aspectos del avión de guerra y, como tal, es bienvenido. Tener un humano a bordo mejoraría otros aspectos de un avión de guerra y, por lo tanto, disfrutaría del mismo trato .

Cultura

No creo que se haya dado esta respuesta, pero tal vez tengas una casta guerrera : personas que disfrutan de la alegría de la batalla, es su razón de ser . Son un grupo políticamente poderoso, algo así como un sindicato, que no permitirá que se usen IA para luchar.

Alternativamente, podría estar en un mundo distópico , donde la vida humana es tan barata que simplemente no se preocupan lo suficiente por los pilotos para construir la IA Incluso si construir la IA es solo un costo único, sigue siendo muy costoso, por lo que ¿Por qué molestarse cuando la producción en masa de los barcos de combate es relativamente barata (con todo el trabajo esclavo) y hay millones de humanos que puedes usar para pilotarlos?

Otro tema que realmente no se aborda aquí es el control de daños : una IA podría hacer un trabajo fantástico al volar cuando todo funciona a la perfección, pero cuando la mitad de los controles de reacción están desactivados, el control de la boquilla principal está en reversión, y el el motor principal está acelerando debido a una falla en la turbobomba, sin importar la pérdida de dos computadoras y un bus eléctrico para combatir el daño, le resultará mucho más difícil "pensar fuera de la caja" para llegar a casa cojeando o incluso terminar la misión que un piloto humano bien entrenado lo haría.

¿Qué te hace pensar que la IA no puede hacer eso? Los humanos realmente no piensan fuera de la caja cuando pilotean, eso significaría que son extraterrestres o viajeros en el tiempo o simplemente alguna influencia externa inesperada que causa mis problemas.
@ user2617804: los humanos son mucho mejores para dar sentido a la información contradictoria o incompleta que las computadoras, si se les da la oportunidad adecuada.
Los sistemas expertos difusos lo manejan tan bien como los humanos. Todo lo que no sea suficiente información: rotación, velocidad, aceleraciones, posiciones y la nave espacial está condenada al fracaso. Muchos pilotos humanos han estrellado aviones debido a información contradictoria sensorial o de instrumentos, mientras que la IA optaría primero por estabilizar el avión, lo que reduce los riesgos.

En primer lugar, la IA de nivel sensible es simplemente tonta para tener en un luchador / gundam, ya que, de manera realista, es probable que no la haya, ya que aún se tendrán que tomar muchas decisiones, por lo que deben transmitirse O tener un piloto. La transmisión tomará tiempo y puede ser pirateada, por lo que no desea eso tanto como sea posible.

Esto lleva al segundo punto, si va a tener una IA Consciente y no Consciente (como debería), también puede convertir a Consciente en un organismo biológico en lugar de una IA sensible, porque entonces tiene protección. de la piratería y dos sistemas de procesamiento diferentes, uno que es tremendamente menos lógico dará como resultado una mejor oportunidad general de ganar debido a la posibilidad de encontrar cosas desde diferentes perspectivas.

Cualquier IA que tenga, adaptable o no, se basa en un conjunto de reglas. Si puedo descifrar esas reglas, puedo usarlas a mi favor como consciente. Por otro lado, el comportamiento humano puede ser impredecible y, como tal, una IA podría simplemente no ser capaz de adaptarse.

Además, si una nave está dañada y necesita reparaciones, una IA, en muchos casos, no podrá repararse sola, incluso si tiene nanitos que son seguros de usar.

Básicamente, la seguridad, la estrategia y la capacidad de reparación son mejores con un piloto humano, sin importar qué tan rápido o poderoso sea la CPU y la IA.

su conclusión es exagerada y no es lógica a partir de su premisa. Comparación humana de IA: no tan válida. Los humanos confían en las reglas que aprenden probablemente en su simulación escolar de la academia espacial, y qué tan bien aprendieron esas reglas, depende de si las aprueban o no. nanites y problema de reparación: declaraciones totalmente incompatibles, pero largas para explicar por qué, y con nanites probablemente no necesitan luchadores. El buen punto es en realidad solo sobre la "IA" biológica que no necesita ser Consciente, ser inteligente es lo suficientemente bueno: el sistema de cerebro de ratón. Pero ese sistema híbrido es algo en lo que pensar.
Si un ser humano se equivoca en una regla, sigue siendo beneficioso porque entonces está actuando de una manera que la IA no predice. Nanite AI se desarrollaría de tal manera que no se propague evitando que reparen la nave en cualquier situación en la que no se pueda acceder a los materiales. Suponiendo que se estrelle contra un planeta incivilizado, esa nave no se reparará a menos que tenga un piloto para moverse y conseguir cosas para reparar la nave. Los cerebros de ratón son lo suficientemente buenos para algunas partes, no para otras.
Supongo que no sabes cómo funcionan nuestros algoritmos de autoaprendizaje actuales. Y esa es la raíz del problema al compararlos con los humanos. Es mi nota sobre su A y prefiero ser breve. Recomendaría agregar este punto limitante de propagación a su respuesta; esa es una razón suficiente para limitar la sustancia gris. Lo llamé incompatible por otra razón, luego la recopilación de material, más información. Pero la sustancia viscosa gris es excesiva, no es necesaria en pilotos y cazas, en primer lugar.
No sé cómo funciona completamente el aprendizaje de la IA, pero lo entiendo lo suficientemente bien. Simplemente nunca será lo suficientemente bueno para manejar completamente el pensamiento humano y también tiene las mismas limitaciones que los nanites en el sentido de que pondríamos ciertas cosas que no puede hacer y esas pueden ser explotadas. Pienso en los pilotos humanos en el futuro más como el asiento del pensamiento del caza, no del operador, son los que toman las decisiones o los que detienen la acción, pero gran parte de la actividad sería manejada por la IA.
La IA, incluso la IA suave actual, puede hacer lo impredecible 1000 veces mejor que los humanos. Los humanos APESTAMOS por ser impredecibles, los generadores de números aleatorios son geniales en eso. Si su nave está lo suficientemente dañada como para necesitar una reparación seria, lo más probable es que un piloto solo no pueda hacer mucho para repararla (un piloto de caza no puede reparar su caza) y, además, probablemente esté muerto o varado en el espacio hasta que lo rescaten. No arreglar las cosas en el espacio fácilmente.