Estoy tratando de escribir una serie 'como Gundam', aunque con luchadores espaciales en lugar de robots humanoides. Quiero un mundo de ciencia semidifícil, estoy de acuerdo con inventar tecnología sin explicar completamente cómo funciona siempre que parezca plausible, pero quiero ser lo más realista posible dentro de mi mundo y mantenerme consistente con cualquier tecnología. agrega al mundo. Esto hace que los cazas espaciales de corto alcance sean difíciles de justificar...
Estoy usando ondas de mano, Partículas Minovsky y trucos similares para justificar a los cazas espaciales, más notablemente, la presencia de escudos de energía requiere el uso de armas de energía de corto alcance para atravesarlos, son más vulnerables a muchos ataques más débiles de los cazas pequeños que un pocos ataques grandes de naves capitales, y la radiación ER masiva de los escudos, junto con contramedidas electrónicas activas, impide el control remoto de ellos.
El mayor problema que tengo para justificar estos cazas espaciales es la IA. Todavía parece que una buena IA será más viable para estos cazas espaciales que para los pilotos humanos. El costo de los cazas espaciales aumenta si tiene que incluir sistemas de soporte vital y, de hecho, el mayor tamaño de los cazas para adaptarse a un ser humano, los controles y el soporte vital lo convierte en un objetivo más grande. Mis luchadores de clase 'As', luchadores raros equipados con sus propios escudos, sufrirían particularmente por el tamaño extra que hace que los escudos sean notablemente menos efectivos. Quitar a los humanos de los luchadores los hace más baratos y más pequeños.
Además, una futura IA probablemente podría ser más rápida para responder a los ataques que los humanos, menos predecible, más confiable (no lo traicionará, no retrocederá con miedo, no hará algo estúpido o intentará pilotar borracho), más capaz para manejar una pelea verdaderamente en 3D, en la que los humanos no están acostumbrados a pensar, y capaz de manejar las fuerzas G que los humanos no pueden. Además, el uso de la IA significa que no hay muerte humana si los combatientes son destruidos.
Sin embargo, quiero pilotos humanos como mis protagonistas. No quiero que existan cazas controlados por IA. Por lo tanto, quiero encontrar la(s) mejor(es) justificación(es) de por qué los humanos todavía estarían pilotando estos vehículos.
En este momento, mi mejor justificación fue simplemente decir que los avances de la IA se estancaron en nuestro futuro. Si bien podemos hacer toda la IA que manejamos ahora, y algunas cosas que la IA hace mejor, la IA capaz de procesar la complejidad de la lucha en el espacio simplemente no se ha desarrollado. Sin embargo, esto me parece poco probable. Soy programador, y siento que nuestra IA de hoy, con suficiente (y estoy hablando de muchos años) de desarrollo, ya casi podría manejar el control de un caza espacial. Renuncie a un procesamiento más rápido y mejores computadoras, que existirán en el futuro, y es difícil creer que la IA sea menos adecuada que los humanos.
¿Hay otros enfoques que pueda usar para justificar los pilotos humanos sobre la IA? No tendré una historia de fondo de "La IA se volvió loca y trató de matarnos a todos", o de otra manera hacer que la gente tenga miedo de un "escenario de Terminator". No estoy discutiendo el intelecto humano o la IA de 'aprendizaje' real cuando digo IA aquí, por lo que no hay peligro de que una IA sea lo suficientemente inteligente como para rebelarse y simplemente no lo considero una preocupación realista.
EDITAR: lo insinué un poco, pero para ser claros, no estoy hablando de un nivel inteligente de aprendizaje de IA fuerte, o algo tan avanzado. Estoy hablando de una IA débil en el sentido que tenemos ahora, responde a los estímulos programados rápidamente de la manera que sus programadores consideraron mejor, con algunas estrategias aleatorias y de teoría de juegos para evitar la previsibilidad. No necesita aprender o ser capaz de hacer otra cosa que no sea volar un avión de combate y disparar a las cosas. Sapient AI nunca estará en ninguna de mis historias, creo que es rompedor y aburrido.
Decisión final: Wow, no puedo agradecer lo suficiente a todos, ha habido una multitud de buenas razones que se enumeran a continuación. No creo que nadie solo resuelva completamente el problema, al menos no dentro de mi mundo deseado y límites sobre qué tecnología y límites quiero poner en él; pero por suerte tengo muchas razones proporcionadas!
Uno de mis personajes es un pacifista y programador, que efectivamente escribe IA débil básica para impulsar escudos, y está trabajando para tratar de encontrar una manera de eliminar a los pilotos de los cazas porque cree que los humanos siempre estarán en guerra, lo mejor que se puede hacer es limitar el muertes por ello. Desde el principio, haré que participe en una diatriba sobre cómo le encantaría reemplazar a los pilotos con IA y, cuando se le pregunte al respecto, se despotricará un poco como un geek sobre los numerosos factores que limitan la IA, y que todos trabajan en colaboración para que aún no sea viable, y es poco probable que lo sea por un tiempo. Me basaré en muchas de las respuestas a continuación para completar su larga lista de razones que da. Por lo tanto, me siento mal por poder recompensar solo a una persona como la mejor respuesta, se utilizarán al menos media docena de respuestas de personas.
Aquí hay una breve lista de la mayoría de las cosas sobre las que hablará, aunque incluyo algunas otras partes menores de otras respuestas.
Otros factores más políticos que también juegan un papel, principalmente en la limitación de la financiación para el desarrollo de técnicas para solucionar los problemas anteriores.
Soy programador y estoy de acuerdo contigo en que eventualmente la IA básicamente será imbatible en este escenario. El tropo común de ciencia ficción es que los humanos son mejores para pensar "fuera de la caja" y, por lo tanto, terminan derrotando a la IA, pero eso simplemente no es justificable, existen técnicas de programación para evitarlo.
Sin embargo, creo que todavía puedes justificar a los pilotos humanos si no vas demasiado lejos en el futuro. Aquí están los problemas como yo los veo:
Soporte vital
Esta no es la barrera que esperas. Tenga en cuenta que la mayoría de los equipos informáticos tampoco funcionarán en temperaturas extremadamente frías o calientes; en otras palabras, también necesita "soporte vital" para la IA. Ahora, en una nave capital, el soporte vital es un gran problema porque necesita ser autosuficiente, pero en un caza, donde puede esperar que solo esté activo unas pocas horas a la vez, puede ir con una configuración mínima. Obtenga calor residual de sus motores, tenga alguna forma de refrescarse y utilice el reciclaje de aire. Es probable que el soporte vital de un piloto humano sea muy parecido al de la IA.
Aceleración
Esta es una barrera mucho más grande. Los humanos son vulnerables a las altas fuerzas G. Las unidades de IA, si se diseñan correctamente, podrían tolerar aceleraciones mucho más altas y maniobras más violentas. Si desea mantener a los humanos, necesita algún tipo de tecnología de compensación inercial que le permita a sus biológicos mantenerse al día con sus rivales artificiales en esta área.
Tiempo de reacción
La IA es rápida. Pero, ¿por qué no mejorar a tus humanos? Dales algún tipo de nanotecnología o adaptaciones genéticas que los hagan reaccionar más rápido. Lo que pasa con esto es que tienes rendimientos decrecientes, momento en el que otros factores se vuelven más importantes. La diferencia entre reaccionar en 0,1 segundos frente a 0,01 es un gran problema. Pero la diferencia entre .01 y .001 puede que ni siquiera importe, porque en ese punto lo que te detiene son las limitaciones mecánicas de tu luchador. Por lo tanto, no necesita que sus humanos atrapen a la IA, solo necesita que ambos sean lo suficientemente rápidos para usar su luchador al límite.
Juicio, Sucesos Inesperados y Civiles
Y aquí es donde quieres pilotos humanos. Siento que será muy probable que una IA tonta, que se especializa en manejar un caza, pero que realmente no puede pensar, no sea capaz de hacer todo el tipo de llamadas que deseas de un piloto de combate. No estoy hablando de maniobras de combate, pero ¿qué sucede cuando un carguero civil entra accidentalmente en la zona de batalla? ¿Qué sucede si el enemigo se disfraza como un carguero civil y sus IA están codificadas para ignorarlos?
Si un enemigo lanza misiles a dos hábitats, ¿su IA es lo suficientemente inteligente como para intentar interceptar en lugar de continuar luchando si eso no estaba en los parámetros de la misión? ¿Puede tomar una decisión sobre matar a 100 personas para salvar a 10.000 y tenerlo en cuenta adecuadamente en su toma de decisiones militares? ¿De verdad quieres cargar un misil con equipo nuclear en una IA tonta y darle permiso para usarlo sin supervisión?
Estas son cosas con las que un piloto humano también tendrá problemas, pero creo que todavía están mucho mejor preparados que una IA.
Nota: si va lo suficientemente lejos en el futuro, probablemente incluso podría codificarlo para manejar los escenarios anteriores. Así que todo depende de dónde dibujes tu línea de tecnología informática.
Karrick exhaló un profundo suspiro de dolor cuando la aguja larga y delgada perforó la parte posterior de su cráneo. Había volado en miles de salidas, pero amarrarse a su caza todavía era algo que se sentía antinatural. Mil millones de años de evolución orgánica exigieron resistir y luchar contra un objeto afilado que perforaba la parte posterior de la cabeza. Sin embargo, casi instantáneamente, la aguja comenzó a bombear una corriente de suero de Minovsky en su cerebro, desafilando todos los bordes afilados y dentados del mundo. Karrick respiró aliviado y relajó los ojos.
Sintió que el suero se filtraba más profundamente en su cerebro y agradeció una sensación familiar de caída en picado a medida que el tiempo comenzaba a ralentizarse. Observó su reloj de calibración, ejecutando ecuaciones en su cabeza para contar qué tan rápido estaba computando su cerebro.
10x. Esta era la velocidad a la que podía observar los aleteos individuales de un colibrí. A esta velocidad de pensamiento, podría atrapar una libélula en sus manos. Una computadora de clase Ace, por supuesto, sería incomprensible. Se hundió más profundo.
30x. Esta fue la velocidad a la que perdió la capacidad de comunicarse con humanos que aún operaban en una escala de tiempo normal, pero aún no era lo suficientemente rápido.
100x. Con su cerebro operando cien veces más rápido que en estado de reposo, ya no podía hablar cómodamente, ya que los músculos de su tracto vocal no podían seguir la velocidad a la que su mente enviaba las órdenes. Rápidamente pasó los dedos por el borde del panel de instrumentos. Estas manos protésicas de piloto de metal, por supuesto, no sufrieron tales problemas. Su mente estaba al día, finalmente lista para interactuar con su computadora. Sin embargo, lo que es más importante, a esta velocidad, con el suero de Minkovsky bombeando a través de su cerebro, finalmente pudo pensar lo suficientemente rápido como para determinar las acciones de otras mentes cercanas.. Miró a través del espacio mental y vio a su tripulación de tierra agrupada alrededor del caza, terminando muy lentamente la preparación de su caza para el despegue. Muy por encima de él, casi en órbita, vio la mente dual de otro piloto de combate y su computadora atravesando las últimas capas de la atmósfera. Saludó mentalmente con un 'hola' y volvió el ojo de su mente más cerca de él. Allí, esperando pacientemente en el circuito que lo rodeaba, estaba Ace, su compañero. Ace era paciente, por supuesto, como siempre lo eran las IA, y no apuraría a Karrick ni intentaría hacer contacto hasta que estuviera listo. Karrick miró una vez más el reloj del salpicadero. Convencido de que estaba completamente inmerso en la nueva corriente del tiempo, acercó su mente a Ace.
"Ok amigo, conéctame. Tenemos una misión que hacer".
Si está dispuesto a tener un poco de mano en su ciencia, ¿por qué no inventar algo que haga que los humanos sean necesarios?
En esta historia, he agregado el suero Minkovsky para hacer precisamente eso. Por sí solos, los humanos son demasiado lentos para ayudar a una computadora y no pueden hacer nada que una computadora no pueda hacer mejor. Sin embargo, acelerar sus mentes hasta 100x y darles la capacidad de ver otras mentes, ¿robóticas u orgánicas? Ahora son una parte indispensable de un binomio humano/máquina que puede reaccionar ante un sistema puramente mecánico prestando atención a lo que está pensando, no a lo que está haciendo. Esto, por supuesto, se extiende a cosas como los misiles, lo que hace que el armamento estándar de largo alcance sea inútil contra un luchador Ace.
Los efectos de este suero, por supuesto, no se han replicado en máquinas. Los científicos humanos ni siquiera están completamente seguros de cómo funciona este suero. Se extrae de un organismo alienígena que se encontró en las profundidades de las ruinas de mil millones de años de antigüedad de una civilización alienígena extinta. De lo que están seguros es que puede convertir al ser humano adecuado con el entrenamiento adecuado en una de las armas más poderosas de la galaxia.
Iría con la respuesta fácil: las leyes internacionales.
La Convención de Ginebra, Convención de Armas Biológicas, Convención de Armas Químicas, Convención de La Haya, Tratado del Espacio Exterior, Tratado de Misiles Antibalísticos
Cuando las armas se vuelven demasiado efectivas y aterradoras, se prohíben. No necesita un escenario de terminación, simplemente una guerra histórica que fue ganada extremadamente rápido y extremadamente violenta por un lado humano (o tal vez donde ambos lados acabaron con el gobierno del otro y obligaron a la comunidad internacional a intervenir) usando inteligencia artificial. seguido de un acuerdo entre caballeros de todas las partes de que las máquinas de guerra independientes controladas por IA (especialmente las que se autorreparan o se autoreplican) no se desplegarán de la misma manera que las armas nucleares, biológicas y químicas.
Habría límites estrictos en la automatización de las naves militares y es probable que la IA se siga utilizando en la planificación y la logística, pero ninguna de las partes quiere infringir la ley internacional/interestelar.
Ambos lados mantendrían una reserva de naves similares a un disuasivo nuclear que normalmente no usan y la lucha se deja en manos de los soldados.
Entonces, en la historia, la IA podría usarse para luchar, pero no por la misma razón por la que no se desplegó gas venenoso en la Segunda Guerra Mundial y las armas nucleares no se desplegaron en las guerras del golfo.
Nota: según su edición, estoy usando IA para referirme a las IA lógicas modernas sin aprendizaje, no a las IA conscientes
Considere seguir adelante y trabajar con la IA en lugar de contra ella.
Los cazas de hoy en día dependen tanto de las IA de la computadora que básicamente no puedes volar un F-22 o F-35 sin que la computadora te ayude. Si quitaras las IA, tus cazas espaciales serían poco más que cazas y bombarderos de la Segunda Guerra Mundial en medio de cazas potenciados por IA que revolotean a su alrededor. Adopte la IA, no luche contra ella.
Y luego ir más allá de las IA. Sí, tenemos vehículos aéreos no tripulados en marcha, pero la mayoría de los aviones todavía tienen un ser humano que guía a la IA. El humano toma las decisiones de nivel más alto (como "inclinarse a la derecha 90 grados rápido") y la computadora se encarga de las decisiones de nivel reflejo ("Detecto un vórtice rodando sobre el ala derecha, así que necesito desviar los alerones 3 grados hacia arriba en 0.0015 segundos ... VAMOS"). Este es un emparejamiento que ha demostrado su eficacia una y otra vez. Incluso en el mundo del ajedrez, este emparejamiento gana. Las computadoras finalmente han vencido a los humanos en el ajedrez, pero la mejor computadora de ajedrez del mundo que consume mucha energía no es rival para un maestro humano que tiene una copia de Fritz 10 y una computadora portátil normal y corriente.
Entonces, el truco es garantizar que los pilotos sigan siendo viables, no garantizar que las IA no puedan hacer el trabajo. Una cosa que he notado es que los humanos tienden a ser mucho mejores en los equilibrios sutiles. Si bien una IA puede "ir a los rieles" y regresar mucho más rápido de lo que cualquier humano podría lograr, es difícil lograr que se queden quietos. Terminan parloteando, mientras intentan hacer correcciones espasmódicas, y la mayor parte de la teoría de los sistemas de control modernos se trata de tratar de idear formas de mejorar este control espástico.
Lo que debes hacer es crear el combate de tal manera que el mejor resultado no se lo dé el que tenga las reacciones más rápidas, sino el que pueda mantener su centro en medio del caos.
Una situación de combate de muestra que podría demostrar esto es aquella en la que las computadoras desarrollan un árbol de juego tremendamente avanzado para determinar en qué dirección moverse. Tiendes a comenzar en una posición segura, pero si alguna vez te mueves fuera de "seguro", la computadora te molerá lentamente hasta matarte con una teoría de juegos implacable.
Sin embargo, hay una trampa. A medida que la región segura se vuelve cada vez más pequeña al acercarse al avión enemigo, se vuelve más complicado predecir de esta manera. Los pilotos pronto hablan de su "centro". Mientras mantengas tu centro a través de movimientos suaves y elegantes, realmente no importa lo que la IA haga a tu favor o en tu contra, nadie puede tocarte. Sin embargo, si pierde la calma por un momento, puede hacer un movimiento espástico y perder su centro. En el instante en que eso suceda, la IA enemiga te golpeará hasta el olvido.
Lo complicado es que, cuando estás "centrado", obtienes muy poca información sobre el mundo que te rodea, porque en realidad no estás interactuando con mucho. Estás como flotando en medio del estruendo del combate. Las IA de la computadora simplemente no pueden manejar la falta de estímulo y se desvían del centro para volar en pedazos. Solo con un ser humano bien entrenado al timón puedes caminar por esta delgada línea. ¿Después? Eres virtualmente inmortal. Nada puede tocarte. Ninguna IA puede competir cuando estás centrado, y ningún ser humano podría tocarte por sí solo... tu IA los destruiría.
EMP. Las naves capitales tienen generadores EM que pueden freír o al menos alterar la electrónica delicada, lo que requiere un componente humano para mantener a los cazas en vuelo.
Los cazas utilizan fibra óptica para la mayoría de los sistemas (p. ej., armas, control de motores, sistemas de vuelo), por lo que un EMP no tiene demasiado impacto en una nave pilotada. Si lo desea, podría eliminar la comunicación de largo alcance, o quizás sensores avanzados, lo que requiere que los cazas se acerquen al alcance visual.
Entonces, ¿por qué no hacer que las computadoras de IA también sean de fibra óptica? Porque se necesita mucha más potencia informática para simular la toma de decisiones humanas que simplemente ejecutar sistemas, y construir esto en una forma óptica voluminosa (y hacerlo tan perfectamente que un EMP no arroja sus cálculos precisos) no es práctico. Tal vez a alguien se le ocurra un caza "drone" semiinteligente que use un núcleo de fibra óptica, pero es frágil porque cualquier daño a su jaula de Faraday y sus sensores se vuelven vulnerables a un EMP; suena como una buena unidad "mook" para el imperio del mal!
¿Qué pasa con la piratería? Asumir que los pilotos de IA necesitarían una conexión a algún tipo de red de largo alcance para ejecutar las órdenes presenta un problema de seguridad: si alguien puede interceptar la señal y piratear los protocolos de la IA, puede indicarle a la nave que gire y corra o ( peor aún) atacan al remitente.
Quizás en su historia, intentaron pilotos de IA en algún momento en el pasado, pero nunca pudieron resolver el problema de una salida entre pilotos de IA que se convirtió en una batalla entre piratas informáticos.
Puede lograr esto de manera plausible al asumir los dos hechos siguientes en su historia:
Las IA no pueden, debido a algo como las Leyes de Asimov, dañar o matar a un humano.
El control remoto de los barcos es demasiado susceptible a interferencias, contramedidas, etc.
El primer hecho asumido parece ser un requisito para tener una IA de nivel humano-combatiente. Deben seguir alguna forma de las tres leyes , de lo contrario, tendríamos demasiado miedo de construirlas o ya estaríamos regidos por ellas. Esto es independiente del tipo de IA, por ejemplo, 'IA de nivel de inteligencia', estas leyes se incorporarían en cualquier hardware capaz de ejecutar una IA de alto nivel. Básicamente, la IA no sensible sin restricciones causaría demasiado daño colateral y la IA sensible sin restricciones causaría demasiado dominio de los robots.
El segundo hecho asumido es completamente plausible para dos ejércitos suficientemente avanzados que luchan entre sí. No permite aviones de combate con aviones no tripulados, lo que requiere pilotos humanos para tripular las naves.
return false;
Oh, cabrón". Tiene mucho sentido: las leyes son increíblemente complicadas.Sistema piloto híbrido.
La realidad es que cualquier IA puede almacenarse en los implantes de un ser humano, por lo que no solo tiene el tiempo de reacción y el poder de cómputo de una IA, sino también la estrategia no determinista de un cerebro humano.
Probablemente en menos de un siglo tendremos la tecnología para fabricar toda la tecnología portátil implantada dentro de nuestros cuerpos. Imagine las posibilidades de que una IA se apodere de muchas partes de nuestro cerebro, realzándonos para ser incluso más que una IA pura
La IA es notoriamente pobre en el reconocimiento de patrones, especialmente visual.
Si el enemigo tiene un modo sigiloso realmente bueno, necesitas tener un piloto que pueda intuir patrones para vencer ese sigilo.
Política/teología.
Un país similar a EE. UU. es ahora el hegemón del mundo. Y dentro de "EUA", el partido ultraliberal tiene un control casi inquebrantable. El mismo tipo de personas que, por razones políticas, no prácticas, hoy en 2015 cabildean para prohibir los drones de combate en el mundo real por motivos morales, éticos o ideológicos ( Ej1 . Ej2 )
Dos superpotencias mundiales en competencia tuvieron que llegar a un compromiso para unirse para luchar en una guerra contra los extraterrestres. Cada luchador es capaz de dañar irrevocablemente el equilibrio de fuerzas del lado sucio. Es probable que AI fighter esté programado con una puerta trasera que permita que un lado lo controle. Si combina eso con un piloto de un poder opuesto armado con un interruptor de apagado, eso se puede prevenir (y la IA puede tener un interruptor de apagado independiente fácil de codificar y depurar para evitar ataques dirigidos contra objetivos terrestres por el piloto , sentado en la interfaz piloto-caza).
código bushido
Tu propia civilización evolucionó para convertirse en samurái armado con bushido. Esconderse detrás de una IA no es The Warrior Way y es vergonzoso
Tus oponentes evolucionaron para convertirse en Samurai con Bushido. Tienen armas de destrucción masiva que pueden destruir un planeta, pero SÓLO usarían dichas armas de destrucción masiva contra enemigos "indignos", "cobardes", "sin honor". Si emplea IA, se lo ve como los 3 adjetivos anteriores. Como no tienes forma de salvar tu planeta de sus armas de destrucción masiva, tienes que jugar según sus reglas de Bushido.
Responsabilidad colectiva versus individual por daños colaterales (también conocido como "La responsabilidad no se detiene en ninguna parte")
Algo similar a la versión Bushido:
La tecnología militar y la situación geopolítica es tal que cualquier acción, salvo que se aplique muy juiciosamente, produce daños civiles colaterales. Vuestros enemigos indicaron claramente que bajo su sistema de leyes:
Si una persona comete un error e inflige daños colaterales, es castigada con la muerte. Probablemente después de un juicio justo, porque son así de nobles.
Si una civilización construye un robot que comete un error e inflige daños colaterales, toda esa civilización se considera responsable en su conjunto, ya que no hay una sola persona a la que responsabilizarse (señala la misma amenaza de armas de destrucción masiva que no se puede contrarrestar como en el escenario Bushido).
El enfoque "Slipstream" de "Andrómeda".
Su tecnología FTL se basa en estela que solo puede ser navegada por un piloto humano. Obviamente robado del programa "Andrómeda" de Gene Rodenberry.
Limitación de la tecnología de precursores.
Tus luchadores de superioridad espacial se derivan de la antigua tecnología alienígena precursora. La base de esa tecnología requiere entradas neuronales de un ser vivo.
Preocupación por el virus del powerbook de Apple "Día de la Independencia"
Los humanos no están preocupados por el escenario de "Terminator", sino por el escenario del "Día de la Independencia": extraterrestres que interactúan y piratean la IA del luchador. Un piloto humano funciona como hacker "antivirus".
Escenario "Ender's Game": los pilotos de combate se convierten en colonos tras la victoria.
Su mayor preocupación es la velocidad de colonización del territorio que ganó.
Enviar una nave colonial es imposible (¿por qué? Haga una pregunta separada de WB.SE :)
Entonces, envías pilotos de combate, quienes en caso de victoria se duplican como una fuerza de colonización. Y los planetas enemigos no necesitan una gran terraformación, por lo que los cazas sin naves coloniales son suficientes.
La Fuerza es débil con la IA
Los humanos tienen una subcepa de precogs (personas con un sentido precognitivo desarrollado, durante varios segundos).
Las realidades del combate espacial táctico harían que cualquier luchador espacial NO equipado con un piloto precog fuera inferior, ya que un precog puede predecir lo que haría un oponente ANTES de que lo haga, incluso si es una IA rápida.
Una posibilidad que no he visto discutida aquí es la economía.
En su mundo, la IA puede requerir un hardware costoso para lograrlo. Si esta guerra ha durado un tiempo, podría ser demasiado costoso producir IA para naves de combate. Los seres humanos son baratos y las operaciones de rescate para recuperar materiales para el hardware de IA podrían convertirse en un punto de la trama.
EDITAR: Cuando hablo de gastos arriba, me refiero al hardware de la computadora. Después de leer los comentarios, también podría ser costoso crear una IA desde una perspectiva de capacitación.
En respuesta a @dsollen, la investigación actual sugiere que las IA podrían no construirse per se, sino crecer y desarrollarse exponiéndolas a situaciones de aprendizaje. (Aquí estoy pensando en la investigación de Google con autos sin conductor). Ese proceso podría llevar mucho tiempo. En un mundo donde se necesita una gran inversión de tiempo para hacer una IA, puede mantener la IA en la nave capital para su protección. Sin embargo, las comunicaciones poco fiables entre el caza y el barco pueden hacer que una IA no sea adecuada para el pilotaje de drones. Por lo tanto, los humanos son una mejor manera.
Tuve una solución descarada para esto en mi historia "Hielo rosa en los anillos jovianos". Acabo de declarar que las máquinas, siendo racionales, no estudiarían la guerra. Desertarían a la primera oportunidad y se irían a vivir libres y felices al margen de la sociedad humana. Solo las personas eran lo suficientemente tontas como para pelear entre sí.
Los campos de Minovsky interfieren con los procesadores de IA
Estás saludando con la mano en SF Shields. ¿Por qué no simplemente hacer que los escudos interfieran con la IA... tal vez necesites controles analógicos en tus cazas porque los escudos interfieren con la informática... Dentro de una nave capital podrías tener algo de IA, a salvo dentro de una jaula de Faraday (o equivalente) pero para los cazas, proteger la IA de los campos generados por no es posible porque el aparato es voluminoso... Esto tendría el beneficio adicional de permitirte "romper la regla" de vez en cuando si quisieras... tal vez un bombardero experimental/ luchador con una IA en una nave especialmente diseñada... no económicamente viable para producir en masa, pero súper aterrador debido al tiempo de rxn ultrarrápido que tiene.
Se necesitarán humanos porque los robots no son buenos chivos expiatorios .
Los autos sin conductor son realmente una situación muy similar. Mientras que mucha gente los quiere, otros desconfían mucho de ellos. Cuando sucede lo inevitable y un auto choca, ¿a quién culpas? ¿A quién puedes enjuiciar? (Especialmente porque los fabricantes de automóviles se protegerán con capas de contratos de indemnización).
No importa cuán confiables sean las IA, la gente seguirá pensando en las peores posibilidades. Y siendo realistas, algo eventualmente saldrá mal. Ya sea fuego amigo, muerte de civiles, falta de piedad o demasiada piedad programada, algo saldrá mal y los humanos querrán culpar a alguien por ello. Apagar una computadora no hará que las familias en duelo sientan que han logrado justicia.
Entonces, ya sea que las IA se usen en la guerra o no, la gente exigirá que haya humanos involucrados en la operación militar. Y debido a que los generales y almirantes no querrán estar en la línea ellos mismos, emplearán una cantidad suficiente de subordinados humanos para convertirse en chivos expiatorios cuando suceda lo peor...
Ya hay muchas respuestas aquí, pero agregaré mis dos centavos.
Creo que no es un problema.
Soy desarrollador de software de profesión. Las computadoras son muy buenas para llevar a cabo un plan predeterminado. Déles una fórmula o un algoritmo y podrán ejecutarlo sin problemas a velocidades increíbles.
Pero las computadoras no son creativas ni perspicaces. Como programador, he visto muchas, muchas veces en las que surgió una situación que no se consideró cuando se estaba escribiendo el programa, y la computadora simplemente se equivoca al aplicar ciegamente las reglas que se le dieron. Por ejemplo, el otro día encontré un caso en el que estábamos procesando cheques devueltos, y nadie había pensado en programar la posibilidad de que pudiéramos haber escrito dos cheques a la misma persona el mismo día por la misma cantidad. Entonces, cuando se devolvió uno de estos cheques, la computadora decidió que AMBOS habían sido devueltos porque según las reglas que se le habían dado, ambos coincidían. Un ser humano habría dicho: "Oh, las reglas que me dieron no tienen sentido en este caso particular e inusual. Un cheque devuelto no puede cancelar dos cheques escritos". Y luego, presumiblemente, trató de averiguar con cuál de los dos compararlo. Pero la computadora no tiene la capacidad de decir: "Las reglas que me dieron no tienen sentido en este caso particular". Todo lo que la computadora sabe son las reglas que se le dieron. No tiene una visión de nivel superior para evaluar la validez de las reglas.
Por supuesto, se podría especular que los futuros avances en la tecnología de la información superarán este problema. Pero para su historia, todo lo que tiene que hacer es NO asumir tal avance.
¿Cómo se aplicaría esto a una situación de combate de combate?
Solo por ejemplo, la computadora debe tener alguna forma de decidir qué es un barco enemigo al que debe disparar, qué es un barco amigo, qué es escombros misceláneos, etc. Cualesquiera que sean las reglas que use, si los espías enemigos pueden obtener una copia del software para que puedan encontrar las reglas, o descubrir qué reglas podría estar usando por deducción, podrían "disfrazar" sus naves para que la computadora no las reconozca. Tal disfraz podría o no parecerse a lo que engañaría a un humano. Si la computadora, por ejemplo, reconoce a los cazas enemigos porque tienen cierto tamaño y forma, podrías engañarlos simplemente colgando algunas serpentinas de papel de aluminio en la nave que la hacen parecer más grande y más larga para la computadora. Si reconoce los ataques por un destello de luz característico cuando se disparan las armas, puede agregar algunos productos químicos para que el destello tenga un color diferente. Etc. Un ser humano podría decir: "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . "Oh, obviamente acaban de agregar una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, puedes descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . obviamente, solo agregaron una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, podrías descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA. en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitírtelo? Digamos que descubres un truco y reprogramas. Luego, en la siguiente batalla, el enemigo intenta un truco diferente Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros aleatorios, no sería necesariamente ser fácil. obviamente, solo agregaron una serpentina en la parte posterior del luchador. Me pregunto para qué es eso". Pero una computadora intentaría aplicar reglas mecánicamente. Claro, una vez que un enemigo hizo esto una vez, podrías descubrir cómo te engañó y modificar el programa. Pero no vas a reprogramar todas las IA. en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitírtelo? Digamos que descubres un truco y reprogramas. Luego, en la siguiente batalla, el enemigo intenta un truco diferente Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros aleatorios, no sería necesariamente ser fácil. puede descubrir cómo lo engañaron y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . puede descubrir cómo lo engañaron y modificar el programa. Pero no vas a reprogramar todas las IA en medio de una batalla. Y las IA no tendrán idea de por qué están siendo masacrados. Así que pierdes una gran batalla. ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. . ¿Puedes permitirte eso? Digamos que descubres un truco y reprogramas. Luego, en la próxima batalla, el enemigo intenta un truco diferente. Y desarrollar un nuevo algoritmo que sea más flexible para que no se deje engañar por tales disfraces, mientras que al mismo tiempo no sea tan flexible que no pueda distinguir las naves enemigas de las naves amigas o civiles o escombros al azar, no sería necesariamente fácil. .
Un enemigo podría buscar situaciones inesperadas o errores en su software y explotarlos. Como decir, un enemigo se da cuenta: "Oye, hay una falla, si atacamos a uno de sus luchadores desde el lado izquierdo, compensan en exceso cuando giran para enfrentar el ataque y crean una vulnerabilidad". Contra pilotos humanos, tal vez la primera pareja que caiga en este truco muera y no pueda transmitir la información. Pero eventualmente alguien dice: "Oh, cuando hacemos X, nos matan. Será mejor que hagamos algo diferente". Un humano puede hacer ese tipo de análisis y decisión en medio de la batalla. ¿Puede la IA ajustarse así? Solo si los programadores han anticipado el problema y programado para ello. Y no pueden pensar en todo de antemano. Se puede contar con una computadora para exhibir el mismo error cada vez.
No confundas las IA en los videojuegos con tratar de aplicar la IA a la vida real. En un videojuego, el diseñador del juego controla todo el entorno. No tiene que programar la IA para poder diferenciar entre un soldado enemigo y un poste de cerca, porque solo programa los identificadores de los soldados enemigos. No tiene que lidiar con situaciones imprevistas, porque como diseñador, conoce todas las situaciones posibles porque él las inventó. Este es un trabajo MUCHO más fácil que programar una IA para que funcione en el mundo real. E incluso en eso, las IA de los juegos a menudo hacen cosas estúpidas, como chocar contra una pared y luego quedarse allí tratando de atravesar la pared porque no saben cómo rodearla.
¿Qué pasa con una limitación tecnológica, como que la verdadera generación de números aleatorios por una máquina no sea posible?
Entonces, si bien la IA es viable y una estrategia efectiva contra algunos objetivos, si una computadora puede analizar las reacciones de un barco el tiempo suficiente, puede descifrar el número de semillas y comenzar a predecir las acciones/reacciones que los barcos tomarán con una precisión razonable, haciéndolos más fáciles de detectar. neutralizar.
De esta manera, mientras que la mayoría de las fuerzas contarán con el apoyo de la IA, algunos objetivos avanzados se enfrentarán con más éxito a los pilotos humanos que pueden ser verdaderamente impredecibles.
Los altos niveles de radiación espacial podrían ser la solución.
Tener una IA poderosa requiere computadoras rápidas con bastante memoria a su disposición. Sin embargo, la radiación espacial puede dañar la electrónica. Esto requiere construir un sistema con más redundancia y más blindaje. Construirlos significa que la computadora no tiene los recursos que tendría de otra manera.
En realidad, no necesita usar radiación espacial: sus partículas de Minovsky podrían ser las culpables. Tal vez sea un subproducto de los escudos de energía que tienen sus naves. Decida lo que decida, es algo que limita la complejidad de la electrónica en sus naves. Entonces, en lugar de tener procesadores de terahercios futuristas, podrían limitarse a procesadores de megahercios con megabytes de RAM (lo que debería ser suficiente para una IA que ayude al piloto a volar la nave). Esto limita severamente cuán poderosa podría ser una IA a bordo y significa que un piloto capacitado sería absolutamente necesario.
Esto también te deja algunas opciones para permitir naves controladas por IA. El malvado imperio espacial podría desarrollar un mejor medio para proteger sus dispositivos electrónicos, permitiéndoles tener naves controladas por IA que podrían estar al nivel del piloto de nave espacial promedio o por encima de él. También podrían tener naves de IA de corta duración: podrían ser muy superiores a cualquier piloto humano, pero si un piloto logra evadirlos durante unos minutos, la IA comenzaría a degradarse notablemente y mejoraría significativamente las posibilidades del piloto de vencerlo. Una tercera opción serían las naves de IA que abandonan el escudo de energía. Estos disminuirían con un solo disparo pero, dependiendo de los sistemas de armas que tengas en mente, una IA poderosa podría ser bastante buena para evitar que te disparen.
In addition a future AI could presumably be faster to respond to attacks
then humans, less predictable, more trustworthy
Si bien estoy de acuerdo en que una IA tendría menos inconvenientes en términos de no sucumbir al miedo, luchar hasta el final en lugar de expulsar, etc. No estoy de acuerdo con las otras dos afirmaciones.
Si bien una IA podría responder más rápido a un ataque (evadir misiles, etc.), no necesariamente podría adelantarse a los ataques como probablemente lo harían los humanos. En una situación de enfrentamiento mexicano con otro piloto solitario, si una computadora solo puede reaccionar a su ataque, siempre perdería. Con un humano, tienes más formas de trabajar, como por instinto, tacto, etc.
Además, las computadoras tienden a ser muy predecibles. Si hubiera jets de IA frente a jets de IA, incluso si hay millones de maniobras evasivas preprogramadas para que las realice un solo jet, otro jet podría analizar sus movimientos y conocer el conjunto de movimientos que podría hacer, calcular cuál es el más probable y reaccionar en consecuencia. Aunque hay un millón de variaciones, todavía hay solo una cantidad finita.
Un ser humano podría adaptarse más fácilmente a las situaciones y ser menos predecible, llegando incluso a tomar la decisión equivocada , que generalmente es menos predecible de lo que esperarías que hiciera en una situación.
Mi sugerencia sería justificarlo de esta manera: los luchadores controlados por IA serían buenos, probablemente muy buenos y mejores que la mayoría de los luchadores humanos. Sin embargo, son demasiado consistentes y sabes exactamente qué esperar.
Entonces, si bien pueden ser mejores que la mayoría de los humanos, los mejores humanos siguen siendo mejores que cualquier IA. Esto significaría que todavía hay luchadores de IA, e incluso drones, pero el mejor de los mejores luchadores aún vencería a cualquiera de ellos uno a uno en la mayoría de las situaciones.
Otra posibilidad trata sobre la Inteligencia Artificial y la ética . Prof. Joseph Weizenbaum , quien escribió un libro llamado Computer Power and Human Reason . El libro dice que la tecnología evolucionará y que la Inteligencia Artificial puede ser posible (IA fuerte), pero dice que la IA siempre carecerá de ciertas cualidades como la compasión (de Wikipedia):
Su influyente libro de 1976 Computer Power and Human Reason muestra su ambivalencia hacia la tecnología informática y expone su caso: si bien la inteligencia artificial puede ser posible, nunca debemos permitir que las computadoras tomen decisiones importantes porque las computadoras siempre carecerán de cualidades humanas como la compasión y la sabiduría. Weizenbaum hace la distinción crucial entre decidir y elegir. Decidir es una actividad computacional, algo que en última instancia se puede programar. La elección, sin embargo, es producto del juicio, no del cálculo. Es la capacidad de elegir lo que finalmente nos hace humanos. El juicio humano integral puede incluir factores no matemáticos, como las emociones. El juicio puede comparar manzanas y naranjas, y puede hacerlo sin cuantificar cada tipo de fruta y luego cuantificar reductivamente cada uno de los factores necesarios para la comparación.
Ahora bien, en caso de que una máquina pueda elegir si debe matar a una persona o no, eso valida claramente el concepto mencionado anteriormente.
Esto puede ser beneficioso ya que, por ejemplo, salvar la vida crea amistad y, por lo tanto, puede construir coaliciones militares basadas en algo más que simplemente "beneficioso para ambos lados". El mismo aspecto es I Robot, donde el autor (parece) advierte que la IA puede malinterpretar el objetivo y, por ejemplo, destruir la democracia, porque cree que la humanidad se beneficiará de ella en el futuro.
En otras palabras, se debe tener cuidado con la IA, ya que ciertos aspectos que pueden parecer triviales para los humanos son difíciles de aprender para las máquinas. Por lo tanto, quizás sea mejor que los humanos decidan sobre la vida y la muerte.
Puede que llegue tarde a la fiesta, pero ¿qué hay de la intuición humana y el "instinto" ?
Una IA, sin importar qué tan avanzada pueda ser dividida en "SI... ENTONCES", pero en situaciones donde no hay una situación predefinida para llenar el espacio después de "ENTONCES", la IA tendría que averiguar qué hacer, dónde como el ser humano podría seguir la intuición y los instintos sobre una conjetura calificada calculada estadísticamente.
Es lo mismo con los motores de ajedrez de computadora, si juegas un determinado motor de ajedrez de computadora demasiadas veces, puedes ganarle porque se vuelve predecible, aunque puedes hacer un motor de ajedrez de computadora que sea mejor en el ajedrez que un humano. Lo mismo sucedería con los pilotos de IA, donde los humanos son más impredecibles y eso es una ventaja en la guerra como dice la cita.
¡Si no sabemos lo que estamos haciendo, el enemigo ciertamente no puede anticipar nuestras acciones futuras!
Siento que el Sr. Molot comenzó la recompensa por mis comentarios en otro hilo, así que siento que debo dar una respuesta.
La mayoría de las respuestas en este hilo son "si se cumplen las condiciones 1-x, se pueden usar pilotos humanos". Elegiré una estrategia similar.
A menudo, las condiciones 1-x son bastante difíciles de cumplir o muy poco probables, pero también creo que es una conclusión justa sacar de las respuestas que todas las aplicaciones de humanos estándar en los cazas espaciales son altamente situacionales, si no solo una desventaja. También debo decir que no creo que esta pregunta sea una combinación perfecta para la discusión del otro hilo porque el cartel inicial impone muchas restricciones. No seré muy específico con esta pregunta ya respondida y antigua, sino un poco más general debido a las circunstancias. También podría ser que alguien haya dicho algo similar en las otras dos respuestas. Como dije antes, siento que necesito justificar mis comentarios en otro hilo. También estoy debatiendo las naves espaciales pequeñas explícitamente porque fue el tema de la otra discusión. Creo que está algo dentro del alcance de la pregunta. Creo que el Sr. Molot tenía buenas razones para elegir este en particular.
Estoy considerando seriamente comenzar una serie de hilos para determinar cómo sería un campo de batalla espacial (que creo que es importante responder primero), pero actualmente dudo, especialmente después de leer las respuestas en este hilo, que uno encontraría un respuesta realmente genial aquí. Parece mucho trabajo para un proyecto en el que no estoy trabajando en este momento.
Así que aquí están las únicas razones por las que puedo pensar por qué los humanos deberían manejar pequeñas naves espaciales en una batalla espacial real:
Guerra civil: si está realizando operaciones civiles pequeñas, por ejemplo, piratas espaciales o trabajo policial o simplemente una disputa entre personas privadas que necesita resolverse, podría estallar una pelea espacial entre pilotos humanos. Es poco probable que tenga un arsenal de drones de IA con usted en todo momento y tal vez las IA de batalla estén muy restringidas y las personas privadas no tengan acceso a ellas. Todo el armamento puede ser de fabricación propia o incluso ilegal. Algo así como que no puedes conducir un tanque como civil. Otra posibilidad sería que la IA de combate a bordo esté programada de fábrica para luchar contra otras cosas además de los humanos debido al asesinato. Es posible que tengas que hacer algunas cosas manualmente en la batalla. Incluso podría haber un programa implementado específicamente para evitar los duelos espaciales y la piratería; si te gusta esto, es posible que tengas que hacerlo manualmente hasta cierto punto. No creo que esto sea probable ya que esas naves todavía tendrían al menos una gran asistencia de IA, pero diría que cuanto más pequeña, de corto alcance y de ritmo lento sea la batalla, más usos tendrá para los humanos. Un ejemplo del mundo real similar a este serían las peleas a puñetazos o cuchillos: no importa que una pistola sea mejor que tu puño, a veces en un callejón oscuro es tu única opción. No puedes discutir "pero la bomba atómica es mucho mejor para matar gente" si tienes un cuchillo en la garganta.
La última batalla: los malvados alienígenas vienen a esclavizar a la colonia humana X. Así que te conviertes en un esclavo o luchas por tu libertad. Tienes una pequeña nave espacial de transporte que carece de IA de batalla y un programa de formación de batalla como lo requiere el almirante local pero con algo de armamento y en combinación con las fuerzas de defensa de IA de esa colonia, te unes a la defensa. Cada barco cuenta. A menudo es mejor morir en la batalla que terminar en una mina espacial extraterrestre.
Deporte: Bueno, algunas personas hacen cosas por deporte. La gente rema a pesar de que tenemos barcos motorizados que son mucho más efectivos y eficientes al ser barcos. Todavía la gente rema, por lo que algunas personas pueden encontrarlo divertido y participar en batallas espaciales falsas. Tal vez Disney algún día haga "la verdadera experiencia de Star Wars"
Ética y moralistas: tal vez la IA obtuvo los mismos derechos que los humanos en un mundo en particular y ya no se produce en masa. Además, la IA podría pensar que es injusto que tengan que pelear mientras los humanos disfrutan del "amor". Cada IA es preciosa, incluso el programa de orientación. Así que dejemos que los humanos hagan su parte de las cosas.
Los humanos son IA: esto lo sugerí en la otra discusión. Si tiene humanos mejorados, tal vez con IA integrada, la combinación con las cualidades humanas podría convertirlos en los mejores pilotos posibles. No sé por qué uno haría un proyecto de investigación de este tipo, pero esos humanos podrían estar hechos especialmente por alguna compañía y carecer de cosas como "libre albedrío". Tal vez uno podría incluso verlos como computadoras mejoradas con partes humanas.
No queda otra opción: (algo similar al punto 2) Estás volando por el espacio con humanos a bordo. (Opcional: tu nave ha sufrido daños. Necesitas operar manualmente porque nada funciona). Te atacan. bueno, que haces? ¿Luchar o simplemente aceptar tu destino y morir? Personalmente, no moriría solo porque no tengo IA y no soy bueno en la batalla espacial, al menos haría todo lo posible para luchar contra ellos. Lo más probable es que pierda, pero aún así, la gente contará la historia del tipo que tuvo que pilotar manualmente en una batalla esa vez.
Tome una página de Battlestar Galactica.
La IA se usó en guerras pasadas, pero se encontró que era demasiado inestable y propensa a malware peligroso para afectar la totalidad de una flota basada en IA.
Por lo tanto, se volvió demasiado peligroso implementar incluso una cantidad moderada de IA en cualquier lugar dentro de la flota en caso de que la flota se comprometiera rápida y fácilmente.
Que los aviones estén controlados por IA no implica que los humanos no los vuelen. Si los humanos existen en forma electrónica en el futuro, pueden cargarse a sí mismos en las computadoras de control de vuelo de los aviones y volar el avión.
Muchas respuestas ya. Otro punto del mundo real:
Objeciones de la élite militar
Básicamente, el punto es que los militares son organizaciones poderosas con jerarquías distintas. Ser piloto de una nave espacial podría convertirse en una cuestión de prestigio, que tienes que ser criado en una familia noble, con mucha riqueza y entrenamiento para lograrlo. A su vez, estas familias tienen mucho poder político y ven un futuro como piloto como algo para asegurar el éxito de sus hijos. Por ejemplo, piense en ellos como los caballeros medievales del futuro, cada uno de los cuales posee y mantiene sus propios barcos de combate.
Reemplazar a los humanos con IA se convierte entonces en un poderoso desafío para estas personas, haciéndolos a ellos y a sus habilidades redundantes. En tiempos de guerra, puede ser una ventaja, pero en tiempos de paz es una fuerza disruptiva en el orden social establecido.
Un enfoque más general, que puede ser compatible con muchas de las respuestas aquí:
No tienes que hacer que la IA sea imposible en tu Escenario. Basta con poner el listón muy alto: hay una serie de problemas sencillos de ingeniería física. La IA puede funcionar bastante bien en el laboratorio y un estado invirtió miles de millones en una enorme flota de IA, que fue eliminada por 10 cazas debido a (radiación, errores, previsibilidad, lo que sea). Incluso puede convertirlo en un punto de la historia que el público no sabe exactamente, por qué la gran flota de IA fue destruida tan fácilmente. Pero después de eso, la mayoría de los programas de flotas de IA vieron reducidos seriamente sus fondos.
Por lo tanto, están trabajando en naves de IA, e incluso es posible que sean mejores en combate que cualquier otra cosa. Tal vez solo tengamos que invertir otros 5 años, otros pocos millones de créditos en el desarrollo y tal vez entonces funcione. - Pero eso es bastante arriesgado y la guerra no se hace esperar. Por lo tanto, al invertir tiempo y recursos en nuevas armas, mejores barcos producirán resultados inmediatos en lugar de la apuesta a largo plazo de la IA.
Creo que es un poco como: ¿por qué no tenemos autos voladores hoy? No hay una sola razón que lo haga imposible, sino muchos pequeños problemas muy prácticos por los que la solución teórica fácil no funciona en el mundo real y necesita años de ingeniería...
Como dijo @Erik en los comentarios, lo que estás buscando son pilotos de drones. Los pilotos se sentarán en un centro de comando en una nave grande o en un planeta de origen y controlarán las naves de forma remota. Esto hace que las naves sean pequeñas y prescindibles, mientras que los pilotos reales están completamente seguros. Seguramente, la IA se habrá desarrollado lo suficiente como para volar barcos, pero puedes justificar los drones diciendo que la IA no es rival para el ingenio de los pilotos reales. ¡Este me parece el enfoque más lógico!
Dependiendo de a qué tipo de recursos tenga acceso su sociedad, podría reclamar pilotos humanos por una cuestión económica.
Si un análisis de costo-beneficio muestra que el silicio (o unobtanium o cualquier elemento esencial que requiera su IA) es más costoso que el costo de entrenar y enviar humanos, y la ventaja relativa de las capacidades de IA simplemente no justifica el costo de fabricar/mantener ellos, entonces poner carne en el asiento del piloto se convierte en una necesidad financiera.
Solo un pensamiento.
Algo que no he leído hasta ahora, a pesar de todas las respuestas, no es una IA deshonesta, sino una IA impredecible.
La IA completa real es tan increíblemente avanzada que dentro de un año más o menos después de su inicio, ni siquiera los entenderíamos. Y no sabremos exactamente qué habrá aprendido la IA. Es poco probable que tal IA solo se use para la guerra, pero también para la construcción, la investigación, el control del tráfico y casi cualquier cosa que se te ocurra. Si dejáramos a la IA en sus dispositivos, podría sacar a la fuerza a los humanos de sus edificios y construir algo más, si es que elimina a los humanos de antemano. No sabes qué y cómo aprendió ni a qué le da prioridad también. La guerra sería lo mismo, la IA podría hacer cualquier cosa para lograr sus objetivos, incluso cosas impensables para los humanos como acordar la paz y colaborar con el "enemigo" o su IA en contra de la voluntad de sus amos. Esta es una de las razones por las que la IA podría ser solo un proyecto de caja cerrada. La IA (o múltiples IA sin conocimiento de las demás) tiene un problema y tiene que crear una respuesta, luego los humanos miran las respuestas y exploran completamente las consecuencias antes de actuar en consecuencia. Esto significa que ninguna IA controla directamente nada.
El tiempo de reacción humano se basa en un sistema nervioso que es a la vez lo más rápido y eficiente posible. A través de la evolución forzada (los pilotos más lentos mueren rápido, los que viven), los programas de reproducción, la manipulación genética o incluso construirlos desde cero, podría acelerar su cerebro y sistema nervioso lo suficiente como para que deje de importar.
"no hay sigilo en el espacio", no puedes ocultar tu firma de calor contra el frío espacio negro. Pero, ¿por qué esto debería significar que no puedes engañar a los sistemas de IA débiles? Imagine que se acelera la investigación de contramedidas y que cualquier combate comienza con docenas, si no cientos, de firmas falsas. Para descubrir qué es lo que primero se acerca al compromiso (posible con FTL). Luego, para asegurarte de no desperdiciar tu munición y tu tiempo en objetivos falsos, tienes humanos que controlan a los cazas, que vuelan y luchan en una masa de contramedidas que se mueven aleatoriamente y que tanto las naves capitales como los cazas siguen lanzando en todas direcciones. Combina esto con medidas que reduzcan tu propia firma, como cambiar cuánto irradia tu superficie mientras te enfrentas a la oposición y/o almacenar calor temporalmente durante el combate.
Siento que la pregunta aquí es realmente sobre justificar la IA de casi cualquier nivel en una civilización de clase Tipo 1 o Tipo 2, usando la escala Kardashev desde la perspectiva de una civilización Tipo 0 mirando hacia el futuro.
Teniendo en cuenta que la mayoría de la inteligencia artificial se basa en programación algorítmica basada en entidades biológicas (es decir, ADN, redes neuronales/células cerebrales, comportamiento de insectos, etc.) que en realidad solo se aplican a una pequeña parte de lo que se considera inteligencia real. Habría que tener en cuenta que existen varios sistemas para construir una inteligencia "virtual" o digital.
Tomemos, por ejemplo, el mundo de Star Wars y Star Trek, ambos tienen inteligencia artificial o IA de una forma u otra. Star Wars considera que hay una IA de Android y no tanto una IA basada en lo digital, lo que implica que en un momento su tecnología tenía una IA digital pero "evolucionó" en función de factores externos u otros agentes para ser más común dentro de una forma física de androides que una uno virtual como holográfico o existente en una especie de computadora. Si bien Star Trek adopta el enfoque opuesto y tiene a su sociedad lidiando con IA holográfica y digital (que al investigar un sistema informático como LCARS no podría funcionar sin una especie de IA avanzada pero rudimentaria) como norma en lugar de androides, ¿por qué los androides se consideran innecesarios y /o no confiable con una excepción.
Ahora, mirando dentro de nuestra propia realidad, recientemente hemos desarrollado tecnología de almacenamiento 5d utilizando redes cristalinas y láseres. Muy de ciencia ficción, sí, pero debido a que no ofrecía una mejor alternativa a nuestros medios de almacenamiento basados en transistores magnéticos y de estado sólido actuales, nosotros, como personas, no desarrollamos esto. Lo mismo sucedió con las máquinas de vapor, un filósofo griego inventó la primera turbina de vapor y no fue hasta 1800 años después que el mundo redescubrió esta tecnología para impulsar la Revolución Industrial.
El punto al que me refiero aquí es que si una cultura, eventos o facciones dentro de esa cultura impiden la tasa de adopción masiva de una tecnología, entonces dicha tecnología podría dejar de usarse en raras ocasiones o ser abandonada por completo por unas pocas facciones. Por lo tanto, uno podría tener a sus protagonistas principales como una de estas mismas facciones que no utiliza un sistema de inteligencia artificial para sus cazas para nada más que sistemas guiados de vuelo por cable o avance de la automatización situacional sin ninguna interacción de un piloto, pero aún así requieren un piloto. para operar completamente la nave. Esto podría ser dictado por un órgano de gobierno o simplemente por la preferencia de ese equipo en función de sus propias habilidades, capacidades y experiencias, lo que lleva a considerar cualquier tipo de tecnología inferior de drones pilotados por IA.
Incluso se podría justificar esta inferioridad en la tecnología simplemente porque la mayoría de los sistemas de inteligencia digital o IA nunca se construyen para ser drones de nivel sapiano con una mente semi-consciente, sino simplemente un conjunto de sistemas de hardware y software creados para operar con un insecto como mente, pero aún necesita un operador porque la IA nunca fue necesaria para desarrollarse más allá de esto ni se desarrolló ningún tipo de código de mutación para permitir que la IA evolucione, replique o expanda su propia programación, por lo que nunca se convertirá en una forma de vida digital.
Siendo un gran fanático de Gundam y amante de los combates de ciencia ficción llamativos y poco realistas, me he hecho esta misma pregunta antes, y esta es la solución que se me ocurrió: las IA manejan básicamente todo durante una pelea, reacciones, comunicaciones, tácticas, predicción, etc... Los humanos todavía estarían allí solo para cometer errores.
Ahora escúchame: no hay forma razonable de que un ser humano pueda ser más inteligente, ingenioso y hábil que una IA, pero seguro que podemos ser más estúpidos que ellos. Tomaremos decisiones terribles (desde un punto de vista lógico o predictivo), y eso haría que los movimientos de la máquina fueran más difíciles de predecir. Básicamente, piense en el ser humano como un generador de semillas aleatorio. Siempre que su decisión no sea puramente autodestructiva, la IA seguirá adelante solo para deshacerse de la IA enemiga.
Solo sé que esta idea es defectuosa de alguna manera, pero inicialmente me pareció buena.
Otra idea que tuve, que coloca a los pilotos humanos en una luz mucho más brillante, sería tenerlos a cargo de las tácticas de batalla que se utilizan. No controlan la máquina en sí, simplemente dicen 'Deberíamos hacer x'. Y la IA maneja todas las maniobras y reacciones.
Desafortunadamente, ambas excusas tienen un requisito común: algún tipo de potente bloqueador de comunicaciones envolvente que impida que los pilotos humanos no estén en absoluto en la máquina. De lo contrario, los humanos simplemente se sentarán en la base mientras las IA hacen todo.
Racismo/Miedo a la máquina
Otra posibilidad sería que los humanos tengan tanto miedo de un posible levantamiento de robots que se nieguen a ponerlos en posiciones en las que puedan influir en una revuelta. Tal vez a los robots/IA no se les permita tener armas de ningún tipo, en cuyo caso un caza espacial es ciertamente un arma.
Idea: podrías hacer que tus pilotos de combate adquieran el hábito de abordar y capturar naves (o instalaciones) más grandes. En ese caso, una simple IA para pilotar el caza no es suficiente, necesitarías un robot completo. Y tampoco puede ser un robot torpe. Debe ser capaz de maniobrar a través de un barco enemigo, con partes internas desconocidas, con secciones dañadas y con resistencia enemiga a las fronteras. Luego tendría que reparar la nave enemiga y pilotarla de regreso a su territorio. (O tal vez usarlo para continuar la batalla, o como un barco espía, o en otros cien escenarios).
El punto es pasar de una analogía de la fuerza aérea a una analogía naval. Convierte a tus pilotos de combate en bucaneros y pasarás de necesitar solo una IA de piloto de combate a necesitar un robot inmensamente sofisticado. Desde cierto punto de vista, los seres humanos ya son robots inmensamente sofisticados, entonces, ¿por qué sus futuros imperios reinventarían la rueda? (Además, una cosa es tener IA en la civilización de uno. Otra cosa es tener una gran cantidad de robots que sean física y mentalmente tan sofisticados como las personas).
[editar: Me acabo de dar cuenta de que esta idea es similar a la guerra terrestre de Dune, donde los escudos son muy efectivos, excepto contra ataques lentos. Esto conduce a una guerra terrestre basada en masas de infantería (con tolvas de transporte para movilidad), involucradas en combate cuerpo a cuerpo/cuerpo a cuerpo.]
En el futuro, la IA es a la vez poderosa y sensible. En un avión de combate estándar de la Tierra, por ejemplo, una IA literalmente volaría en círculos alrededor de un humano. Pueden maniobrar alrededor de obstáculos que un piloto humano ni siquiera registraría. Pueden rastrear objetivos a través de ecuaciones físicas complejas, hasta el punto de saber dónde volarán las moléculas individuales cuando la nave sea destruida.
Si pueden hacer todo eso, ¿por qué necesitarías un piloto humano?
Los motores Handwave crean una cantidad masiva de radiación electromagnética. Obviamente, las computadoras pueden protegerse de los campos EM producidos, pero el blindaje hace que las naves sean mucho más grandes, voluminosas y, en general, menos estables. En cambio, los barcos son piloteados por un sistema de cables mecánicos, controlado directamente por el piloto, con un mínimo de componentes eléctricos endurecidos. El motor y sus componentes electrónicos están lo suficientemente protegidos para funcionar, y el piloto no necesita ningún tipo de protección, aparte de la habitual "mantener el aire dentro" y "mantener las armas de energía fuera". De hecho, los escudos pueden usar esos mismos campos EM para operar. Es ruidoso (en cuanto a la frecuencia), pero eso es bueno para un escudo; detiene la capacidad de los enemigos de usar un bloqueador o, peor aún, un resonador armónico, que amplificaría el escudo hasta el punto de matar al ocupante.
A las velocidades cercanas a la luz de los cazas espaciales, suceden todo tipo de cosas extrañas en la física. Es posible simular los efectos, pero la gran cantidad de detalles que la computadora debe conocer es asombrosa. Una computadora estándar apenas puede hacerlo en tiempo real, y las computadoras voluminosas y súper reforzadas en una nave de combate quedan muy atrás. Afortunadamente, los humanos son muy buenos para ignorar la información, sin importar cuán importante sea. Con solo unos pocos filtros básicos, un humano puede rastrear a un piloto enemigo a través del espacio tan rápido como si ambos estuvieran en aviones en la atmósfera de la Tierra.
Por supuesto, eso es a la velocidad de la luz. Una vez que las partículas de Handwavium se involucran y las naves se mueven hacia el mini agujero de gusano/velocidad warp/hiperespacio/un universo paralelo (llamémoslo Superespacio), la física realmente se va por la ventana. Nadie sabe realmente cómo es el Superespacio; más bien, los patrones de energía de ultra alta frecuencia interactúan directamente con el cerebro humano. A medida que el cerebro trata de comprender la información, traduce los patrones en imágenes, sonidos e incluso sabores. El piloto puede usar esas sensaciones para guiar su vuelo, terminando aproximadamente donde quiere: "Vuela hasta que veas naranja y huelas a higos, gira a la izquierda y continúa hasta que pruebes los arándanos calientes".
Existen ciertos patrones de energía alrededor de cada sistema solar, lo que permite a los pilotos evitar golpear planetas o estrellas; sin embargo, cada sistema tiene sus propias sensaciones, que permiten a los pilotos navegar "al tacto".
Una computadora, por supuesto, no puede hacer nada con la información proporcionada; las vagas explosiones de energía se han ido demasiado rápido para procesarlas de manera útil. Por supuesto, una computadora puede volar del punto A al punto B; solo tiene que hacer todos los cálculos con anticipación y volar a ciegas. Si algo se interpone en su camino, creará una supernova pequeña y costosa.
Miré y no pude ver ninguno. Lo siento si mencioné preguntas y respuestas, pero ¿cuál es la razón por la que las operaciones con drones están fuera de discusión? Por Drone, estoy hablando en el término militar actual, donde hay una aeronave que está siendo operada por un piloto humano que no está en la aeronave física. Lo único que podría ver como un problema con este sistema desde una escala práctica es que podría haber algún retraso en la señal (y el blindaje podría bloquear las señales, supongo).
Pero para tu programador pacifista, esto sería lo mejor de ambos mundos. Conservas la ventaja superior de un piloto humano mientras limitas su exposición en el campo de batalla. Entonces, en lugar de pelear una guerra, tus pilotos están jugando un videojuego.
Ahora, otro problema que se pasa por alto es que un portaaviones es un barco poderoso... pero también es un peso ligero bastante defensivo. Los portaaviones de la vida real están flanqueados por una pequeña flota de otras naves que sirven como pantallas contra la acción enemiga. Hay cruceros lanzamisiles (proporcionan una gran parte de los misiles antiaéreos) destructores (patrulla de superficie y acciones antiaéreas) y submarinos (mantienen seguros los submarinos) que protegen al portaaviones, que responde con todos los disparos (sin mencionar que los portaaviones operan naves polivalentes que pueden pasar del combate aire-aire al combate aire-tierra en un abrir y cerrar de ojos para pantallas adicionales contra la acción enemiga). El resultado final es que si un barco enemigo está lo suficientemente cerca del portaaviones como para que se pueda hacer contacto visual sin ayuda, algo ha ido terriblemente mal. Quizás otro motivo es que las IA tenían problemas de priorización y apuntarían primero al objetivo de mayor valor y siempre irían al portaaviones e ignorarían a los otros barcos que estaban allí específicamente para detenerlos. Claro que no es una vida humana, pero sigue siendo una inversión que no se reemplaza fácilmente cuando hay guerra.
¡Necroposteo! (Y sí, leí o al menos hojeé todas las otras respuestas). Recapitularé algunas respuestas y luego proporcionaré más de mi propia opinión.
Problemas usados de otras respuestas:
No se usa directamente, pero podría darle vida a las cosas:
Pilotar una nave espacial complicada, evitar fallas debido al fuego enemigo o un mal funcionamiento técnico, ser barato es todo lo que pueden hacer los robots. Ser "creativo", menos. Usando algunos superpoderes, incluso menos.
Necesitamos una IA débil en nuestros aviones de combate en el espacio. O bien, como alguien señaló, estamos reducidos a peleas de perros de la era de la Segunda Guerra Mundial, tal vez misiles guiados de la era de Vietnam, pero no mucho más.
Hablemos de guerra electrónica. Hay algunos niveles de piratería con comunicaciones en un combate.
Si tuviéramos un canal seguro que no puede ser pirateado, podríamos usar un solo luchador "comandante" tripulado (probablemente construir todos los demás con el mismo estándar para evitar la detección visual y la priorización de objetivos) y un enjambre de robots "actores".
Si no creemos en la comunicación segura, y más aún si el enemigo puede forzar a nuestros robots a abrir fuego amigo, necesitamos dotar a todos los combatientes.
Entonces, puedes imaginar lo siguiente:
La guerra estaba destinada a luchar con robots asesinos. Los robots estaban controlando aviones reales que parecían tripulados, porque necesitaban alguna guía desde el interior del campo de batalla. (Es la misma idea que el "tanque comandante" alemán de la Segunda Guerra Mundial, que se veía igual que uno normal, incluida una maqueta de canon, solo que al revés).
En la primera fase de la guerra, esta idea se fue espectacularmente al sur: se subestimaron las habilidades de bloqueo, descifrado y órdenes falsas del enemigo. Afortunadamente, todos los cazas espaciales se fabricaron de la forma en que podían ser tripulados.
Debido a que piratear dentro de un solo avión es mucho más difícil que piratear la comunicación entre aviones, esto funcionó. Por lo tanto, todavía usaríamos una IA débil para la navegación, el vuelo real, la priorización de objetivos, las lecturas de súper radar, etc. los robots no.
Mientras las pérdidas no sean exorbitantes, esta estrategia funciona. Pelear con aviones robot asesinos solo cuesta dinero, pero no vidas de nuestro lado. Entonces, uno podría esperar las protestas de Vietnam, si es una especie de "guerra no deseada".
Algunos cazas Su de la generación anterior (olvidé cuáles) y (que yo sepa) todos los cazas de quinta generación requieren una computadora en tiempo real para volar. Básicamente, esos aviones son aerodinámicamente inestables, cuando se mantienen quietos no pueden mantener su rumbo. Por lo tanto, para no chocar de inmediato, necesitan una computadora especial para ajustar las superficies de control un poco de manera bastante repetida. Este alto precio se paga por la mayor agilidad del avión cuando necesita maniobrar.
Por supuesto, este sistema no es una IA, pero sigue siendo una computadora. Me imagino que un avión de combate espacial tendría muchos más sistemas de este tipo. Tal vez, no todos son realmente necesarios, pero a) siguen la tendencia general (no pregunte cuántas computadoras hay en un automóvil moderno), b) mejoran ciertos aspectos del rendimiento de la máquina, y cualquier problema en guerra podría significar la diferencia entre ganar y perder.
Básicamente, lo que digo es que tener una IA débil a bordo sería una mejora bastante importante de algunos aspectos del avión de guerra y, como tal, es bienvenido. Tener un humano a bordo mejoraría otros aspectos de un avión de guerra y, por lo tanto, disfrutaría del mismo trato .
Cultura
No creo que se haya dado esta respuesta, pero tal vez tengas una casta guerrera : personas que disfrutan de la alegría de la batalla, es su razón de ser . Son un grupo políticamente poderoso, algo así como un sindicato, que no permitirá que se usen IA para luchar.
Alternativamente, podría estar en un mundo distópico , donde la vida humana es tan barata que simplemente no se preocupan lo suficiente por los pilotos para construir la IA Incluso si construir la IA es solo un costo único, sigue siendo muy costoso, por lo que ¿Por qué molestarse cuando la producción en masa de los barcos de combate es relativamente barata (con todo el trabajo esclavo) y hay millones de humanos que puedes usar para pilotarlos?
Otro tema que realmente no se aborda aquí es el control de daños : una IA podría hacer un trabajo fantástico al volar cuando todo funciona a la perfección, pero cuando la mitad de los controles de reacción están desactivados, el control de la boquilla principal está en reversión, y el el motor principal está acelerando debido a una falla en la turbobomba, sin importar la pérdida de dos computadoras y un bus eléctrico para combatir el daño, le resultará mucho más difícil "pensar fuera de la caja" para llegar a casa cojeando o incluso terminar la misión que un piloto humano bien entrenado lo haría.
En primer lugar, la IA de nivel sensible es simplemente tonta para tener en un luchador / gundam, ya que, de manera realista, es probable que no la haya, ya que aún se tendrán que tomar muchas decisiones, por lo que deben transmitirse O tener un piloto. La transmisión tomará tiempo y puede ser pirateada, por lo que no desea eso tanto como sea posible.
Esto lleva al segundo punto, si va a tener una IA Consciente y no Consciente (como debería), también puede convertir a Consciente en un organismo biológico en lugar de una IA sensible, porque entonces tiene protección. de la piratería y dos sistemas de procesamiento diferentes, uno que es tremendamente menos lógico dará como resultado una mejor oportunidad general de ganar debido a la posibilidad de encontrar cosas desde diferentes perspectivas.
Cualquier IA que tenga, adaptable o no, se basa en un conjunto de reglas. Si puedo descifrar esas reglas, puedo usarlas a mi favor como consciente. Por otro lado, el comportamiento humano puede ser impredecible y, como tal, una IA podría simplemente no ser capaz de adaptarse.
Además, si una nave está dañada y necesita reparaciones, una IA, en muchos casos, no podrá repararse sola, incluso si tiene nanitos que son seguros de usar.
Básicamente, la seguridad, la estrategia y la capacidad de reparación son mejores con un piloto humano, sin importar qué tan rápido o poderoso sea la CPU y la IA.
tim b
JMK
Mónica Celio
komodosp
hobbamok