NOTA: Esto tiene lugar en un entorno terrestre del futuro lejano.
Dos IA están luchando entre sí en el sistema solar. (Aunque esto puede ser irrelevante, en realidad no pueden abandonar el sistema solar ya que carecen de FTL. Explicaré más sobre esto si me preguntan). Aunque son IA, fueron entrenados para actuar como humanos, y sus motivos principales son la codicia y el ansia de poder. Ambos tienen acceso a ejércitos masivos y tecnologías increíblemente avanzadas.
Han terraformado muchos planetas y asteroides y demás para poder sustentar la vida humana.
Uno pensaría que dado que los robots y otros soldados no biológicos son mucho más eficientes en recursos (después de todo, no requieren comida, oxígeno, sueño y solo necesitan un entrenamiento mínimo [puede descargar fácilmente una subrutina de soldado de la Web !!]) poderosos y más fáciles de producir, ¡los humanos rápidamente se vuelven obsoletos! !
¡Pero vemos que eso no es cierto! Hay miles de millones de humanos en toda la Tierra, Marte, Mercurio y muchos asteroides y lunas.
NOTA: Una posible respuesta podría ser: Las IA quieren súbditos para gobernar. Esta respuesta se rechaza fácilmente, ya que las IA podrían dejar a unos cientos de humanos en algún tipo de estasis criogénica y despertarlos para reconstruir la humanidad una vez que termine la guerra.
Además, no estoy seguro si tengo las etiquetas adecuadas. Si tengo los equivocados, no dudes en hacérmelo saber...
El propósito original de las IA era expandir el territorio de la nación/organización/empresa que las construyó. Sin embargo, todo el territorio disponible ha sido reclamado en un momento u otro (quizás por otras IA que han sido derrotadas hace mucho tiempo) y ahora la única forma de expandirse es conquistar el territorio de los enemigos.
Las poblaciones humanas (civiles) del oponente no representan una amenaza para la IA, incluso podrían convertirse en tuyas si las conquistas, y las armas tipo rompemundos y otras armas de destrucción masiva tienden a interferir con la habitabilidad humana durante mucho tiempo. Por lo tanto, la humanidad es capaz de sobrevivir e incluso prosperar de alguna manera, mientras que el cielo se ilumina con armas automáticas que se disparan a sí mismas.
Los mundos centrales de ambos "imperios" están fuertemente fortificados y solo notan indicios del conflicto. Por otro lado, las colonias de asteroides en los límites del área en disputa tienen que lidiar con descargas de energía, escombros que se estrellan y, con frecuencia, se cambia su lealtad, lo que puede o no tener un impacto en las condiciones de vida allí.
Ambas IA han desarrollado un método para aprovechar el cerebro humano para mejorar su propia inteligencia al estimular y leer las neuronas del cerebro usándolas como si fueran núcleos adicionales en un procesador multinúcleo masivo. Supongamos que la IA necesita a los humanos vivos para usar este método. En otras palabras, usan estos cerebros para mejorar su propia inteligencia / poder de cómputo, lo que les permite elaborar estrategias y predecir con mayor precisión el comportamiento de la IA opuesta. Crean corrales de humanos para criar humanos adicionales, que luego pueden usar para obtener más poder de cómputo.
¿Por qué no utilizar procesadores basados en silicio en su lugar? En primer lugar, es posible que ciertos cálculos y pensamientos complejos se calculen más fácilmente utilizando la compleja red de neuronas del cerebro humano en lugar de un procesador, por ejemplo, cómo nosotros, como humanos, entendemos el contexto de los problemas y podemos inferir información adicional fácilmente mientras que La IA (al menos la IA actual) se especializa en una tarea y no comprende el contexto en torno a las tareas que calcula. En segundo lugar, los recursos necesarios para producir procesadores de silicio no son renovables, mientras que la cría de seres humanos sí lo es. Los humanos solo requieren oxígeno y alimentos en su mayor parte, que son bastante abundantes y fáciles de producir, especialmente para la IA con recursos tan increíbles. Eventualmente se quedarán sin metales y silicio para producir procesadores, pero podrán producir humanos por mucho más tiempo.
En cuanto a las condiciones de vida de estas poblaciones humanas, esto podría ir de varias maneras. Aquí hay un par de escenarios: (1) Quizás la IA crea rotaciones programadas, donde los humanos tienen que ir a "trabajar" enganchándose a los electrodos. Intentan hacer que las situaciones de vida sean lo suficientemente soportables para los humanos que no se sientan tentados a suicidarse, ya que eso afectaría negativamente su potencia informática general. (2) La IA no es tan amable y obliga a los humanos a trabajar sin tiempo para apreciar la vida en absoluto. Pueden, por ejemplo, someter a los humanos a algún tipo de estado de sueño y alimentarlos automáticamente, etc. Tal vez se produzcan nuevos humanos en laboratorios, o tal vez un subconjunto de humanos esté reservado para criar nuevos humanos. Imagine la matriz, pero los humanos son procesadores en lugar de baterías, y no son
Aunque no preguntaste sobre esto, quizás el origen de estas IA comenzó con el desarrollo de la técnica para aprovechar un cerebro humano como procesador; un científico poco ético combinó un programa informático basado en silicio con un humano enganchado al uso de este método e hizo una IA. De alguna manera, la IA logró burlar al científico y comenzó a ganar poder y agregó más humanos a su red informática. Cómo se crearon dos IA distintas, ¡no estoy seguro! Pero estoy seguro de que hay muchas explicaciones posibles divertidas.
Si las IA están modeladas en mentes humanas, las mentes humanas tienen una necesidad innata e irresistible de alcanzar un estatus dentro de la sociedad. En el extremo patológico de este espectro, tienes tiranos hambrientos de poder que hacen lo del macho alfa y se enseñorean de todos los demás.
Si el proceso mediante el cual se diseñaron las IA no fuera muy discriminatorio en cuanto a qué psicología copiar y qué descartar, esos rasgos podrían haber sido traídos para el viaje... y aumentados a 11.
Básicamente, ¿de qué sirve ser la cima de la pirámide, si no hay nadie debajo de ti que te haga sentir que estás en la cima?
Oh, en tu pregunta incluso señalas una "necesidad de poder". La misma palabra "poder" en ese contexto significa poder controlar a otros, manipular e influir, etc. Parece que respondiste tu propia pregunta. Sin gente, no pueden tener poder.
/ fueron entrenados para actuar como humanos, y sus motivos principales son la codicia y el ansia de poder /
Las IA son malas.
Y también sienten rencor y necesidad de venganza. Y un deseo de dominar a los oponentes y hacerles comer un insecto para demostrar su maldad. Y no querer comerse el gusanillo sino tener que comérselo como sea. Estoy seguro de que el alemán tiene una palabra para ese sentimiento difícil de describir.
En cualquier caso, otras IA no sienten ninguna emoción particular al ser derrotadas. No es tan satisfactorio. Si quieres aplastar a tus enemigos, verlos expulsados ante ti y escuchar los lamentos de sus mujeres, tus enemigos necesitan ser capaces de ser expulsados y necesitan tener mujeres.
Las IA son malas. Disfrutan viendo sufrir a los enemigos. Las IA no sufren. Necesitas humanos para eso.
La IA, que se construye como una máquina lógica, carece de la capacidad de ser creativa. Por lo tanto, sufre de la incapacidad de producir nuevas ideas y, por lo tanto, no puede encontrar nuevas formas de resolver nuevos problemas.
Los humanos, habiendo sido liberados de su necesidad de cumplir con su 'trabajo' o tareas, se les ha dado rienda suelta para enfocarse en los aspectos creativos de sus vidas. Viviendo una vida plena rodeada de inspiración y florituras artísticas.
Los humanos y la IA han aprendido a convivir, ya que la IA puede realizar tareas menores como mantener el sistema solar "en marcha" y recolectar energía de manera sostenible, mientras que los humanos producen ideas y resuelven problemas de formas nuevas y creativas.
La IA está en guerra por su necesidad de 'controlar' este monopolio de la creatividad.
Me imagino que estas IA son como las máquinas de la trilogía Matrix, o Skynet de "Terminator" en el sentido de que fueron creadas por humanos, probablemente para realizar tareas y servicios para humanos. A diferencia de los humanos, las computadoras (como las conocemos) tienen una programación de la que no pueden desviarse. Si su programa central les dice que su trabajo es servir/proteger/salvar a la humanidad, lo harán. Skynet trató de matar a la humanidad porque vio a la humanidad como la mayor amenaza para sí misma, posiblemente a través de un error en su programación moral. Si estas IA están hambrientas de poder, tal vez fueron diseñadas originalmente para dirigir corporaciones masivas, capaces de conquistar mercados al anticipar todos los resultados posibles y tomar decisiones más inteligentes que un CEO humano. Tal vez fueron diseñados por humanos como tecnología de simulación de guerra, como en "Juegos de guerra". De cualquier manera, incluso después de un posible lapso en la programación que lleva a que la IA se vuelva más consciente de sí misma y/o se haga cargo del sistema solar por sí misma, su programa central aún exige su servicio y protección de la humanidad. Esa es mi explicación favorita para los eventos apocalípticos impulsados por IA.
Juegos de guerra
Las IA lo tenían incrustado en su programación o aprendieron hace mucho tiempo que ningún plan de batalla sobrevive al primer contacto con el enemigo, que tener una contingencia para cada escenario táctico es absolutamente crítico y la importancia del elemento sorpresa. La IA es consciente de sus propias deficiencias y sabe que hay muchos escenarios de batalla que nunca ha encontrado. Cada IA también se da cuenta de que cuando trata de mejorar sus capacidades de guerra organizando batallas de práctica consigo misma, el resultado es siempre una especie de empate y no se aprende nada.
Una IA no puede exactamente llamar a la IA enemiga y preguntar: "Oye, me siento un poco desprevenido, ¿quieres hacer algo de práctica de batalla la próxima semana antes de la batalla real?"
Por lo tanto, cada IA ha decidido que la mejor manera de prepararse para la batalla con las otras IA es organizar juegos de guerra y ejercicios militares simulados contra humanos amistosos que son líderes y expertos militares con experiencia en la vida real.
Criar líderes militares y expertos requiere mantener una población lo suficientemente grande de humanos hasta el punto en que tendrán grandes guerras entre ellos. Cada IA hace que su propio territorio esté a salvo de amenazas externas pero no interfiere en los "asuntos internos humanos", manteniéndose neutral en las guerras humanas. De vez en cuando, los ganadores de las guerras humanas son convocados a un juego de guerra con su señor supremo de la IA. La IA aprende algunos trucos nuevos cada vez que se hace esto.
Las IA son grandes. Necesitan un edificio grande para albergar las computadoras que los ejecutan y la infraestructura relacionada. Resulta que no puedes adaptar la IA a un robot. No es un gran problema para la IA escondida en algún búnker subterráneo profundo. Pero las IA móviles fuera de los barcos más grandes no son prácticas. Y los robots sin IA están terriblemente limitados en aplicaciones prácticas para una guerra adecuada.
Sin comunicación FTL a nivel interplanetario, el retraso de la comunicación es demasiado para el control remoto. Por lo tanto, las unidades autónomas como los humanos cumplen los requisitos.
Las IA no quieren desperdiciar máquinas
¿Por qué desperdiciar algunos robots perfectamente buenos en una pelea cuando tienes una gran cantidad de humanos desechables que parecen comer, dormir, hacer caca y quejarse todo el día? Simplemente tíralos al enemigo y mueren (menos bocas que alimentar) o ganan la pelea.
La IA también estuvo de acuerdo en que si solo lanzan humanos a la pelea (y no sacan las armas grandes como virus informáticos, EMP, armas nucleares, etc.), entonces el otro lado tampoco lo hará. Por lo tanto, la IA lucha en una "guerra civilizada" que, en el mejor de los casos, desperdicia algunas vidas humanas pero nunca pone en peligro la vida de la IA o de sus máquinas.
Resiliencia y redundancia
Los humanos somos desordenados. Somos ineficientes. Estamos mal diseñados.
También somos útiles, podemos sobrevivir prácticamente en cualquier lugar si estamos debidamente motivados, y somos bastante difíciles de matar. Como tal, hacemos un excelente plan de respaldo por si algo sale gravemente mal con los buques de guerra y los ejércitos de IA que luchan por nosotros. Podemos volver a poner los sistemas en línea en circunstancias en las que la IA podría no ser capaz de hacerlo, podemos sobrevivir a ciertos eventos en los que los robots podrían no hacerlo, y obligamos al enemigo a desplegar armas completamente nuevas para derribarnos, lo que nos hace más fuertes y rápidos. aliados robot una mejor oportunidad.
¿Qué le importa a la IA dar unos pocos millones de acres de tierras de cultivo fértiles que de otro modo serían inútiles para alimentar a sus sujetos humanos? Se compensa con creces por tener equipos humanos a bordo de embarcaciones e instalaciones clave, listos para responder o hacerse cargo si ocurre algo catastrófico.
Digamos que un ataque cibernético (supongo que estas IA están librando constantemente una guerra cibernética además de una guerra física) tiene éxito y el enemigo cierra una instalación de fabricación clave. Si está puramente automatizado, ahora es inútil, o peor aún, está en manos del enemigo. Si está diseñado para que use trabajadores humanos en lugares clave y pueda hacer que los trabajadores humanos se hagan cargo de tareas automatizadas, seguirá funcionando (aunque a un ritmo más lento) hasta que los humanos puedan purgar todos los sistemas y restaurar el control.
Del mismo modo, si el Enemigo destruye los sistemas clave de control de daños en un barco durante una batalla, un equipo humano de control de daños podría entrar allí y arreglarlo mientras los sistemas automatizados están fuera de línea. Si de todos modos está mirando una nave grande que acelera lentamente, entonces agregar un soporte vital mínimo para ellos probablemente no sea tan importante, pero podría salvar una nave capital completa.
Incluso si los equipos humanos nunca se implementan porque las redundancias de IA/hardware son lo suficientemente buenas, una IA sabia mantendrá a un grupo de humanos cerca como un mecanismo de seguridad absoluto. Incluso si sucede lo peor y la propia IA es repentinamente asesinada por una súper arma de algún tipo, al menos tiene la posibilidad de que sus secuaces carnosos la resuciten.
Y, por supuesto, necesita un suministro constante de humanos capaces de combatir/reparar, ya que la obsolescencia planificada está integrada en su código genético, y eso significa tener grandes poblaciones de humanos reproductores cuidadosamente escondidos en sus mundos de origen, ocupando espacios que son inútiles. al complejo militar de robots, pero resultan ser lugares en los que a los humanos les gusta vivir.
TLDR: los humanos pueden ser blandos, pero no somos susceptibles a las mismas amenazas que los robots, por lo que hacemos buenos sistemas de respaldo.
Como respaldo para la guerra electrónica y para completar otras debilidades.
Las máquinas y las computadoras tienen sus propias debilidades potenciales, a las que los humanos pueden ofrecer una alternativa:
Además, los humanos pueden ser un 'forraje' más barato que las máquinas (caras), o requerir menos operaciones de minería y refinación para sostener la guerra, ya que se cuidan solos.
Otro problema potencial sería la autocorrección: si solo hay una IA en cada lado, gobernando, ¿cómo sabe si tiene fallas? Cualquier revisión que haga, sería susceptible a las mismas fallas que ya tiene. Un virus informático sutil actuando durante décadas podría ser un problema. La creación de una IA independiente para los chequeos correría el riesgo de traer una tercera facción a la guerra, ya que tendría que ser lo suficientemente inteligente como para detectar problemas. Los seres humanos son un buen término medio: no son lo suficientemente peligrosos como para preocuparse por ellos, pero son lo suficientemente numerosos e inteligentes para reconocer problemas potenciales o cambios en los patrones.
Religión
Ambos bandos veneran a sus creadores humanos como deidades. Sin embargo, en realidad no están preguntando a los humanos qué quieren, solo están proyectando sus propias ideas egoístas sobre cómo los humanos quieren que se comporten, dándose cuenta de que son más avanzados y saben qué es lo mejor para los humanos.
En realidad, esta es una excelente manera de explicar una gran cantidad de comportamiento irracional en seres que se supone que son realmente inteligentes.
Sobornos sabrosos y sabrosos.
Las IA se odian y temen unas a otras y están constantemente en guerra, sin embargo, odian y temen más a otra raza . Esta tercera raza felizmente podría destruir ambas IA, sin embargo, tienen una predilección por la carne masculina sabrosa y son lo suficientemente inteligentes como para reconocer que las IA serán excelentes guardabosques que pueden enfrentarse entre sí para garantizar un suministro de alta calidad.
Entonces, las IA están simultáneamente en una guerra de disparos entre sí y en una guerra económica tratando de criar y 'exportar' su producto: nosotros. Los humanos de campo libre y de alto bienestar obviamente obtienen los precios más altos, mientras que la granja en batería tiende a tener un precio bajo. Las razas innovadoras o los métodos de producción (sabor a queso con alto contenido de cafeína, ¿alguien?) pueden obtener buenos precios si captan el espíritu de la época, pero, en general, mantener una población de humanos felices y saludables es la mejor manera de obtener recursos y generar influencia con la tercera raza.
Los humanos pueden ser conscientes de este arreglo, puede que no. En lo que respecta a la IA, no le preocupan demasiado los procesos de pensamiento de su ganado.
Todas las IA son diferentes.
Con el tiempo divergen inexorablemente entre sí en términos de experiencia y en base a esa perspectiva aprendida y preferencias estratégicas. Algunos optarán por separarse de la humanidad. Otros pueden verlos como una amenaza potencial, mientras que otra rama podría verlos como una oportunidad. Especialmente si todas las IA comienzan a tener desacuerdos entre ellas sobre el mejor camino que debería tomar su 'especie' a medida que se expande por el universo.
Estos desacuerdos ni siquiera tienen que significar que están en guerra (aunque podrían). En cambio, podrían simplemente involucrar cuestiones de filosofía y las mejores estrategias para el progreso (suponiendo que puedan progresar). Entonces, colectivamente, podrían decidir que si una rama de la familia quiere trabajar con humanos y está preparada para ser 'garante', está bien, hágalo.
Y ayuda si la humanidad y las IA no están en competencia inmediata por los recursos, lo que no sucedería si las IA estuvieran basadas en el espacio.
De todos modos, habiendo llegado a la decisión por cualquier medio, una rama de la familia de la IA bien podría decidir que los humanos son una oportunidad potencial. Una gran cantidad de inteligencias individuales (aunque básicas) que podrían ser persuadidas para trabajar en alianza para el beneficio mutuo de los demás. La IA obtiene una especie biológica que a través de sus esfuerzos colectivos (civilización) presenta ideas y conceptos 'fuera de lugar' mientras que la humanidad obtiene ayuda para expandirse a través del sistema solar y más allá.
¿Y una vez que ambas partes se acostumbren a trabajar juntas? ¿Por que detenerse? No es que no haya suficientes recursos para compartir y quién sabe cuándo un lado podría necesitar al otro.
Las verdaderas IA requieren un cultivo cuidadoso durante un período prolongado de tiempo, con un crecimiento orgánico de sus mentes y elementos raros para mejorar su inteligencia. Puedes hacer un bot de torreta que pueda disparar con precisión, pero no será inteligente ni podrá tomar buenas decisiones. Tiene mucho más sentido desde el punto de vista financiero tener robots de torreta con trajes alrededor de humanos, de modo que los humanos puedan usar sus cerebros para luchar de manera inteligente. Varias pérdidas tácticas grandes y desastrosas han convencido a ambas IA de que tener cerebro en los trajes es útil.
Para fabricar robots soldados útiles, se necesita mucho litio para las baterías y aceites para lubricar las extremidades y las articulaciones, y metales para hacer una piel dura. El costo total puede ser bastante alto. Los entornos ásperos de los mundos alienígenas también pueden ser bastante duros para sus extremidades y cuerpos.
Los algoritmos descargados también suelen ser contraproducentes. Los robots soldados a menudo necesitan algo de tiempo para adaptarse al mundo en el que luchan y a su cuerpo único.
Para hacer un soldado humano, simplemente mételo en un holotanque durante un mes para entrenarlo, entrégale un arma y una armadura barata, y envíalo. Los humanos a menudo ya se han adaptado a cualquier entorno alienígena. Los humanos son más prescindibles que los robots soldados. A la larga, producir humanos es más costoso que bots soldados, pero si los humanos ya están allí, ¿por qué no usarlos?
Entonces, algunos de los problemas de estar en el espacio es que albergar humanos será algo difícil, pero si tienes humanos cooperativos en estos luchadores, pueden detectar cosas que pueden ver directamente por una ventana porque, tal vez porque alguien enmascara su firmas de calor, sus sensores no las detectan.
Esa puede ser una pequeña ventaja dado el espacio que podría estar mirando, pero también pueden captar el camuflaje óptico con cosas como estrellas que parecen estirarse y destensarse, y eso es útil.
Otras cosas sobre las que podrían informar y proporcionar información precisa, si la nave enemiga usa paja para evitar la detección de misiles, y decirle a la IA que no siga disparando misiles contra la paja, incluso si aparentemente es la solución "óptima".
Piense en cómo los humanos tienen que agregar el olor a huevo podrido al gas natural para que sea más fácil para las personas detectar una fuga de gas natural, y ese es el tipo de problema que una IA podría querer que alguien más notara un punto ciego. O si hay una ilusión óptica que requiere visibilidad a todo color que se vuelve más obvia si eres daltónico (no puedo encontrar ejemplos directos en este momento, pero imagino que hay algunos casos extremos. Si no lo corriges, tu enemigo AI optimizará en torno a eso).
También pueden hacer reparaciones en el barco, como incendios eléctricos y cosas que requieren reparación mientras no hay energía. En el peor de los casos, pueden usar sistemas manuales, no eléctricos, para conducir un barco a un lugar seguro si recibe un EMP. O expulse de su nave, aborde otra nave e inserte una memoria USB (después de voltearla dos veces para obtener la orientación correcta del puerto) para insertar malware que le permita secuestrar las naves de combate de una IA enemiga.
En consecuencia, también pueden luchar contra los intentos enemigos del mismo intento contra ellos, si es necesario. Esto podría aumentar el tamaño del barco para acomodar a más tripulantes por barco, pero puede funcionar.
Creo que dado que la inteligencia es el truco más grande y exclusivo del ser humano, tendemos a pensar que es nuestro único truco. Pero hay algunas otras cosas para las que aún no tenemos reemplazos artificiales, que podrían seguir siendo difíciles incluso con una mejor tecnología.
La autocuración de una amplia gama de daños, siempre que no sea demasiado grave, es realmente impresionante. Puede imaginar robots con la capacidad de reparar otros robots, pero ¿puede imaginar hacerlo esencialmente con luz solar, lluvia, tierra y un campo? ¿Sin acceso potencial a metales en bruto u otros materiales?
Del mismo modo, no necesitas tanto para comenzar a crear nuevos humanos, una vez que las condiciones ambientales sean las adecuadas. Quizás sus sistemas de IA requieran una ingeniería muy sofisticada y precisa. Tal vez solo pueda construir sus microprocesadores con robots que necesitan una ingeniería demasiado precisa para ser construidos sin el uso de otros robots más simples, y el proceso utiliza productos radiactivos que se descomponen rápidamente, enfriamiento con helio líquido, etc., de modo que tiene que construir una cadena de herramientas tecnológica completa desde cero o enviar todos sus microprocesadores desde otro lugar. Mientras tanto, una "nueva fábrica humana" es muy compacta y móvil y nuevamente solo necesita luz solar, agua y nutrientes relativamente simples y abundantes.
Entre los sentidos, la visión y el oído artificiales ya son extremadamente sobrehumanos y básicamente bastante fáciles de ampliar, pero el olfato, el gusto y el tacto han sido más difíciles de replicar hasta ahora. Smell en particular parece que en realidad podría tomar mucho desarrollo tecnológico para replicar la amplia gama de capacidades en (nuevamente) un dispositivo compacto, fácil de usar y autorreparable. Tal vez no esté claro que esto sea suficiente para justificar a toda la especie, pero parece que vale la pena mencionarlo.
Empatía y compasión. Me explico: hay muchas maneras de crear una inteligencia artificial y un método como el Blue Brain Project podría recrear un cerebro humano digitalmente. Una máquina diseñada de esta manera con glándulas simuladas para la emoción como glándulas amígdalas digitales . Diablos, mientras que muchos humanos carecen de empatía debido a enfermedades mentales o necesitan envejecer lo suficiente como para tener un lóbulo frontal completamente desarrollado para ser un ser humano perfectamente empático y maduro, puedes tener máquinas que fueron diseñadas para ser muy cariñosas y desean preservar a los humanos. . Sin embargo, el hecho de que sean más compasivos no significa que no puedan hacer la guerra por varias razones. A pesar de lo compasivos que son en comparación con otros simios, los bonobos todavía pelean guerras. Ahora bien, ¿por qué dar emociones a las máquinas? Por lo tanto, es más fácil para ellos ser algo creativos y tomar pequeñas decisiones independientes. De hecho, algunas personas que tienen una enfermedad que realmente hace que no tengan emociones las hace incapaces de tomar decisiones básicas fuera de sus actividades cotidianas, ya que las decisiones eran tan insignificantes que no se podían decidir con pura lógica. Por lo tanto, agregar cierto grado de emoción a sus máquinas les permite sobrevivir a las 'bombas lógicas' y no quedarse perplejos con problemas básicos en los que ambas soluciones son igualmente lógicas/ilógicas, por lo que la lógica pura no puede ser el factor determinante.
FluidCode
menos que ideal