Civilización centrada en la biología versus civilización basada en IA

Me pregunto si es posible que la civilización humana evolucione en dos civilizaciones diferentes.

Uno está controlado por inteligencia artificial (o por mentes humanas cargadas) y el otro está basado en la biología con todo tipo de avances biológicos imaginables, como cerebros interconectados, biomáquinas, organismos especializados, soldados biológicos avanzados, tanto terrestres como voladores y nadadores. tipos, nanoorganismos similares a insectos controlados, mutaciones sobre la marcha en necesidad, clonación múltiple y "personas" de aspecto perfecto con hiperhabilidades y regeneración, etc.

Ambas civilizaciones se consideran a sí mismas como la verdadera continuación cultural de la humanidad, admiran la historia humana y cosas por el estilo.

Ambas partes llevan a cabo una gran cantidad de investigación.

Me pregunto cómo se preservaría tal distinción si las civilizaciones entraran en contacto. ¿Cómo es posible evitar la mezcla de las tecnologías? ¿Pueden coexistir en el mismo planeta? ¿Cómo sería su guerra? ¿Se puede desarrollar la biotecnología avanzada sin las computadoras tradicionales (o después de rechazar las computadoras tradicionales), confiando totalmente en los enormes cerebros creados artificialmente?

ACTUALIZAR

La idea se ha plasmado en un cortometraje aquí: https://www.youtube.com/watch?v=lcaWEuspFzU

La trilogía del amanecer de la noche de Peter f Hamilton tiene esta situación exacta y la explica bien. Una excelente serie que vale la pena leer.
Esto se siente como un tema muy amplio. Cualquiera de las preguntas que enumeras en la parte inferior probablemente podría crear su propia publicación.
¿Estamos asumiendo que estas dos culturas están en equilibrio? ¿O es mejor asumir que una cultura está en posición de aniquilar por completo a la otra con fuerza mayor, pero algo los detiene?
@Cort Ammon en equilibrio, si es posible en un planeta. Si no, entonces están en planetas diferentes pero muy cerca.

Respuestas (3)

Primero, mucha configuración

Para esta respuesta, tengo que hacer muchas suposiciones sobre cómo funciona la IA frente a cómo funcionan los cerebros orgánicos. Encuentro que la respuesta más significativa proviene de un gráfico cuádruple basado en dos formas de valorar una "cosa". Ciertamente no son las dos únicas formas de valorar las cosas, pero resultan útiles para mí cuando pienso en la IA.

Gráfico el valor de los objetos sobre qué tan bien se comporta un objeto cuando funciona "según lo definido" y qué tan bien se comporta un objeto cuando funciona "fuera de las especificaciones" (es decir, cuando le pides que haga algo que no crees que es " esperado" que haga, qué tan bien se mantiene)

                Out of Spec Behavior
                Poor    |   Good
              +---------+-------------+
As       Good | Tool    | Interesting |
Defined ------+---------+-------------+
Behavior Poor | Crude   |  Resilient  |
              +---------+-------------+
  • Las cosas crudas no sirven para nada. Se desmoronan con el uso y, por lo general, no son muy buenos para adaptarse a nuevas situaciones. La categoría humana moderna de "juguetes para niños" encaja en este bloque.
  • Las herramientas son increíblemente buenas en lo que hacen mejor. Una vez que diseñamos una herramienta y entendemos sus habilidades, resultan increíblemente buenas para lograr objetivos. Sin embargo, a menudo tienen un enfoque muy limitado, incapaces de adaptarse a entornos cambiantes. Un helicóptero puede volar en formas que son una maravilla para la vista, siempre que se mantengan dentro de las especificaciones. Sin embargo, en el Everest, los humanos suben más alto que cualquier helicóptero porque el aire es demasiado delgado. Hubo un famoso rescate en las laderas más bajas del Everest donde el piloto de un helicóptero decidió que valía la pena el riesgo, pero se negó a aterrizar a esa altura por temor a que la máquina no pudiera despegar nuevamente. En su lugar, se mantuvo a unos pocos pies de la nieve, buscando cuidadosamente una señal de que el helicóptero estaba saliendo de su rango de especificación.
  • Los objetos resistentes siguen funcionando, contra viento y marea. Algunos sistemas no son conocidos por su capacidad para funcionar en condiciones ideales, sino en entornos peligrosos impredecibles donde uno no llega a prepararse. El equipo de supervivencia tiende a caer en esta categoría. Como ejemplo, existe una técnica militar apodada "cordón ficticio" en la que se descarta el núcleo de un cordón de paracaídas (para ahorrar peso) y se usan las fundas exteriores para atarse el equipo a sí mismo para que permanezca en momentos de gran agotamiento. . El cordón de paracaídas nunca se diseñó para esta operación, pero su construcción es tan resistente que resulta útil, incluso después de haber quitado la parte fuerte.
  • Los objetos interesantes mantienen nuestra atención con su comportamiento. Cuando tratamos de usarlos "en especificaciones" como herramientas, funcionan perfectamente, superando nuestras expectativas más salvajes. Cuando tenemos que usarlos "fuera de especificaciones", siguen sorprendiéndonos porque nunca fallan, incluso cuando se los somete a condiciones ambientales muy alejadas de su "entorno operativo". El equipo militar a menudo encaja en esta categoría. Considere las famosas imágenes de halos de helicópteros en el desierto cuando la arena golpea los rotores, o la legendaria capacidad de vuelo del A-10, incluso después de tomar cientos de rondas . Incluso aquellos que entienden la física de lo que está sucediendo y las decisiones de diseño que conducen a ello quedan asombrados a primera vista.

Las cuatro categorías son relativas al observador. Un relojero suizo dibujaría los límites de manera diferente a como lo haría un anciano tribal amazónico.

Presenté una hipótesis (no probada) de que la IA y los cerebros orgánicos toman un camino diferente a través de este gráfico cuádruple.

  • Si crees en la evolución, Organic Life consiste en todos los descubrimientos genéticos aleatorios realmente buenos encontrados durante millones de años. En el camino, cada una de estas ideas está sujeta a un número notable de escenarios diferentes. Los que sobreviven son los que mejoran la capacidad de supervivencia, pero lo que es más importante, son lo suficientemente versátiles como para ser útiles en miles de situaciones inesperadas. La vida orgánica se mejora a sí misma al tratar de pasar de Crudo a Resistente a Interesante.

  • Las IA son generalmente programas de computadora. Los programas eran originalmente herramientas. Actualmente, nuestros programadores son muy buenos para hacer que las computadoras hagan cosas sorprendentes en cuanto a especificaciones, pero no somos muy buenos para hacer que las computadoras hagan cosas buenas cuando sorprendemos a la impresora. Esta es la fuente de gran frustración para cualquier persona de TI que tenga que explicar por qué la entrada del usuario no fue "especificada", por lo que la computadora está fallando. AI busca ser cada vez más versátil, manejando situaciones que el programador no pensó. La IA se mejora al tratar de pasar de crudo a herramienta a interesante.

Como una generalización excesiva, asumiré que sus civilizaciones humanas centradas en la biología y la IA continuarán desarrollándose a lo largo de estos principios generales.

El efecto más obvio de estos dos caminos es que la civilización centrada en la IA querrá cambiar su entorno de forma más drástica que la que se basa en la biología. Esto se debe a que una IA de grado intermedio es una herramienta, lo que significa que funciona bien cuando se puede aplicar "según las especificaciones". La forma más fácil de asegurarse de que estas herramientas funcionen es cambiar la faz del mundo para que sea más fácil para un usuario de la herramienta AI estar seguro de que su uso está "dentro de las especificaciones".

Las civilizaciones de base biológica estarán menos inclinadas a cambiar su entorno. De hecho, si el entorno es complicado y hostil, es más fácil garantizar que todas sus creaciones sean Resilientes. Su civilización biológica estará bien con un mundo donde nunca podrán saber si sus creaciones están operando "en especificaciones", porque eso no es tan importante para su civilización. Fácilmente crearían creaciones asombrosas, pero su asombro se mostraría en la resistencia de sus diseños. No verías un bio-jetpack que se puede usar una vez para asaltar una torre de IA a través de una repisa desprotegida, pero es posible que veas un jetpack que se puede usar continuamente y tiene usos para avivar los huevos de criaturas jóvenes en veranos calurosos.Esto no se debe a que los cerebros gigantes no puedan descubrir cómo hacer un dispositivo de una sola vez, sino porque los cerebros gigantes no querrán hacer tal dispositivo. Han sido criados para buscar soluciones más resistentes.


Ahora para la mezcla y la guerra

Supondremos que cada lado tiene una fuerte identidad cultural: creen que su enfoque es lo suficientemente superior como para distinguirnos "nosotros" de "ellos".

Desde la perspectiva biológica, solo habrá una respuesta posible a la mezcla: aumentar la complejidad del medio ambiente. Si tienen miedo de las IA, entonces buscarán que "ellos" no puedan progresar. Un entorno complicado significa que es más difícil saber si las herramientas están funcionando "según las especificaciones", lo que limita la capacidad de AI para aprovechar todas sus creaciones. Por otro lado, si buscan coexistir con las IA, necesitan una forma de hacer que las IA sean sólidas como su cultura. Para hacer esto, envolverían las IA en entornos que están diseñados para parecer simples a las IA (permitiéndoles usar sus herramientas), pero en el exterior, dichos entornos son altamente resistentes (por lo que Biological puede asegurarse de que sus IA amigables nunca se enfrenten). entornos complicados fuera de las especificaciones).

Desde la perspectiva de la IA, también hay una sola respuesta posible a la mezcla: simplificar la complejidad del entorno. Si tienen miedo de los Biológicos, entonces buscarán lograr una ventaja estratégica allanando todas las complejidades del entorno Biológico. Si buscan coexistir con los Biológicos, necesitarán desarrollar un terreno común donde puedan interactuar de manera segura con Biología sin temor a salirse de las especificaciones.

Entonces, desde ambas perspectivas, hay un deseo natural de segregar. Las IA más Interesantes buscarán las regiones más predecibles lejos de los Biológicos, para asegurarse de que nunca se queden "fuera de especificación". Las criaturas biológicas más interesantes buscarán las regiones naturales más profundas y complejas de su área, lejos de las IA, para asegurarse de que las herramientas peligrosas se emboten en el viaje a su hogar.

El medio será colonizado por una mezcla de Herramientas y criaturas Resilientes que tendrán que buscarse la vida después de que las criaturas más Interesantes tomen la propiedad principal. Cuanto más quieras minimizar la mezcla, más necesitarás que las Herramientas jóvenes admiren la inteligencia de sus interesantes maestros de IA, y más necesites que las jóvenes criaturas Resilientes admiren la sabiduría de sus Interesantes ancianos orgánicos. Dependería de usted como autor decidir hasta dónde quiere llevar eso.


Sin embargo, tenga en cuenta que tal mezcla puede no ser tan mala. Considere que su adulto promedio no puede competir con la sabiduría de un anciano. Considere que su espada promedio no puede competir con las asombrosas capacidades de un arma de fuego. Pero dale una espada a un adulto promedio, y colócala en un reino con ancianos sabios pero desarmados, y zánganos que empuñan armas de fuego pero sin sentido en el otro lado, y de repente podrían ser capaces de defenderse.

Y maldita vergüenza si después de milenios de conflicto sobre quiénes son los legítimos herederos de la humanidad, si un grupo de humanos que son vistos como Crudos tanto por la IA como por los maestros biológicos por igual puede repentinamente pararse en medio de estas dos grandes fuerzas y proclamarlas herederas de ambos de sus linajes.

Equilibrar el juego

Muy a menudo asumimos que la IA vencerá naturalmente a la biología, pero hay algunos argumentos de por qué no es así de forma natural. Las IA son mejores para resolver problemas pequeños y bien definidos. La biología es mejor para resolver problemas grandes y vagos. Considere la salud de una colonia de hormigas. Si queremos matar una colonia de hormigas, no es difícil. Ponemos un poco de insecticida, dejamos que se lo coman y nos reímos de nuestra superioridad.

Las hormigas también se ríen. Por biomasa, superan a todos los humanos juntos y se encuentran en casi todo tipo de terreno en este planeta. Las hormigas están mucho menos preocupadas por la pérdida de una colonia. ¿Quizás están ganando?

La interacción entre la IA y la Biología consistiría en gran medida en que el lado de la IA atacaría por un objetivo pequeño bien definido con una fuerza superior y lo capturaría prácticamente siempre. Sin embargo, los Biológicos buscarían convertirlo en una victoria Fírica. Quieren que las IA ganen las batallas pero pierdan la guerra. Sus tácticas consistirían en dejar que las IA obtengan lo que quieren, pero asegurándose de que en cada batalla den más de lo que capturan. Los productos biológicos se destacarían en la entrega de un municipio y su uso para perder los ejércitos de IA y saquear una ciudad de IA en el comercio.

Las IA intentarían predecir su comportamiento, y ahí es donde estaría el verdadero equilibrio. La biología es muy caótica. Es virtualmente imposible predecir lo que una mente pensará a continuación. El caos es el enemigo de la planificación de la IA. No puedes aplicarle lógica, porque el propósito de moverse caóticamente es que es imposible saber si un ataque será una escaramuza menor o una guerra mayor. Ni los Biólogos sabrían cuál sería, hasta el último momento. Ahí es donde los biólogos pueden equilibrar el equilibrio.

Hay un estilo de lucha en el que te configuras a ti mismo y a tu entorno de tal manera que no evitas que tu oponente haga nada y no te comprometes con nada. Solo asegúrate de obtener una ligera ventaja sin importar lo que hagan. Entonces esperas. Debido a muchas matemáticas que no pondré aquí, descubrí que esto es mucho más fácil de lograr con biología (centrándose en la resiliencia) que con IA (centrándose en la lógica y las herramientas). La biología le daría a la IA unos pocos miles de millones de opciones, todas las cuales se ven bien, pero cada una de las cuales tiene fallas. La IA tendría que analizar cada uno de ellos, mientras que Biología sabe que no necesita hacerlo. Sea cual sea el camino que elija la IA, Biología está lista.

Esta técnica depende mucho del comportamiento caótico. Si la IA elige no hacer nada, sus predicciones se vuelven exponencialmente menos precisas, lo cual es brutal para la planificación a largo plazo. Esta técnica obliga a la IA a tomar una decisión, sin darle tiempo para tomar una decisión sabia.

"El efecto más obvio de estos dos caminos es que la civilización centrada en la IA querrá cambiar su entorno de forma más drástica que la basada en la biología". - Yo dudo. Las máquinas pueden soportar condiciones mucho más duras que las formas de vida. Hay algunas condiciones que las formas de vida no pueden tolerar en absoluto. También tenga en cuenta que ambas civilizaciones no se basan en la evolución, ambas utilizan un diseño consciente en su desarrollo.
@Anixx: saqué esa suposición de la historia. Existe una correlación extraordinaria entre cuánto trata una sociedad de cambiar su entorno y su dependencia de la tecnología. En cuanto a las condiciones más duras, las máquinas en condiciones más duras suelen negociar un buen precio por esas condiciones: suelen ser mucho más simples o mucho más costosas de desarrollar. Asumí que ambas civilizaciones tenían recursos limitados.
Ninguna de mis suposiciones se basa en la evolución. Sin embargo, existe la suposición de que una comunidad biológica continuará creciendo a partir de sus raíces evolutivas, en lugar de tratar de hacer una ruptura limpia. He descubierto que los sistemas orgánicos prefieren evitar hacer cortes limpios.
"correlación entre cuánto trata una sociedad de cambiar su entorno y su dependencia de la tecnología" - ¿puede deberse a que una civilización subdesarrollada no tiene los medios para hacerlo? Puedo imaginar una civilización basada en computadoras tratando de enfriar o calentar el planeta o privarlo de agua o aire en extremos para hacer imposible la vida biológica. O claro, si su ideología permite manchar “la cuna de la humanidad”.
Hmm, ese es un buen punto. ¿Qué marco de tiempo estás mirando? Si las máquinas tienen el poder de una estrella a su disposición, y la biología se ha liberado por completo de sus raíces evolutivas, se vuelve mucho más difícil hacer afirmaciones sobre cómo interactuarán o no la biología y la IA.
Y en cuanto a la idea de intentar hacer inhóspito el planeta, la situación de regreso sería cierta. Lo biológico buscará hacer que el planeta sea altamente impredecible, haciendo más difícil aplicar un calentamiento o enfriamiento tan crudo. La imprevisibilidad es la debilidad de la lógica, y las IA deberían depender más de la lógica que los biológicos.
@Anixx: Agregué una sección sobre el equilibrio de las carreras. Creo que eso podría ayudar a explicar por qué creo que el patrón biológico que planteé como hipótesis es viable.

Las dos culturas (hardware y wetware) pueden intercambiar productos. También sería beneficioso para ellos que sus científicos/académicos se consultaran entre sí.

De todos modos, la cooperación y la interdependencia son mucho más beneficiosas para ambas culturas.

Incluso sería interesante que tuvieras una tercera cultura que combine ambas filosofías. Voy a tomar prestada una palabra del documental "I videogame" y los llamaré "rompedores de cultura". Harán lo que hacen los que rompen la cultura: tirar de los límites o desdibujar los límites de estas dos filosofías.

Serían generalmente (pero no exclusivamente) jóvenes dispuestos a probar cosas nuevas.

Y quizás una cuarta cultura, que rechaza gran parte de las dos primeras.
@jamesqf Muy cierto.

Iba a hacer solo una pregunta: ¿qué QUIEREN realmente sus IA? - pero luego me di cuenta de que también podría preguntárselo fácilmente a su cultura biotecnológica. Creo que si puede encontrar respuestas plausibles, tendrá la mayor parte de la respuesta.

Una de las muchas posibilidades es que las IA vean a los biotecnológicos como una amenaza y quieran exterminarlos. Otra es que las IA están perfectamente felices de permanecer en sus cavernas subterráneas de silicio y quieren controlar a los biotecnológicos para mantener estable el suministro eléctrico.