Esta es la premisa fundacional de la ciencia ficción “El problema de los tres cuerpos”
Comienza con dos axiomas.
con dos supuestos
Comencemos con un experimento mental. Suponemos que la civilización A descubrió la civilización B.
La civilización A tiene dos opciones principales
Ahora notamos que simplificamos este problema categorizando dos tipos de civilización en el universo.
hostil y amistoso
Una civilización hostil atacará a otra civilización cuando se descubra otra civilización. La civilización amiga solo atacará cuando esté amenazada.
Ahora aquí viene la cadena de sospecha
Este es un ciclo sin fin. Y aunque en la Tierra podemos eliminar la sospecha comunicándonos. En el espacio, la comunicación está limitada por la velocidad de la luz y, por lo tanto, no puede estar seguro de si el ataque está en marcha mientras se está comunicando. Es óptimo no contactar. Y seamos pedantes aquí, notamos que es óptimo no contactar cuando B está más avanzado tecnológicamente que A ya que A no tiene forma de saber la verdadera intención de B debido a la cadena de sospecha. Vale la pena decir que si A es más avanzado tecnológicamente, no hay riesgo.
Sin embargo, aquí viene otro problema. Volviendo a la segunda suposición de nuestro experimento mental. Si A no hace nada o procede a contactar, observamos que existe la posibilidad de que ocurra una explosión tecnológica en la civilización de B. B podría ser capaz de superar a A tecnológicamente. Ahora, dado que A no tiene forma de saber la verdadera intención de B, para garantizar el primer axioma, A solo tiene un movimiento óptimo: destruir cualquier civilización cuando se descubra.
Esto es lógico.
Considere la siguiente matriz de pagos en teoría de juegos
B\A contacto (destruir) no contacto
Contacto (Destruir) (0,0) (0, -infinito)
Sin contacto (-infinito, 0) (-K, -L)
donde K es la probabilidad de que A supere a B y que A sea hostil y L es la probabilidad de que B supere a A y que B sea hostil.
Podemos ver que el único Equilibrio de Nash claro es (Destruir, Destruir)
Nota: Obviamente, esta es una forma burda de aproximación, pero podemos deducir de la Selección Natural que probablemente solo haya tres tipos de civilización sobreviviente: Aún no detectada, muy buena para esconderse, siempre destruir.
Esto da lugar al Postulado del Bosque Oscuro.
El universo es un bosque oscuro. Cada civilización es un cazador con un arma. Pasan silenciosamente por el bosque como un fantasma. Deben ser extremadamente cautelosos y hacer todo lo posible por guardar silencio, porque saben que hay varios cazadores por ahí. Y si un cazador descubre a otro, no importa si es un ángel o un demonio, un viejo o un joven...... lo único que puede hacer es matarlo. En este bosque, los demás son la eterna amenaza. Cualquiera que revele su ubicación será destruido.
Hay un número ridículo de "soluciones" a la "paradoja" de Fermi. Aquí hay una muestra.
El espacio es enorme. Dada la tasa de siembra de vida inteligente a través de la abiogénesis + evolución, no podemos esperar encontrar nada.
La vida inteligente está tratando de contactarnos todo el tiempo, pero no estamos escuchando porque no nos damos cuenta de cuál es el método de comunicación más efectivo.
Las galaxias están increíblemente separadas, y la tasa de siembra da una expectativa de menos de una civilización por galaxia. Nadie se molesta en tratar de llegar a la nuestra desde la suya porque el costo/beneficio simplemente no existe (¿pago en cien millones de años?).
Todos se dan cuenta de cómo cambiar a una existencia de energía oscura donde puedes (potencialmente) tener máquinas de movimiento perpetuo y dejar atrás el universo que conocemos.
La guerra entre especies es un problema mayor que el conflicto entre especies. Las civilizaciones inteligentes se quedan pequeñas o se atascan luchando contra sí mismas.
Las otras civilizaciones conocen el resultado del equilibrio de Nash, y que para sortearlo se necesita mucho tiempo para las interacciones recíprocas. Se necesita un tamaño mínimo de civilización para que eso sea práctico. No se molestan con nadie más pequeño.
Están luchando entre sí, no particularmente en secreto, pero al aire libre. Están demasiado ocupados para molestarse con nosotros.
Y así sucesivamente.
En cualquier caso, simplemente no es cierto que la solución del bosque oscuro sea la única. El modelo de la Federación de Planetas (Star Trek) es una buena alternativa: acuerdos mutuos para la defensa, por lo que si alguien intenta ser un cazador oscuro, toda la federación está alerta y puede evadir o aplastar al cazador. (El espacio es grande, por lo que tomará mucho tiempo para que esto se desarrolle).
Los grandes depredadores en la tierra tienen un "acuerdo" alternativo: las manadas de lobos no atacan mucho a los osos (o viceversa) porque ambas partes pueden perder mucho en el conflicto. Dos poderes se dañarán gravemente si luchan; es mucho mejor encontrar una manera de evitar pelear.
Además, la física realmente no funciona para que existan cazadores oscuros. Si una civilización está viajando por el espacio, la posibilidad de que puedas atrapar a todos es casi exactamente cero. La Tierra es vulnerable a un asteroide o algo así, pero escapar es increíblemente fácil porque simplemente aceleras y esperas, y eres prácticamente invisible durante un tiempo arbitrario. A menos que tú, como cazador oscuro, puedas moverte a la velocidad de la luz, tu presa se escapará.
Así que no creo que haya ningún problema profundo aquí. (No es un problema filosófico profundo, de todos modos).
Creo que la comunicación basada en sophon invalida un poco la teoría oscura, porque es un dispositivo de comunicación FTL (mientras que la teoría supone que la velocidad de la luz limita la velocidad de la comunicación). Los trisolarianos podrían usar eso para apagar la gota a más de 2 años luz de distancia en tiempo real, así como para realizar un monitoreo en tiempo real en la Tierra, por lo que su aplicación no se limita a una línea telefónica. Si los humanos tuvieran sophons, podrían haber hecho lo mismo para observar a los trisolarianos, y las cadenas de sospecha no tendrían mayor efecto que el que existe entre los países de la tierra hoy. Malo, pero no fatal.
Hay dos puntos en respuesta a su pregunta:
El segundo punto fue abordado por la respuesta de Rex Kerr. Permítanme abordar el primero. Tenga en cuenta que la plausibilidad de todos los argumentos que doy es discutible. El punto no es que su explicación sea estrictamente imposible, sino que se basa en una serie de suposiciones que posiblemente podrían resultar falsas.
Sobre el axioma 2: "Cada civilización continuará expandiéndose y creciendo, pero los recursos en el universo son limitados". No es necesariamente cierto que todas las civilizaciones continuarán expandiéndose.
En cuanto al segundo aspecto del axioma:
Con respecto a la cadena de sospecha: asume que una civilización no tiene forma de saber si otra es amistosa o no antes de un contacto, o saber que la otra lo sabe, etc. Hay varias formas en que esta suposición podría resultar ser falso.
Un argumento en contra de la cadena de sospecha es este: parece hacer imposible cualquier forma de comunicación. Sin embargo, sabemos con certeza que la comunicación es posible (por ejemplo, establecimos el primer contacto con las tribus en la selva tropical). No veo por qué las grandes distancias marcan una diferencia crucial: en cualquier caso, prima facie parece racional comunicarse antes del ataque. , y si todo el mundo piensa así, no es racional esconderse sistemáticamente.
También tenga en cuenta que ya no estamos interesados en contactar tribus aisladas en la selva tropical, a pesar de nuestro supuesto apetito por la expansión. Creemos que es mejor dejarlos en paz, por razones morales, como la protección de la diversidad cultural. Tal vez las civilizaciones alienígenas piensen de esta manera con respecto a nosotros.
Otro argumento es que si toda esta línea de razonamiento fuera cierta, ya habríamos desaparecido (o no hay civilizaciones en nuestro vecindario cercano, lo cual es una paradoja de Fermi menor).
Todo esto hace que todo el argumento sea bastante tenue en mi opinión. Todos los pasos son más o menos plausibles, pero eso no significa que la conclusión lo sea (si diez suposiciones tienen un grado de credibilidad de 0,9, la combinación sigue siendo inferior a la mitad). Necesita algún tipo de ajuste fino para que el argumento se lleve a cabo. Entonces, si bien este razonamiento es excelente para un escenario de ciencia ficción, personalmente me inclinaría a dar más crédito al razonamiento histórico basado en la diplomacia real, extendido a este nuevo tipo de situación, en lugar del razonamiento puro a priori de este tipo. Hay demasiadas incógnitas para razonar lógicamente (o incluso para el razonamiento bayesiano) y creo que los datos empíricos basados en la diplomacia terrestre son una entrada más sólida que la teoría abstracta de juegos.
¿No se sostiene esto sólo si las dos civilizaciones están 'similarmente' avanzadas?
¿Qué pasa si la civilización A es MUCHO más avanzada que la civilización B? como los humanos y las termitas?
La probabilidad de que la civilización B tenga un avance tecnológico para superar a A sería muy baja y, por lo tanto, desde el punto de vista de A, no habría mucha ganancia en contactar una civilización que representa una curiosidad un poco tediosa, después del descubrimiento inicial.
Vemos que sucede esto: digamos que los humanos descubrimos un nuevo tipo de rana... una linda rana. Tal vez algunos experimentos y catalogación, luego los dejamos solos. No es necesario contactar más, ya que no podemos comunicarnos fácilmente con algo como una rana. Para cuando hayan evolucionado lo suficiente como para comunicarse, nosotros también lo haremos, y puede que ya ni siquiera estemos en la Tierra.
Mi punto es que donde hay una diferencia significativa en la tecnología debido a "menos evolución" (es decir, menos poder mental disponible), no tiene sentido gastar en destruir una civilización porque la posibilidad de que se conviertan en una amenaza es muy baja.
Algo más que falta es, creo: amabilidad. Se sentiría horrible destruir una civilización 'por si acaso se convierte en una amenaza', y sería algo así como una suposición considerar que, de todas las entidades del universo, los humanos son los únicos que sienten compasión.
Si se replantea el escenario sin la parte de ciencia ficción, queda claro que la cadena de sospechas es un mal modelo para los agentes que interactúan. Considere que cada relación en la vida entera de cualquier ser humano está sujeta a este problema y, sin embargo, no parece que nos obsesionemos con tanta frecuencia (excepto tal vez en la escuela secundaria cuando comienza la pubertad). Claramente, los humanos han ideado un enfoque que no está bien modelado por estas suposiciones.
Hay varios defectos. El defecto número uno es que no debería sorprendernos cuando no hay ninguna ventaja para nadie en hacer contacto, que la mejor respuesta no implica hacer contacto. ¡Tal como está escrito, el gráfico cuádruple que escribiste ni siquiera tiene un dilema del prisionero! Muy claramente parte de la suposición de que nunca debe enviar una señal porque no hay ningún beneficio en enviar una señal.
Creo que el gran problema es la suposición 1: "La supervivencia es el objetivo más importante de toda civilización". No parece modelar civilizaciones reales muy bien. En primer lugar, asume que una civilización es un concepto bien definido. Si estableces contacto y la otra raza es amistosa, es posible que puedas difundir las partes de tu civilización que son más esenciales. De esa manera, cuando alguien llega a tu puerta dispuesto a destruir, las partes más importantes son gratis. Además, dado que estamos en un foro de filosofía, considere que Nietzsche afirmó que este tipo de pensamiento no tiene valor para una civilización (lo llamó la mentalidad del último hombre). Alternativamente, las otras especies podrían ser mucho más avanzadas y amigables, en cuyo caso puedes ser asimilado. Vuestras vidas mejoran, a costa de perder la identidad de vuestra civilización.
Finalmente, lo que describe es un sistema de teoría de juegos. Es un buen modelo si solo tenemos dos opciones: no hacer nada o hacer sonar la señal tan fuerte como sea humanamente posible durante el mayor tiempo posible. Si ingresas a la teoría del drama, comienza a ser útil enviar mensajes que son difíciles de saber si son señales o solo ruido, y luego observar cómo reaccionan los demás. Durante muchos ciclos, puede cambiar su enfoque a medida que identifica lugares que podrían contener vida inteligente amigable y enviarles más señales. (Supongo que estamos hablando en una escala de tiempo galáctica, por lo que los tiempos de transmisión son más cortos que la supervivencia de la civilización)
¿Por qué la gente dice "Su argumento se basa en suposiciones que podrían demostrarse como falsas". Como ninguna mierda, eso es lo que es una suposición: me sorprende que la gente desperdicie párrafos y espacio de página en eso. Es casi tan redundante como este comentario.
Quentin Ruyant
usuario3591466
usuario3591466
Quentin Ruyant
Quentin Ruyant
usuario3591466
usuario3591466
usuario3591466
Quentin Ruyant
david lugg
In space, the communication is limited by the speed of light, and therefore you cannot be sure if the attack is under way while you are communicating.
¿No fue eludido esto en el libro por los sophons?