¿Qué tecnología se necesita para simular virtualmente... todo?

Esta no es mi pregunta.

En mi historia, tengo una máquina a la que puedes conectarte usando electrodos. Permite ingresar a una pequeña sala de realidad virtual donde se simula todo, desde la gravedad y el electromagnetismo hasta los átomos y quarks de cada molécula. Esto significa que las personas pueden practicar la lucha exactamente como si estuvieran en la vida real, pero sin posibilidad de muerte o lesiones.

¿Qué tecnología se necesita para crear una simulación "perfecta" del mundo en un espacio pequeño?

Específicamente, ¿qué tipo de capacidad computacional necesitaría un dispositivo de este tipo para lograr esto?

Para esta pregunta, un espacio pequeño se puede definir como una habitación de unos 10 x 20 metros cuadrados y unos 3 metros de altura.

La simulación debe ser capaz de:

  1. Tener objetos como manzanas, armas, etc.
  2. Todo debe simularse de tal manera que lo que sucede en la realidad virtual sucedería en la vida real si se repitiera o replicara.
  3. Debe replicar los superpoderes del usuario, incluso si el usuario no sabe todo sobre cómo funcionan.

Supongamos que en mi historia, los científicos han descubierto la teoría del todo y que se parece mucho a todo lo que sabemos sobre el mundo real. (es decir, abordar esta pregunta como si uno fuera a simular todo lo ya conocido o teorizado sobre nuestro universo actual)

Para este elemento de la historia, estoy considerando tener una persona con un superpoder único que pueda tocar una máquina o dispositivo para que aumente su rendimiento cientos o incluso miles de veces. ¿Ayudaría esto a explicar una inmensa capacidad computacional?

EDITAR Aclaración: no imponer límites a esta máquina/tecnología es precisamente el punto de la pregunta. La máquina de mi historia se usa para ayudar a las personas a practicar y comprender sus superpoderes. Dado que los superpoderes varían drásticamente, debe ser lo más preciso posible para garantizar que el poder funcione de la misma manera dentro y fuera de la máquina. De lo contrario, alguien que puede convertir átomos de hidrógeno en átomos de oro en la máquina podría convertir átomos de hidrógeno en átomos de boro en la vida real.

Esto es calculable. Quiero intentar calcular cuánta memoria requeriría esto.
@Renan ¡Ciertamente! Incluso originalmente debatí poner la etiqueta de ciencia dura .
1/3 ¿Cuál es su definición de "perfecto"? El hecho de que pueda simular todos los quarks y gluones no significa que deba simular todos los quarks y gluones. Las simplificaciones siempre se toman para hacer que el problema sea manejable o para el rendimiento (a menudo ambos). Ni siquiera necesita tener una teoría completa de todo para hacer lo que está sugiriendo, e incluso si lo hiciera, probablemente no sería útil. Por ejemplo, conocemos la ecuación de onda cuántica y las ecuaciones de campo de Einstein, pero ambas serían un punto de partida terrible para la simulación por computadora.
2/3 Sin embargo, las ecuaciones de ondas cuánticas se vuelven rápidamente intratables para cualquier cosa que no sea un átomo de hidrógeno, y las EFE necesitan muchas simplificaciones solo para poder resolverlas directamente en una computadora. Por lo general, en la simulación, encuentra soluciones parciales analíticas que puede usar para hacer que el problema se pueda implementar en el código. Un ejemplo perfecto es el trazado de rayos. El trazado de rayos supone que la luz se mueve como un conjunto de partículas, pero sabemos que esto no es cierto. Sin embargo, para hacer manejable el problema del transporte ligero, hacemos simplificaciones que nos permiten implementar ecuaciones de rayos mucho más simples.
Honestamente, no veo cómo esto es responsable. Así que el hecho de que haya comentarios diciendo que sí me tiene muy interesado.
3/3 Además, para llegar incluso a una solución realista , necesita más rayos de los que podrían calcularse en menos tiempo que el geológico. En cambio, hacemos la simplificación de que los rayos son grupos de fotones y tomamos promedios estadísticos para resolver algunas integrales muy desagradables. Las integrales en la teoría cuántica son aún más desagradables. Además, una simulación exacta de la habitación que describe no tendría gravedad, ¿se supone que debemos agregarla artificialmente? Ahora ya no es una simulación perfecta ...
Dejando de lado lo menor: ¿cómo maneja la simulación cosas que no son deterministas, como (hasta donde sabemos) la descomposición radiactiva? Por definición, no importa cuán precisa sea su simulación, eso no sucederá de la misma manera dos veces.
@Cadence Por necesidad, eso tiene que ser estadístico. No podrá decir cuándo se desintegra una partícula individual, pero puede decir estadísticamente que sus simulaciones coinciden "en promedio" porque se desintegra aproximadamente la misma cantidad de partículas. Como dijo George Box: "Todos los modelos son incorrectos, pero algunos modelos son más útiles que otros".
Para que esta pregunta sea respondible, el OP debe poner mejores límites a la simulación. OP ha declarado que "los objetos deberían ser posibles", pero también implica que debemos simular en la escala de Planck con "... hasta el gluón..." e invocando el uso de una Teoría del Todo. La falta de límites adecuados en la simulación en la pregunta dificulta la evaluación de las respuestas.
@stix No imponer límites es precisamente el punto de la pregunta. La máquina en mi mundo tiene la intención de ayudar a las personas a practicar y comprender sus superpoderes. Dado que los superpoderes varían drásticamente, debe ser lo más preciso posible para garantizar que el poder funcione de la misma manera dentro y fuera de la máquina. De lo contrario, alguien que puede convertir átomos de hidrógeno en átomos de oro en la máquina podría convertir átomos de hidrógeno en átomos de boro en la vida real.
Una simulación perfecta (en lugar de una ilusión más o menos realista) es lógicamente imposible. En una simulación perfecta, podrías construir una simulación del simulador y luego construir un simulador en esa simulación y repetir el proceso infinitamente muchas veces.
Desde la perspectiva de la escritura de una historia, en realidad sería preferible una simulación menos que perfecta. Da la oportunidad de que algo sea imposible en la simulación, pero luego, cuando parece que los héroes están a punto de ser derrotados, se dan cuenta de que la falla en la máquina escondía una habilidad muy importante que no sabían que tenían y la victoria se vuelve posible.

Respuestas (5)

Para una simulación perfectamente realista, como imaginaste, tendrías que bajar al nivel subatómico. De esta manera, cuando alguien perfora una mesa, las astillas son perfectamente realistas hasta el punto de ser posiblemente indistinguibles de la vida real.

Sin embargo, daré un paso atrás y, en lugar de calcular todo el camino hasta los quarks, me quedaré en el mundo de los protones/neutrones, para simplificar las cosas.

Tendría que almacenar las siguientes propiedades en la memoria para cada partícula:

  • posición (relativa a un origen, digamos un rincón arbitrario de la habitación)
  • impulso
  • masa
  • cargar
  • girar

Representemos cada propiedad como una matriz de 1024 bits. ¿Por qué? Para precisión: si va a jugar con la tecnología posterior a la singularidad , también podría hacer que las mediciones sean más precisas que las actuales (1024 bits es arbitrario y hace que las mediciones sean 2 960 veces más precisas que los estándares de la industria de TI de 2019).

También necesitamos asignar una dirección de memoria para cada partícula en la habitación. Tratemos con protones, neutrones y electrones. ¿Por qué? Porque entonces podemos aproximarnos un poco a la cantidad de partículas con las que tendremos que lidiar simplemente contando la masa de todo lo que hay en la habitación.

10m × 20m × 3m equivalen a 600m 3 de aire. La densidad del aire es de 1,225 kg/m 3 en condiciones estándar, por lo que el aire de la habitación tiene una masa de 735 kg. Agreguemos dos adultos completamente vestidos, piso, paredes, un techo, una mesa de madera, algunas columnas, algunas frutas, espadas, para un total arbitrario de 1265 kg. He sacado este número de una cavidad corporal, pero es bastante creíble. Si simplemente comprimimos un poco el aire al agregar todas las demás cosas, tenemos un buen número redondo de 2 toneladas métricas de cosas.

Los protones y los neutrones tienen masas diferentes, pero están lo suficientemente cerca el uno del otro. Supongamos un neutrón por cada protón y podemos usar una masa promedio de 1.673776 × 10 -27 kg por partícula. No calculemos la masa del electrón ahora porque solo me aproximaré por ahora.

Así que tenemos como...

( 2 × 10 3 ) ( 1.67 × 10 27 ) = 1.2 × 10 30 a t o metro i C   norte tu C yo mi tu s   pag a r t i C yo mi s

Si la habitación es eléctricamente neutra, tendremos un electrón por cada protón (que son la mitad de las partículas anteriores), por lo que el total real sería más como 1,8 × 10 30 partículas.

Si por alguna extraña razón la gente del futuro todavía usa bytes, necesitamos usar una arquitectura de 128 bits (es decir, cada dirección toma esa cantidad de bits u 8 bytes).

Cada partícula tendrá su propia dirección, que es de ocho bytes en la tabla de direcciones. Cada partícula también ocupará 576 bytes (1024 bits por propiedad de partícula = 64 bytes por propiedad, y cada partícula tiene cinco propiedades). Entonces: 640 bytes por partícula.

640 × 1.8 × 10 30 = 1.152 × 10 34 b y t mi s .

Estamos hablando de necesitar aproximadamente 11.520 geopbytes .

A modo de comparación, Cisco, el mayor fabricante de enrutadores y conmutadores del mundo, afirma que en 2016 Internet finalmente alcanzó un tráfico anual combinado de un Zettabyte . Un solo Geopbyte sería mayor que eso en nueve órdenes de magnitud. En otras palabras, su simulación requeriría más de mil millones de bytes que la cantidad de bytes que circulaban en Internet en 2016.

Cuando alcancemos el punto en el que podamos hacer eso, los procesadores cuánticos podrían ser tan obsoletos como lo es el ábaco hoy, por lo que no quiero ni imaginar la cantidad de potencia de procesamiento involucrada. Digamos que los procesadores funcionarán con magia Clarkean o handwavium.

Creo que la gente ha calculado que no es posible una simulación perfecta. Aunque, podría haber advertencias (¿de todo el universo, tal vez?). Es lo que hace que algunos científicos intenten encontrar "fallas dentro de la simulación". La premisa es que nuestro mundo podría ser una simulación, por lo que si lo es , será imperfecto. Si lo examina muy, muy, * muy de cerca, las cosas no se comportarán correctamente debido a cosas como errores de redondeo y representación imperfecta de los datos. Estamos hablando mucho más allá de lo subatómico. Sin embargo, no puedo recordar cuáles fueron los cálculos y cómo se determinó.
Olvidaste el giro (momento angular) en las propiedades que necesitas para las partículas. OP también declaró que la simulación debe ocurrir en el nivel de quark, por lo que debe tener en cuenta la carga de color y el sabor. ¿Dónde está la gravedad en esto? ¿Aceleración? ¿Campo magnético? ¿Tiene la intención de volver a calcular el campo magnético cada paso de tiempo basándose solo en la carga? Eso no será suficiente, ya que los campos magnéticos pueden inducir cargas por sí mismos. Su modelo no podrá simular cosas como la descomposición radiactiva, la dilatación del tiempo, la gravedad, el transporte ligero, Brahmstrellung, solo por nombrar algunos.
@stix me tienes allí. Hice algunas ediciones. Y sí, tengo la intención de calcular todo sobre la marcha.
@Renan ¿Sus valores son tridimensionales (es decir, la posición es 3 x 1024 o un solo valor de 1024 bits?) ¿Qué tipos de datos son? ¿Punto flotante? ¿Punto fijo? ¿Entero? ¿Cuáles son sus unidades? ¿Unidades de Planck? Si es así, 2^1024 tiene solo 8,8 metros de longitud de Planck y, por lo tanto, no puede representar el tamaño completo de la habitación, lo que es peor si su matriz de 1024 bits tiene que dividirse en una tupla de 3 de solo 341 bits por dimensión.
@stix Su respuesta fue fantástica y considerando que no puse la etiqueta de ciencia dura, no estoy demasiado preocupado por el margen de error que presentó.
@Renan Entonces, básicamente, la cantidad de potencia de procesamiento necesaria es absoluta y ridículamente imposible en mi mundo, lo que significa que tendré que explicarlo mediante una superpotencia.
@stix Comencé con puntos flotantes de doble precisión (64 bits), luego dupliqué la cantidad de bits. Y sí, tres dimensiones.
@Renan si está simulando en la escala de Planck, no tiene sentido usar FP, por lo que necesitaría números enteros más grandes que 1024 bits. Los puntos flotantes pierden precisión en función del número de dígitos después del punto decimal, y no tiene sentido decir que una partícula se movió 1,5 longitudes de Planck en el paso de tiempo anterior.
No estoy usando precisión de Planck, estoy usando métrica.
@overlord se me acaba de ocurrir: es posible que te interese el Animus de la serie de juegos Assassin's Creed , para inspirarte. Es una máquina que simula un mundo entero a la perfección, y AFAIK funciona con artefactos mágicos de una raza antigua (mágico en el sentido de Clarkean de ser demasiado avanzado para que lo entendamos). En la serie Animus la tecnología acaba siendo utilizada en los videojuegos.
@Renan De hecho, solía estar obsesionado con la serie Assassin's Creed , pero me olvidé por completo del ánimus. ¡Gracias, eso realmente podría ayudar! ¡Tal vez pueda hacer que algunos superhumanos combinen diferentes aspectos de sus poderes para crear la máquina! El propósito de la pregunta era decidir cuánta ciencia puedo usar para explicar la máquina, y resulta muy poca ciencia .

Depende de lo que realmente demuestre la eventual Teoría Unificada del Todo.

En este momento hay dos teorías sobre lo pequeño que puede llegar a ser lo pequeño. Una teoría es que el espacio está cuantificado en la escala de Planck. Esta es la creencia de que el espacio está formado por unidades discretas de banda limitada y que nada existe a una escala más pequeña que esto. La segunda teoría es que no puede existir nada que sea más pequeño que esta escala, pero que pueden existir cosas que son más grandes que no se dividen uniformemente en la escala de Planck.

De acuerdo con la primera teoría, para dar cuenta de todo en cada situación, tanto conocida como desconocida, puede lograr esto utilizando la escala de Planck , donde el universo es teóricamente indivisible para fines prácticos. Su habitación tiene 1,25e+36 por 6,25e+35 por 1,875e+35 longitudes de planck, lo que le da una cuadrícula de aproximadamente 1,465e+107 puntos de datos. Suponiendo que su computadora está compuesta de moléculas, necesitaría una computadora compuesta de aproximadamente 10 a 40 universos de potencia solo para crear un espacio en disco que pueda contener todos esos datos; entonces, la fidelidad verdadera al 100% es mucho más que factible.

Según la segunda teoría, el espacio es analógico por pequeño que sea; por lo tanto, en realidad no hay forma de que una computadora logre una resolución absoluta del 100%, independientemente de cuántos universos de materia arroje al problema. Esto hace que el problema pase de intratable a verdaderamente imposible.

La buena noticia es que la ley de los promedios es tu amiga

Con esto quiero decir que cuando tomas una muestra agrupando cosas similares, puedes hacer predicciones cada vez más precisas cuanto más grande sea la muestra. En otras palabras, no necesita una fidelidad del 100 % para saber exactamente qué sucederá el 99,99999 % de las veces a escala macroscópica.

Una cosa que las computadoras son buenas para hacer es simular estadísticamente la complejidad y la compresión de datos. Mientras todos tus poderes dependan de lo conocidopropiedades de la física subatómica, puede simplificar cualquier patrón. Por ejemplo: si su poder se basa en cierta partícula subatómica exótica compuesta de un arreglo particular de techni-quarks, bosones de higgs y handwavium que se une con un cierto % de materia estándar para formar "unobtainium" que a su vez se une con un cierta proteína en sus glándulas sudoríparas, luego puede simular todas esas propiedades conocidas a medida que se aplican a cada capa de interacciones que abstraen comportamientos en resultados precisos pero probabilísticos a escalas mucho más grandes. EI: primero indexas lo que está haciendo el subatómico, luego las moléculas, luego las células, luego los tejidos, etc. Al final, tu programa,

Escanear su cuerpo con el detalle que necesita para simularlo de esta manera podría llevar mucho tiempo ya que el escáner muestrea, agrega, prueba y vuelve a muestrear datos, pero una vez que su anatomía está "comprimida" en el sistema, puede ejecutar esta simulación. en computadoras relativamente plausibles. Debido a que los humanos viven en lo macroscópico, tener un margen de error generalmente está bien. Si dispara una bola de fuego de 1244,7 °C en el simulador y en la vida real es de 1244,6 °C, porque no tuvo en cuenta unas pocas partículas de unobtainio que estaban distribuidas de manera desigual, ¿a quién le importa? Ningún ser humano notará la diferencia, lo que hace que el entrenamiento que recibe en el simulador sea perfectamente aplicable a los escenarios del mundo real para los que está entrenando.

Esto también se aplica a preguntas como si tu poder formará oro o boro. La pregunta importante aquí no es mapear la actividad molecular exacta, sino comprender las reglas por las que funcionan sus poderes y tener un método de escaneo que sea lo suficientemente preciso como para capturar los estados en los que uno u otro serían verdaderos.

El universo no es "binario" en la escala de Planck; está cuantizado a la escala de Planck. La longitud de Planck es simplemente la cuantización más pequeña posible para el Universo, el Universo no solo se reduce a 1 y 0 a 10 ^ -35 m, y de hecho tiene múltiples valores en cada longitud de Planck. En realidad es un conjunto de tensores. Puede pensar en él como un montón de cajas del tamaño de Planck con un conjunto de vectores que describen los estados del campo cuántico.
@stix Sí, esa fue una mala elección de idioma. Cuando escribí eso, estaba planeando volver a él para dar más detalles sobre el procesamiento y la memoria asociados con cada punto de datos, pero cuando llegué a 1.465e+107 puntos de datos, parecía un punto discutible.
@stix: la longitud de Planck no es un cuanto de espacio. Es simplemente la distancia más pequeña la que tiene sentido físico. Nada impide que una distancia sea 314.15926535 Longitudes de tablones; lo único que no tiene sentido físico es una distancia de 0,9 longitudes de Planck.
@AlexP Si bien es cierto que actualmente no hay evidencia experimental de que el espacio-tiempo esté cuantizado, para todos los efectos, la longitud de Planck es un cuanto de espacio, porque nuestros modelos no tienen poder predictivo a escalas más pequeñas. Es el muestreo discreto de la realidad según nuestros modelos, que es lo mismo que decir que es un cuanto de espacio. Si muestro digitalmente una señal, no tiene sentido discutir lo que sucede entre las muestras. La longitud de Planck implica que el universo mismo tiene una banda limitada.
@stix: Ser la longitud más pequeña que tiene sentido físico no lo convierte en un cuanto de espacio. Por definición, un cuanto de algo es una cantidad, de modo que cualquier cantidad de ese algo es un múltiplo entero del cuanto. Hay una gran diferencia entre una señal que consta de una serie de pulsos con una diferencia de 1/44100 segundos (y que, por lo tanto, no tiene una banda limitada) y una serie de muestras tomadas con una diferencia de 1/44100 segundos y que representan una señal continua.
@stix Eso se parece mucho a decir "Mi microscopio no puede ver nada más pequeño que una mota de polvo, por lo tanto, el mundo está hecho de polvo y nada más pequeño".
@Muuski LoL no, es más como decir "si trato de sondear una distancia tan pequeña, cualquier partícula que cree que sea lo suficientemente pequeña colapsará en un agujero negro".
@AlexP 1/2 Es matemáticamente demostrable que una señal que consiste en una serie de pulsos con una diferencia de 1/44100 segundos es idéntica a una serie de muestras tomadas con una diferencia de 1/44100 segundos de una señal continua, siempre que esa señal continua no tenga frecuencias superiores a 44,1 KHz. Esta es la teoría básica del muestreo. Si el modelo físico no permite que ocurra ninguna interacción en una escala más corta que la escala de Planck, no tiene sentido preguntar qué es más pequeño. Es lo mismo que preguntar cuántos ángeles pueden bailar en el alfiler de una cabeza. La relatividad dice que el espacio es suave, pero la física cuántica dice que no lo es. Esto es
@AlexP 2/2 el problema fundamental detrás de encontrar una gran teoría unificada. Las ecuaciones dicen que si intentas hacer cualquier tipo de interacción más pequeña que la escala de Planck, obtienes un agujero negro. Actualmente no existe una forma conocida de evitar esto, y casi todas las investigaciones sobre GUT están buscando formas de cuantificar el espacio-tiempo (y, por lo tanto, la relatividad), no para hacer que QM sea continuo. Por lo tanto, la escala de Planck implica absolutamente que el universo tiene una banda limitada.
@Stix: Estás equivocado. Lo que está probado es que si la señal tiene una banda limitada, una serie de muestras puede representarla . Una señal que consta de una serie de pulsos no tiene una banda limitada y, por lo tanto, el teorema de Nyquist ni siquiera se aplica.
@AlexP Está absolutamente equivocado en.wikipedia.org/wiki/Nyquist%E2%80%93Shannon_sampling_theorem "Una serie de pulsos ..." como usted describe es lo mismo que un tren de pulsos de dirac deltas. El teorema de muestreo establece que esto es IDÉNTICO a una señal continua de banda limitada. Además, puede argumentar que el universo tiene una banda limitada porque no puede crear partículas de ancho de banda infinito (tal partícula tendría energía infinita). El ejemplo más simple es una partícula con una longitud de onda más corta que la longitud de Planck. Tal partícula colapsaría en un agujero negro.
Solo me gustaría señalar que ambos están citando dos creencias comunes sobre las unidades de Planck. Muchos físicos muy respetables mantienen ambos extremos de este argumento, pero no existe una prueba definitiva para ninguno de los lados porque es un concepto que no se puede demostrar. Debatir sobre si hay algo más pequeño que la longitud de Planck tiene tantas probabilidades de llegar a un consenso total como un debate sobre la existencia de Dios.
@Nosajimiki Si bien estoy de acuerdo en que las implicaciones de la longitud de Planck son en su mayoría filosóficas, la afirmación de que "... una señal continua de banda limitada no es lo mismo que una serie de pulsos en la misma frecuencia ..." es patente y demostrablemente falso. La totalidad del campo del Procesamiento Digital de Señales requiere que sean iguales. El teorema de muestreo de Shannon-Nyquist que prueba que esta es una lección del primer día en cualquier curso de introducción a DSP de nivel universitario.
@stix Estoy totalmente de acuerdo, pero el argumento contrario que hace Alex es que no se puede probar que el espacio es completamente limitado en banda. Un agujero negro se forma en 1 unidad de Planck, pero algo que es de 3,5 unidades no necesariamente te da 3 unidades de espacio y agujero negro. Es como tomar una grabación en la que cada pulso debe ser de al menos 1/44100 segundos, pero nada impide que un pulso sea de 7/88200 segundos, lo que no se divide por igual; por lo tanto, todavía puede haber algo de pérdida a 44,1 KHz. Que esto esté ocurriendo o no en nuestro universo aún no está probado, que yo sepa.

Un enfoque intuitivo

Es trivial mostrar a partir de la combinatoria que, clásicamente, para representar el estado de un átomo, debe tener más de un átomo (de hecho, muchos más de un átomo).

La prueba: supongamos que la memoria de su computadora funciona almacenando bits en el estado de espín de un átomo (el tipo de átomo realmente no importa). Los giros atómicos están cuantificados y pueden ser "arriba" o "abajo", lo cual es conveniente para construir un sistema binario, donde podemos decir que 0 es "arriba" y 1 es "abajo".

Si supone que necesita 32 bits para representar todos los estados posibles de un solo átomo de hidrógeno, se necesitarán 32 átomos de memoria solo para representar este único átomo de hidrógeno.

En realidad, para todas las posibles propiedades que puede tener un átomo, necesitará mucho más que 32 bits. La cantidad de bits que realmente necesita depende de la cantidad de propiedades que puede tener su átomo (giro, impulso, carga, etc.), así como de la resolución que necesita (el rango dinámico).

Esto implica que, clásicamente, para representar una simulación de una habitación hasta el nivel atómico, necesita una habitación mucho, mucho más grande (en masa) que la habitación que pretende simular para contener todo su hardware informático.

Incluso si lo miramos desde un punto de vista cuántico (es decir, una sociedad posterior a la singularidad que ha creado computadoras cuánticas generales que funcionan), se puede demostrar trivialmente que existe una correlación 1:1.

Si su átomo de hidrógeno simulado tiene 500 estados cuánticos posibles (una gran subestimación, sin duda), y de alguna manera puede almacenar esto en el estado cuántico de un átomo de hidrógeno real, entonces necesita al menos un átomo real para cada átomo simulado que desea computar, simplemente para almacenar la información sobre su estado.

Pero, ¿qué necesitamos entonces?

Todos estos conceptos intuitivos sobre lo que se necesita para simular el mundo con "precisión exacta" llevaron a una formulación más exacta conocida como el límite de Berkenstein .

Esencialmente, lo que dice el límite de Berkenstein es que la cantidad de información que puede colocar en una determinada cantidad de espacio es limitada. Por el contrario, también muestra que la cantidad de información que necesita para representar cualquier sistema físico a nivel cuántico está directamente relacionada con su masa y volumen. También muestra que hay un límite superior en la cantidad de procesamiento que puede hacer con cualquier cantidad de masa y espacio.

Casi de inmediato se descubrió que el límite de Berkenstein tenía una relación directa con los agujeros negros: es decir, si intenta superar el límite de Berkenstein (es decir, poner más información en un volumen dado de la que puede admitir), ¡su computadora colapsará en un agujero negro!

Pensando en nuestro experimento mental intuitivo anterior, esto tiene sentido. Para simular tu mundo necesitas bits. Si necesita átomos para representar bits y coloca demasiados átomos juntos en un volumen dado, por supuesto que excederían el radio de Schwarzchild y colapsarían en un agujero negro.

Entonces, ¿qué dice Berkenstein Bound sobre tu habitación simulada?

Bueno, como hemos establecido, la cantidad de información que necesitas para simular un espacio dado en su nivel cuántico está directamente relacionada con el tamaño de ese espacio y la cantidad de masa que contiene.

Su pregunta no dice nada sobre la masa en la habitación, pero nos da sus dimensiones, que se aproximan a una esfera de alrededor de 12 m 3 ( como un aparte, en lugar de un cubo, una esfera es la mejor configuración para su habitación, ya que minimiza el área de superficie).

Entonces, por el límite de Berkenstein, su habitación requiere aproximadamente

3,08 x 10 44 puntas/kg

para representar exactamente a nivel cuántico, y esto es solo la memoria para almacenar los estados de todos los átomos. No dice nada acerca de calcular los estados de esos átomos.

Cuando las personas piensan en simulación, a menudo van directamente a soluciones de fuerza bruta que ejercen el 100% de la tensión en la computadora dada y sus partes. Lo que básicamente se resume como "intenta lo mejor que puedas para engañar a una persona consciente que trabaja compilada para que crea que algo falso es real".

Una solución más elegante (o jodida, según su punto de vista) sería meter una pieza de tecnología en lo más profundo del cerebro, principalmente en las partes más viejas del cerebro como el tálamo; tecnología que todos tienen y simplemente la aceptan como nosotros aceptamos que todos tienen una computadora rectangular en sus bolsillos en estos días, y eso es todo.

Este bien puede ser el método en el que prácticamente funciona la historia de Matrix.

Por qué: Aunque definitivamente no entendemos la conciencia o qué la causa, una teoría sugiere que una buena parte es este tipo de 'compilador' o 'algoritmo de compresión' que el cerebro usa para entrelazar básicamente toda la información asincrónica y ocasionalmente contradictoria que el cerebro trata en una "historia" que se cuenta a sí mismo (la conciencia llega entonces del 'yo' quedando atrapado en este compilador como una variable y fuente de estímulos, como una serpiente que se muerde la cola) Esta extraña función de triturar la información en una "historia" significa que las cosas inconvenientes como el punto ciego en su ojo, los diferentes tiempos de entrada de la visión en comparación con la audición, el hecho de que realmente quiere un cigarrillo frente al conocimiento contradictorio que aumenta sus posibilidades de muerte,y todo lo demás.

Cómo: si pudiera arrojar esencialmente estímulos creados digitalmente al cerebro antes de que se produzca este "algoritmo de compresión", es concebible suponer que el cerebro felizmente incluiría la falsa realidad en la "alucinación de la conciencia" general que es nuestra vida diaria de vigilia. . Las discrepancias lógicas y los problemas con la fidelidad de la entrada simulada simplemente se derretirían o serían aplastados en el proceso de compresión/compilación y la criatura consciente probablemente no notaría nada en absoluto, excepto que después podría tener algunos sueños bastante desordenados cuando el el cerebro está esencialmente descompilando y tratando de resolver los problemas que había arrojado al inconsciente durante el maratón diario de mierda que es la conciencia.

--

editar; es concebible que pueda incluir los 'sueños desordenados' mencionados anteriormente (si elige incluir el fenómeno imaginario) como una especie de riesgo creciente o inconveniente de usar el simulador demasiado o con demasiada frecuencia; hipotéticamente, podría hacer que las personas sufran psicosis, o tengan crisis nerviosas, se vuelvan paranoicas, dividan a las personas o incluso les dé motivos para creer que -todavía- están en el simulador, o afirmar que las fuerzas oscuras están tratando de insertar "pequeñas mentiras". en su vida diaria a través de este dispositivo integrado (y además, el interruptor de apagado físico que garantizaría que este no sea el caso, si quisiera incluirlo, es que un 'receptor' o interruptor en la parte posterior de su cabeza debe estar encendido en para recibir cualquier tipo de alucinación.)

Si necesita todo hasta los quarks, deberá simular todo hasta la longitud del tablón. 1.6 × 10 35 m y tiempo de plancha 5.3 × 10 44 segundos. Esa es la misma escala de longitud que las cuerdas.

Suponiendo que su teoría del todo resulte ser algo así como la teoría de cuerdas, deberá calcular la segunda derivada y ejecutar la primera y la segunda integral (fuerza/aceleración, energía/velocidad y posición) de todos esos elementos en 10 dimensiones espaciales ( sin tiempo)

Entonces, por segundo simulado, para una habitación de 10 x 20 x 3 metros, su computadora necesitará 2.8 × 10 151 calculos