¿Cuántos bits se necesitan para simular el universo?

Esto no es lo mismo que: ¿Cuántos bytes puede almacenar el universo observable?

El límite de Bekenstein nos dice cuántos bits de datos se pueden almacenar en un espacio. Usando este valor, podemos determinar la cantidad de estados únicos en los que puede estar este espacio.

Imagínese ahora, vamos a simular este espacio enumerando cada estado junto con los estados a los que puede pasar con una probabilidad para cada transición.

¿Cuánta información se necesita para codificar el número de transiciones legales y las probabilidades? ¿Esta pregunta tiene sentido? Si es así, ¿hay alguna indicación de que alguna de estas probabilidades sea o no sea un número computable ?

Editar
Aquí hay un experimento mental.

  1. Seleccione su espacio y comience a registrar todos los diferentes estados que ve.
  2. Si el límite de Bekenstein nos dice que podemos almacenar n bits en nuestro espacio, espere hasta que vea 2^n estados diferentes. Ahora hemos visto todos los estados en los que puede estar nuestro espacio (de lo contrario, podemos violar el límite de Bekenstein).
  3. Para cualquier estado, registre cualquier otro estado al que el espacio pueda hacer la transición legalmente sin violar ninguna ley física.

Para simular esta parte del espacio, tome su estado y haga la transición a un estado legal. Repetir.

Solo hemos utilizado un número finito de bits y hemos modelado una sección del espacio.

¿Qué vas a hacer con este número?
Me gustaría saber si la pregunta tiene sentido y si el número es finito, para usarlo en un experimento mental.
Si conoce el estado del universo en un punto t, puede determinarlo en cualquier otro punto t2>t con la ecuación de Schrödinger.
¿Estás usando una computadora clásica o una computadora cuántica?
@Peter Shor: Clásico. He agregado un experimento mental con la esperanza de que pueda aclarar a qué me refiero.
Posiblemente vinculado: physics.stackexchange.com/q/10415

Respuestas (6)

Hay una gran diferencia entre la cantidad de bits que puede almacenar en un espacio determinado y la cantidad de bits que necesita para describir ese espacio.

Tome un solo átomo de hierro con sus 26 electrones. Para una descripción completa, necesita la función de onda de muchas partículas ψ ( X 1 , X 2 , X 3 , , X 26 ) (ignorando el giro por el momento). Imagina que quieres muestrearlo en una región determinada del espacio con una cuadrícula muy cruda de 10 puntos para cada dirección, por lo que tienes 1000 puntos en total.

Esto significa que necesitas 1000 26 = 10 3 26 = 10 78 números para guardarlo. Para una precisión decente, desea utilizar al menos dieciséis bits, por lo que terminas con aproximadamente 10 79 a 10 80 pedacitos Esto es más que (o del mismo orden) que hay átomos en todo el universo.

Ahora retomando desde aquí, para una simulación súper exacta del universo necesita la función de onda completa de todo el universo, así que reemplace el 26 del ejemplo anterior con algo mucho más alto y, por supuesto, desea que sea más preciso, así que reemplace el 1000 con algo mucho más alto, y luego tenga en cuenta que, debido a la teoría cuántica de campos, el número de partículas ni siquiera es fijo, por lo que una simple función de onda ni siquiera es suficiente... En un cuerpo negro, por ejemplo, puedes tener un número infinito de fotones. Aunque la probabilidad de esto decae exponencialmente, todavía tendría que incluirlo en una simulación exacta...

Pregunta básica de @lagerbaer: si desea codificar una función de parámetro m en n puntos, ¿por qué sería norte metro ?
Esto es lo desagradable de la mecánica cuántica. Tienes que almacenar el valor de la función de onda para cada una de las combinaciones posibles de tu X i . Tú tienes norte Por el primero, norte para el segundo, norte para el tercero... así que en total norte metro .
Esto me hace preguntarme, ¿no existe una forma estocástica (Monte Carlo) de simular sistemas mecánicos cuánticos similar a lo que se hace cuando se resuelven los procesos SDE y Markov y demás?
"en un cuerpo negro, por ejemplo, puedes tener una cantidad infinita de fotones". Si asumimos energía finita y espacio finito en el universo, y podemos codificar 1 bit de datos por fotón, esto no está de acuerdo con el límite de Bekenstein. La otra opción es que aunque tengamos infinitos fotones, no podemos decodificar la información almacenada. Entonces podemos descartarlos de nuestra simulación. ¿no?
¿No podría tener un número arbitrario de partículas virtuales, aunque en una pequeña escala de tiempo?
Creo que la clave es que para que nos importe, los eventos deben ser medibles. Si no son todos medibles, no los necesitamos todos en nuestra simulación. ver aquí: en.wikipedia.org/wiki/Infrared_divergence
@Raskolnikov: Quantum monte-carlo solo funciona bien para sistemas bosónicos, es muy difícil hacerlo con fermiones, y este es el "problema de signos". Es extraordinariamente deprimente que algo tan simple y tonto como un átomo grande sea tan difícil de simular.
Esta no es una respuesta precisa. Es cierto solo si está hablando de un almacenamiento que puede operar con variables de no menos de 1 bit de tamaño. En ese caso necesitas 10 80 tales variables. Pero la mayor parte de ese espacio se desperdicia, porque en realidad cada variable no necesita un bit COMPLETO. Es decir, al comprimir varias de estas variables en un bit, necesitará mucho menos almacenamiento. Lamentablemente, los dispositivos clásicos no pueden manipular de forma independiente cantidades de información inferiores a 1 bit.
¿Estás seguro de que la función de onda tiene tanta entropía?

Agregaré a la estimación de @Lagerbaer que las teorías físicas predominantes no describen el universo como una entidad construible con LEGO.

Cuando vea una figura de hombre esculpida con ladrillos de lego, puede preguntar "cuántas piezas de lego se usaron para simular a ese hombre, porque hay un tamaño finito para un hombre y un tamaño finito para el ladrillo de lego".

Aunque el Universo tiene un tamaño finito, no hay ladrillos de lego finitos que puedan simularlo. Necesitas un cálculo similar al que usan los matemáticos cuando cuentan y manipulan infinitos.

Pero esto no está confirmado. Sí, las teorías predominantes requieren el uso de números incontables para describir el universo, pero creo que los teóricos están trabajando arduamente para encontrar otras teorías que no requieran eso. Sí, un enfoque de LEGO se contradice con la evidencia en la medida en que somos capaces de medir, pero ¿podemos lidiar con las implicaciones de que la construcción del universo realmente requiera números incontables? Esa es una pregunta fundamentalmente existencialista: los números incontables contradicen mi intuición tanto como la existencia misma.
Tenga en cuenta que infinito incontable. Los números naturales y racionales son perfectamente contables.

¿Bits o qubits? ¿Ordenador clásico o cuántico? ¿Precisión de simulación exacta o precisión suficientemente buena?

Si la precisión es perfecta, la computadora no puede ser parte del universo porque ninguna entidad finita puede simularse a sí misma con precisión perfecta. Las mediciones también deben realizarse en el nivel meta.

Bits. ¿Cuál es la diferencia entre "exacto" y "suficientemente bueno"? Solo necesitamos ser lo suficientemente precisos para distinguir una serie de estados de acuerdo con el límite de Bekenstein. Si nuestra resolución es más alta que eso y podemos simular más estados como resultado, violamos el límite de Bekenstein.

El número de bits en cualquier forma es tan cercano al infinito que no tiene mucho sentido estimarlo. Continuando con el método de Lagerbaer, supongamos que podemos encontrar un ajuste de diez parámetros a las funciones de onda electrónicas para cada electrón, sin usar una cuadrícula, pero usando algunos parámetros que describen la posición central y la dispersión, y las oscilaciones.

El fenómeno del entrelazamiento significa que necesita un ajuste de cien parámetros para 2 electrones, y para 10 ^ 80 electrones, necesita

10 10 80

números, o si quiere ser pedante en términos de bits, suponiendo que la doble precisión es lo suficientemente buena:

10 10 80 + 2

Este es un orden de magnitud que es totalmente falso, ya que omití la gran cantidad de fotones. Si desea describir la función de onda de los fotones (y los protones y los neutrones), necesita muchos más números en el doble exponente.

Esta estimación es alucinantemente absurda: la mayoría de esta función de onda describe superposiciones altamente entrelazadas de posiciones de partículas que no se parecen en nada a lo que observamos clásicamente. Una descripción clásica requiere

10 80

bits, más o menos, ya que escala linealmente con el número de partículas. Este desajuste en la escala entre la mecánica cuántica y la aproximación clásica al universo es lo que hace que mucha gente se sienta incómoda al tomar en serio la mecánica cuántica como la teoría final. ¿Qué uso posible hay en requerir una cantidad tan grande de bits para la simulación? ¿No sería mejor tener una teoría que tenga el número correcto de bits? El vasto espacio computacional de la mecánica cuántica es también lo que hace que la gente la interprete como una teoría de muchos mundos, se está extendiendo a un espacio de posibilidades que es asombrosamente enorme, y nuestro estado en la teoría solo nos permite ver una pequeña subparte de este enorme espacio.

Se puede considerar que la mecánica cuántica es completa y, dado que es mucho más amplia que la mecánica clásica, incluso una computadora cuántica de tamaño modesto, del orden de 10 000 qubits, puede realizar cálculos de factorización que exceden la capacidad de una computadora clásica de 10 80 pedacitos Si construimos una computadora de este tipo, será inútil reducir la descripción a una clásica.

Pero aún no lo hemos hecho, por lo que queda una pregunta seria: ¿existe una teoría en la que se pueda reducir la mecánica cuántica a un tamaño manejable? ¿Puedes reproducir la pequeña mecánica cuántica que vemos, que es esencialmente mecánica clásica con efectos cuánticos ocasionales, con una teoría que es fundamentalmente clásica?

Lo único que sabemos con certeza es que no podemos hacer esto localmente. Si usa un modelo clásico local, no podrá reproducir las violaciones de la desigualdad de Bell. Pero se sabe que la gravedad no es local, y uno puede (apenas) imaginar una computadora clásica no local conspirando para producir algo que se parece a la mecánica cuántica para algún tipo de observadores integrados. Nadie tiene una teoría así, pero si hace un cálculo del tamaño del universo clásico, predecirá que el cálculo cuántico fallará al factorizar números factibles lo suficientemente grandes.

Esta no es una respuesta correcta. Es cierto solo si está hablando de un almacenamiento que puede operar con variables de no menos de 1 bit de tamaño. En ese caso necesitas 10 80 tales variables. Pero la mayor parte de ese espacio se desperdicia, porque en realidad cada variable no necesita un bit COMPLETO. Es decir, al comprimir varias de estas variables en un bit, necesitará mucho menos almacenamiento. Lamentablemente, los dispositivos clásicos no pueden manipular de forma independiente cantidades de información inferiores a 1 bit. Es más fácil estimar la verdadera entropía del universo a partir de otras consideraciones, vea mi respuesta a continuación
@Anixx: está hablando de compresión, y esto no es apropiado para la función de onda cuántica codificada. ¿Cómo se supone que debes comprimir la información de la función de onda? Para el caso general de una computadora cuántica es ciertamente imposible. De todos modos, estoy de acuerdo en que si el universo es clásico, es lo que dices en tu respuesta, nada de lo que dije está en desacuerdo contigo, pero estás dando la cantidad de qubits, no la cantidad de bits, en la descripción holográfica cuántica.

De cualquier forma que lo mires, necesitas un número infinito de bits. Esto se debe a que si solo tiene un número finito, entonces no puede describir la descripción, como dijo Konard. Eso es a menos que la descripción suceda desde fuera del universo. En ese caso, la pregunta es simplemente si el universo tiene una cantidad infinita de información o no.

No conozco ninguna prueba de que el universo esté compuesto de información infinita, y algunos puntos de vista relacionan energía e información (una prueba de que es posible convertir información en energía se puede encontrar en el experimento mental del demonio de Maxwell que supuestamente se probó aquí http: //www.livescience.com/8944-maxwell-demon-converts-information-energy.html ), así que si crees que hay una cantidad finita de energía, entonces quizás esto signifique que también hay una cantidad finita de información, entonces solo se puede utilizar una cantidad finita de información para describirlo.

Sin embargo, hasta donde yo sé, la mayoría de las teorías físicas actuales requieren continuidad y hacen uso de ella, por lo que este número de bits requeridos es obviamente infinito. Entonces, si cree eso, puede describir el universo desde adentro (como el cuento de Borges "El Aleph" http://www.phinnweb.org/links/literature/borges/aleph.html ). Me parece que en este caso la pregunta interesante es si tenemos un universo continuo o no. Si el espacio es enumerable o no. Hice esta pregunta ayer aquí ¿Podemos tener modelos no continuos de la realidad? ¿Por qué no los tenemos? .

Multiplique el área del horizonte cosmológico por 4: obtendrá la cantidad de información necesaria en nats. Convertir en bits dividiendo por en 2 . Obtendrá el valor necesario.