Esto no es lo mismo que: ¿Cuántos bytes puede almacenar el universo observable?
El límite de Bekenstein nos dice cuántos bits de datos se pueden almacenar en un espacio. Usando este valor, podemos determinar la cantidad de estados únicos en los que puede estar este espacio.
Imagínese ahora, vamos a simular este espacio enumerando cada estado junto con los estados a los que puede pasar con una probabilidad para cada transición.
¿Cuánta información se necesita para codificar el número de transiciones legales y las probabilidades? ¿Esta pregunta tiene sentido? Si es así, ¿hay alguna indicación de que alguna de estas probabilidades sea o no sea un número computable ?
Editar
Aquí hay un experimento mental.
Para simular esta parte del espacio, tome su estado y haga la transición a un estado legal. Repetir.
Solo hemos utilizado un número finito de bits y hemos modelado una sección del espacio.
Hay una gran diferencia entre la cantidad de bits que puede almacenar en un espacio determinado y la cantidad de bits que necesita para describir ese espacio.
Tome un solo átomo de hierro con sus 26 electrones. Para una descripción completa, necesita la función de onda de muchas partículas (ignorando el giro por el momento). Imagina que quieres muestrearlo en una región determinada del espacio con una cuadrícula muy cruda de 10 puntos para cada dirección, por lo que tienes puntos en total.
Esto significa que necesitas números para guardarlo. Para una precisión decente, desea utilizar al menos bits, por lo que terminas con aproximadamente a pedacitos Esto es más que (o del mismo orden) que hay átomos en todo el universo.
Ahora retomando desde aquí, para una simulación súper exacta del universo necesita la función de onda completa de todo el universo, así que reemplace el del ejemplo anterior con algo mucho más alto y, por supuesto, desea que sea más preciso, así que reemplace el 1000 con algo mucho más alto, y luego tenga en cuenta que, debido a la teoría cuántica de campos, el número de partículas ni siquiera es fijo, por lo que una simple función de onda ni siquiera es suficiente... En un cuerpo negro, por ejemplo, puedes tener un número infinito de fotones. Aunque la probabilidad de esto decae exponencialmente, todavía tendría que incluirlo en una simulación exacta...
Agregaré a la estimación de @Lagerbaer que las teorías físicas predominantes no describen el universo como una entidad construible con LEGO.
Cuando vea una figura de hombre esculpida con ladrillos de lego, puede preguntar "cuántas piezas de lego se usaron para simular a ese hombre, porque hay un tamaño finito para un hombre y un tamaño finito para el ladrillo de lego".
Aunque el Universo tiene un tamaño finito, no hay ladrillos de lego finitos que puedan simularlo. Necesitas un cálculo similar al que usan los matemáticos cuando cuentan y manipulan infinitos.
¿Bits o qubits? ¿Ordenador clásico o cuántico? ¿Precisión de simulación exacta o precisión suficientemente buena?
Si la precisión es perfecta, la computadora no puede ser parte del universo porque ninguna entidad finita puede simularse a sí misma con precisión perfecta. Las mediciones también deben realizarse en el nivel meta.
El número de bits en cualquier forma es tan cercano al infinito que no tiene mucho sentido estimarlo. Continuando con el método de Lagerbaer, supongamos que podemos encontrar un ajuste de diez parámetros a las funciones de onda electrónicas para cada electrón, sin usar una cuadrícula, pero usando algunos parámetros que describen la posición central y la dispersión, y las oscilaciones.
El fenómeno del entrelazamiento significa que necesita un ajuste de cien parámetros para 2 electrones, y para 10 ^ 80 electrones, necesita
números, o si quiere ser pedante en términos de bits, suponiendo que la doble precisión es lo suficientemente buena:
Este es un orden de magnitud que es totalmente falso, ya que omití la gran cantidad de fotones. Si desea describir la función de onda de los fotones (y los protones y los neutrones), necesita muchos más números en el doble exponente.
Esta estimación es alucinantemente absurda: la mayoría de esta función de onda describe superposiciones altamente entrelazadas de posiciones de partículas que no se parecen en nada a lo que observamos clásicamente. Una descripción clásica requiere
bits, más o menos, ya que escala linealmente con el número de partículas. Este desajuste en la escala entre la mecánica cuántica y la aproximación clásica al universo es lo que hace que mucha gente se sienta incómoda al tomar en serio la mecánica cuántica como la teoría final. ¿Qué uso posible hay en requerir una cantidad tan grande de bits para la simulación? ¿No sería mejor tener una teoría que tenga el número correcto de bits? El vasto espacio computacional de la mecánica cuántica es también lo que hace que la gente la interprete como una teoría de muchos mundos, se está extendiendo a un espacio de posibilidades que es asombrosamente enorme, y nuestro estado en la teoría solo nos permite ver una pequeña subparte de este enorme espacio.
Se puede considerar que la mecánica cuántica es completa y, dado que es mucho más amplia que la mecánica clásica, incluso una computadora cuántica de tamaño modesto, del orden de 10 000 qubits, puede realizar cálculos de factorización que exceden la capacidad de una computadora clásica de pedacitos Si construimos una computadora de este tipo, será inútil reducir la descripción a una clásica.
Pero aún no lo hemos hecho, por lo que queda una pregunta seria: ¿existe una teoría en la que se pueda reducir la mecánica cuántica a un tamaño manejable? ¿Puedes reproducir la pequeña mecánica cuántica que vemos, que es esencialmente mecánica clásica con efectos cuánticos ocasionales, con una teoría que es fundamentalmente clásica?
Lo único que sabemos con certeza es que no podemos hacer esto localmente. Si usa un modelo clásico local, no podrá reproducir las violaciones de la desigualdad de Bell. Pero se sabe que la gravedad no es local, y uno puede (apenas) imaginar una computadora clásica no local conspirando para producir algo que se parece a la mecánica cuántica para algún tipo de observadores integrados. Nadie tiene una teoría así, pero si hace un cálculo del tamaño del universo clásico, predecirá que el cálculo cuántico fallará al factorizar números factibles lo suficientemente grandes.
De cualquier forma que lo mires, necesitas un número infinito de bits. Esto se debe a que si solo tiene un número finito, entonces no puede describir la descripción, como dijo Konard. Eso es a menos que la descripción suceda desde fuera del universo. En ese caso, la pregunta es simplemente si el universo tiene una cantidad infinita de información o no.
No conozco ninguna prueba de que el universo esté compuesto de información infinita, y algunos puntos de vista relacionan energía e información (una prueba de que es posible convertir información en energía se puede encontrar en el experimento mental del demonio de Maxwell que supuestamente se probó aquí http: //www.livescience.com/8944-maxwell-demon-converts-information-energy.html ), así que si crees que hay una cantidad finita de energía, entonces quizás esto signifique que también hay una cantidad finita de información, entonces solo se puede utilizar una cantidad finita de información para describirlo.
Sin embargo, hasta donde yo sé, la mayoría de las teorías físicas actuales requieren continuidad y hacen uso de ella, por lo que este número de bits requeridos es obviamente infinito. Entonces, si cree eso, puede describir el universo desde adentro (como el cuento de Borges "El Aleph" http://www.phinnweb.org/links/literature/borges/aleph.html ). Me parece que en este caso la pregunta interesante es si tenemos un universo continuo o no. Si el espacio es enumerable o no. Hice esta pregunta ayer aquí ¿Podemos tener modelos no continuos de la realidad? ¿Por qué no los tenemos? .
Multiplique el área del horizonte cosmológico por 4: obtendrá la cantidad de información necesaria en nats. Convertir en bits dividiendo por . Obtendrá el valor necesario.
Vladímir Kalitvianski
z5h
CAZADOR DE TROLLS
Pedro Shor
z5h
uri