¿Podría ser el efecto del observador el resultado de la simplificación en un universo simulado por computadora?

Durante los últimos años, he contemplado la idea de que el Universo sea una simulación por computadora. Este fenómeno de física cuántica sin resolver donde los objetos actúan de manera diferente cuando se observan es lo que provocó este pensamiento, y tengo curiosidad por saber si la idea es posible. Es una idea metafísica, por lo que este parece ser el único lugar en SE para preguntar.

ingrese la descripción de la imagen aquí

Cuando veo el fenómeno en ese video, me recuerda mucho cómo simplificamos el renderizado en simulaciones tridimensionales por computadora. Cuando algo no se observa, o no se observa de cerca, simplificamos su comportamiento; al igual que las posiciones de los electrones parecen simplificarse en probabilidades cuando no se observan.

Si almacena la ubicación de un electrón como una probabilidad, evitará calcular por completo su ubicación precisa hasta que sea necesario (cuando se produzca la observación). Esto aumenta los datos utilizados, pero también ahorra el recurso más valioso en una simulación: el cálculo.

¿Es esta una posibilidad, metafísica y lógicamente hablando?

Tuve este mismo pensamiento en la ducha esta mañana. Me gusta. Solo me tomó unos años más :)

Respuestas (2)

Lo que está defendiendo es que la función de onda sería un objeto comprimido para almacenar de manera eficiente, en una computadora, el estado de los sistemas, y que la dinámica del universo se aplicaría a estos objetos comprimidos, lo que explicaría las características desconcertantes de QM. .

Esta es una idea reflexiva, sin embargo, creo que hay fuertes objeciones en su contra en el análisis final.

Primero, debe notarse que no estamos simplemente asignando probabilidades clásicas a posiciones de partículas cuánticas, sino números complejos (y en sistemas compuestos, no solo a posiciones individuales, sino a posibles configuraciones de todo el sistema). Las probabilidades se calculan a partir del coeficiente complejo. Eso explica el patrón de interferencia (diferentes "posibilidades" están "interactuando" debido a la forma en que se suman los números complejos), pero si las probabilidades se asignaran directamente al sistema, QM perdería la mayoría de sus desconcertantes características.

Este punto no es fatal para vuestra metafísica. Quizás tener coeficientes complejos asignados a posibles configuraciones es una forma eficiente de comprimir el estado de un sistema. Pero como señaló Jobemark en su respuesta, la función de onda no sería una forma particularmente eficiente de almacenar un estado, al contrario: la función de onda del universo asigna un coeficiente a cualquier configuración posible del universo, mientras que una función clásica universo tendría una sola configuración, que es mucho más simple.

Luego están todas las objeciones a la idea de que vivimos en una simulación por computadora (que es solo una variante moderna del escepticismo tradicional). ¿En qué tipo de universo vive esta computadora? ¿Un universo clásico? Si es así, estamos simulando un mundo cuántico en un mundo clásico, que es fuertemente ineficiente (tiempo de cálculo exponencial). Así que podría ser un universo cuántico en su lugar, pero entonces la diferencia entre estar en una simulación o ser parte de ese universo es pequeña... O tal vez es un tercer tipo de física, pero sin explicar qué física exactamente, la propuesta parece difícil de evaluar y no muy informativa.

Finalmente, el principal problema a resolver en QM no es realmente que las funciones de onda describan sistemas en lugar de estados individuales. Es el problema de la correspondencia entre el modelo y la medida empírica. Transpuesto a su teoría metafísica, el problema es: ¿cuándo ocurre el "colapso"? Como su metafísica realmente no responde la pregunta, no resuelve el problema de la medición per se, y tiene que recurrir a una solución estándar para completar su teoría (ya sea colapso espontáneo, o tal vez en su caso alguna forma de dualismo, con conciencia provocando el colapso? Sin embargo, estas teorías tienen otros problemas propios...).

Entonces, en mi opinión, la principal objeción a su interpretación de QM es esta: es una especulación que en realidad no resuelve ningún problema filosófico conocido.

O tal vez, como especulo, sería un mundo de 4 dimensiones en el que está integrada la simulación.
Además, ofrece una solución al "¿cómo?" de "Acción espeluznante a distancia": el comportamiento instantáneo del entrelazamiento cuántico se explicaría de manera muy simple en una simulación por computadora, donde la información podría vincularse independientemente de la distancia. Esa es una pregunta bastante metafísica para la que no tenemos respuesta en este momento.
Mi pregunta era más sobre las leyes físicas en el súper universo. Si es clásico, necesitará un tiempo de cálculo exponencial (incluso con más dimensiones: el espacio de configuración QM tiene 3N dim para N partículas).
En la física clásica, las leyes gravitacionales también son "acción espeluznante a distancia". Ese es un problema en QM principalmente debido a la compatibilidad con la relatividad.
no, la relatividad general que describe la gravedad incorpora información que se efectúa a la velocidad de la luz. Entonces, si el sol desaparece ahora, seguiremos orbitando nuestra elipse durante 10 minutos antes de liberarnos y seguir recto.
@v.oddou Estaba hablando de física clásica

El problema con este marco, en mi opinión, es que el comportamiento no se vuelve más simple, sino más complejo, cuando la situación pasa desapercibida. Para mantener la distribución del electrón que interfiere consigo mismo se requieren más datos que almacenar la posición y la velocidad resueltas que tendría si colapsáramos prematuramente la función de onda.

La forma más parsimoniosa de explicar las cosas que muestran patrones de interferencia, dado que esto es lo que causa esto con más frecuencia, es la interferencia, ya sea entre copias reales o potenciales del electrón que existe en mundos paralelos o líneas de tiempo alternativas potenciales.

Me parece que si quisiera limitar el uso de datos, colapsaría todo antes por simplicidad o esperaría hasta que se realizara la observación y luego determinaría el resultado al azar. El comportamiento observado es, en última instancia, "perezoso" en la evaluación y, sin embargo, determinista bajo demanda, mientras que no determinista en otros entornos. Este parece ser el enfoque de simulación que permite la menor optimización, en una computadora digital, en lugar de uno destinado a facilitarla.

Si estamos considerando un modelo en el que se trata de una simulación analógica, entonces esta interferencia puede explicarse por la idea de que los datos están representados por alguna señal para la cual la interferencia es una forma natural de ruido. Esto podría representar una forma de retrasar la resolución.

Pero entonces, ¿en qué sentido sería una simulación analógica una simplificación en lugar de suponer que la materia está realmente compuesta por un campo, gobernada por la ecuación de onda y que solo procesa datos en una granularidad dada? Todavía necesitaría un espacio continuo y un medio de algún tipo y una codificación de una realidad analógica en otro sistema analógico con datos mantenidos con la misma precisión con la que las brechas cuánticas ya requieren que se encapsule.

Tal simulación parece un equipaje extra, que no proporciona ningún poder explicativo.

It seems to me that if you wanted to limit data use, you would collapse everything early for simplicity or wait until observation took place and then randomly determine the outcome.- Me parece que eso es lo que está sucediendo en QM, en realidad. Si almacena la ubicación de un electrón como una probabilidad, evita calcular completamente su ubicación precisa hasta que sea necesario (cuando se produce la observación). No limita el uso de datos , sino que ahorra cómputo.
No, la dinámica cuántica no calcula temprano. Si lo hiciera, no veríamos el comportamiento de dos rendijas, veríamos la elección de rendijas. Tampoco aleatoriza después del hecho, o el resultado de la observación tardía no sería un patrón continuo complejo, sino una distribución aleatoria sin nodos.
if we prematurely collapsed the wave function.- la ola nunca se colapsa, esa idea fue refutada si no recuerdo mal.
No. Copenhague sigue siendo una interpretación válida, por lo que nadie la ha refutado. ¿A qué te refieres? Se han presentado alternativas, pero ninguna prueba de que alguna de las interpretaciones sea mejor o peor, y mucho menos incorrecta.
youtu.be/dEaecUuEqfc - en los próximos minutos de GoogleTechTalk (tenga en cuenta que el título es de humor), él (y "él" es una mente bastante confiable) demuestra un experimento local para refutar cualquier colapso de ola, al mismo tiempo que muestra la seria matemáticas y diagramas más adelante.
@curiousDev404 Existen teorías de colapso perfectamente válidas de QM (GRW, por ejemplo). En cualquier caso, necesita un colapso en su interpretación: ¿cuándo se vuelve "necesario" calcular la posición de un electrón?
@curiousDev404 ¡Si el colapso es binario o relativista! = si existe o no. Esto no tiene nada que ver con su pregunta, o mi respuesta. Y hacerlo continuo genera más cosas adicionales, no menos, ya que cada elemento necesitaría saber adicionalmente su grado de resolución cuántica todo el tiempo. Las probabilidades están en contra de que este efecto proceda de la omisión de información de una simulación digital. Hay demasiado sin saber si las cosas están ahí o no.
Básicamente, si su simulación se lleva a cabo con partículas como objetos, este es un efecto secundario poco probable. Si tiene lugar con algún tipo de espacio cuantificado como objeto, es como una simulación analógica. Pero entonces, ¿qué se gana al suponer que existe una simulación? ¿Por qué no simplemente asumir que la información y los potenciales son campos reales en lugar de campos falsos?