El modelado de primeros principios de los fenómenos físicos ha tenido mucho éxito en la física. La mayor limitación es quizás el hecho de que muchos problemas de QM son NP difíciles, por lo que necesitaríamos computadoras realmente potentes si queremos una mayor precisión. Pero cualquier modelo QM debe ser, en principio, aún computable a cualquier nivel deseado de precisión.
Mi pregunta es: ¿es esto correcto?
Mi problema con una respuesta positiva sería que algunos autómatas celulares de reglas locales son universales de Turing, lo que implicaría que el entrelazamiento podría simularse mediante un modelo que usa una regla local clásica. Esto parece incorrecto, ¿no?
Aquí hay algunos hechos:
Como han dicho otros, la evolución de un estado cuántico, incluido el entrelazamiento, se puede simular arbitrariamente bien de forma clásica con recursos suficientes. En realidad, modelar la evolución de un sistema cuántico ni siquiera es (se cree) difícil de NP; si lo fuera, ¡una computadora cuántica podría resolver problemas de NP! Dicho esto, generalmente requiere recursos exponenciales debido al crecimiento exponencial del espacio de Hilbert.
Por supuesto, una computadora (clásica) no puede predecir de manera determinista el resultado de una medición en particular, solo dar probabilidades correctas. Por lo tanto, es muy importante distinguir entre simular la evolución del estado cuántico determinista clásicamente (lo cual no es un problema) y reemplazar la mecánica cuántica con un modelo clásico (lo que nunca puede suceder). La diferencia viene en la medida real.
Una computadora también puede simular cualquier número de cosas imposibles. Puedes hacer una simulación por computadora donde la energía desaparece, los objetos viajan más rápido que la luz, etc, etc.
Cuando ejecuta una prueba de Bell en su programa de computadora, en algún nivel lo que hará es asignar el resultado de una medición y luego comunicarlo a la otra partícula entrelazada para que ambas tengan resultados correlacionados de la manera correcta. En otras palabras, todo el programa se basa en las dos "partículas", sin embargo, están almacenadas en la computadora, estando lo suficientemente cerca como para comunicarse entre sí. Como resultado, una computadora clásica nunca podría pasar una prueba de desigualdad de Bell libre de lagunas. Específicamente, si carga el mismo programa en dos computadoras y las envía separadas, nunca podrán dar mediciones con los mismos resultados que las mediciones en dos partículas entrelazadas.
Observe una vez más que no hay problema para que ambas computadoras sepan en qué estado se supone que deben estar antes de medirlas. Lo que simplemente no es posible es lograr que los dos resultados de la medición se correlacionen correctamente (en todas las bases de medición).
Bastante ineficiente en comparación con la "implementación directa" en el hardware cuántico, pero sí, el entrelazamiento definitivamente se puede simular con un grado arbitrario de precisión para proporcionar la memoria y los recursos de tiempo adecuados en una computadora digital convencional, completamente clásica. Simplemente vaya y resuelva la ecuación de Schrödinger de partículas múltiples.
Y este hecho no tiene nada que ver con la onda piloto de Bohm ni con ninguna otra interpretación correcta de la mecánica cuántica.
Probaré mi propia respuesta, que en su mayoría es pensar en voz alta, y estoy listo para eliminarla si es demasiado absurda.
Para empezar, debemos estar de acuerdo en lo que entendemos por teoría ; en particular una teoría de qué y con qué reglas lógicas .
Digamos aproximadamente que una teoría es un conjunto de declaraciones verdaderas sobre objetos de interés para la teoría con reglas que permiten relacionar algunas declaraciones verdaderas con otras y, por lo tanto, descubrir nuevas declaraciones verdaderas a partir de las existentes.
Una teoría clásica sería una teoría cuya estructura lógica sigue la lógica proposicional de 2 valores (clásica)
Una teoría cuántica sería una teoría cuya estructura lógica sigue en cambio la lógica cuántica (y donde, por ejemplo, no hay distributividad de la relación de disyunción)
Esto es lo que creo que es cierto:
Si los objetos de la teoría son observables físicos habituales como la posición , el momento , el momento angular , etc., entonces no es posible construir una teoría clásica basada solo en proposiciones sobre estos observables que finalmente no contradiga los resultados de algunos experimentos sobre cuántica. sistemas
Sin embargo, con el mismo conjunto de objetos es posible construir una teoría cuántica (en el sentido definido anteriormente) que dé lugar a la descripción cuantitativa correcta de experimentos de cualquier tipo sobre sistemas cuánticos (en virtud del teorema de Gleason).
El teorema de Bell actúa esencialmente en ese nivel de descripción (para ese tipo de ontología) y contribuye esencialmente al primer punto.
El giro proviene del hecho de que si los objetos de la teoría son el estado cuántico y las probabilidades de resultado de los experimentos de un sistema particular, entonces es posible construir una teoría clásica de proposiciones acerca de estos objetos que está en perfecto acuerdo con los experimentos cuánticos. sistemas; y esta es la Mecánica Cuántica de Copenhague que usamos todos los días (equivalentemente, la formulación de Everett también está bien, aunque el espacio de los objetos es un poco más pequeño).
Las simulaciones de sistemas cuánticos por una computadora clásica esencialmente calculan e interpretan la última teoría que es nuevamente una teoría (lógicamente clásica) de proposiciones sobre el estado cuántico y las probabilidades del sistema de interés. Entonces esto no contradice, creo, el teorema de Bell que no descarta el mismo tipo de teorías.
En resumen, sí, se puede hacer, pero no va a ser exactamente preciso como lo hace la mecánica cuántica. Las personas que investigan en QCD de celosía están haciendo este mismo tipo de cosas; sin embargo, los enfoques que he visto han sido programar en leyes conocidas de la física y usar grandes cantidades de poder computacional para simular partículas individuales. Ahora, esto parece un poco contrario a la intuición. Después de todo, vemos simulaciones complejas todo el tiempo usando varios motores gráficos para juegos y el detalle de estas simulaciones se está volviendo bastante notable.
Volvamos a las simulaciones cuánticas y, en particular, al entrelazamiento cuántico. No me voy a sentar aquí y discutir (como a muchas personas les gusta hacer) la física clásica y los puntos más finos de las ecuaciones de la mecánica cuántica porque no creo que sea necesario aquí. No tiene sentido porque estamos hablando de procesadores que pueden simular lo que quieras con el comportamiento que desees. La paralelización puede simular dos cosas que suceden simultáneamente y se comunican entre sí en una computadora clásica, ya que dos conjuntos de instrucciones se pueden calcular en paralelo. En cuanto a la medición, dado que usted es el programador, puede determinar qué puede y qué no puede medir.
En mi opinión, esto no es tanto una cuestión de física como una cuestión de programación que depende de lo que espere obtener de ella. Por supuesto, si tiene una computadora cuántica, la metodología cambia ya que no hay ninguna abstracción (o quizás solo una capa) entre el proceso físico y la simulación. En cuanto a las medidas reales y/o dos computadoras separadas a distancia, probablemente necesite una computadora cuántica (o dos de ellas) para el tipo de precisión que desea, pero aún puede simular el entrelazamiento. Daré algunos ejemplos.
Esto no tiene por qué ser un problema tan difícil como en las simulaciones de programación. Por ejemplo, referencia: Lista de QC_simulators donde se pueden encontrar bibliotecas para simular entrelazamiento cuántico (simplemente busque en la página "Enredo") en varios idiomas.
No veo que no sea computable en una computadora clásica en el sentido de que la simulación simulará el efecto mecánico cuántico pero, para ser claros, en realidad no entrelazará dos partículas en una computadora clásica y podrá obtener el mismos resultados medidos (la desigualdad de Bell se aplica aquí). Claro, puede programar su simulación en una computadora clásica para que las partículas estén en sus estados adecuados, pero el acto de medición técnicamente no producirá los mismos resultados que un acto de medición real en un experimento de la vida real.
Para simular realmente partículas entrelazadas, necesitarías una computadora cuántica real. De lo contrario, la desigualdad de Bell, bueno, no se calcularía. Hay varios recursos sobre algoritmos de computación cuántica y programación de computadoras cuánticas. No los he investigado mucho porque no tengo acceso a una computadora cuántica, pero Google ha configurado un simulador basado en webGL utilizando el método de puerta de control de calidad que se puede encontrar aquí: Quantum Computing Playground con el que experimenté y es un recurso interesante como lo son las bibliotecas que vinculé anteriormente.
En esencia, la respuesta es tanto sí como no, dependiendo de lo que intente obtener de la simulación. Emular cálculos cuánticos no es como emular una Nintendo. En ese caso, ambas son computadoras clásicas.
Como nota al margen, mencionaría que la popular computadora D-Wave no usa el modelo de puerta de la computación cuántica (probablemente por eso ha habido mucha controversia en torno a su computadora), sino que usa la computación cuántica adiabática.
Si la emisión de dos fotones entrelazados de cristales ópticos no lineales satisface su definición de cualquier modelo QM, entonces sí, es posible simularlo en una computadora digital con cualquier grado de precisión. Y creo que es más una pregunta sobre qué tan buenos son dos procesos de aleatorización en la computadora, primero para la polarización de uno de los dos fotones (el segundo fotón tiene entonces simplemente el estado de polarización opuesto) y segundo para la desestabilización de este estados en el camino desde la fuente hasta los detectores.
Sabemos que si colocamos los detectores lo suficientemente cerca de la fuente alcanzamos cerca del 100% la posible detección del 50% del estado correcto. En otras palabras, colocando un polarizador horizontal frente al primer detector y un polarizador vertical frente al segundo detector en cerca del 50% de los casos, obtenemos los fotones en los detectores. Esto sucede, si el camino es corto. Luego, más largo el camino, luego más influencias externas destruyen las direcciones de polarización de los dos fotones y el 50% desciende. Si alcanzamos el 40% para cada detector, entonces tenemos un éxito del 80% en comparación con la situación ideal.
En ambos casos, el proceso real y la simulación por computadora, los estados de los dos fotones son desconocidos hasta que los medimos o hasta que la computadora muestra los resultados. La función de probabilidad matemática de nuestro conocimiento sobre estos estados colapsa en el momento de ver el resultado. Pero en el caso del modelo de computadora, uno tiene que estar de acuerdo con el hecho de que los dos estados de fotones se generaron antes y, una vez generados, esto no tiene nada que ver con ninguna probabilidad. Llegando a este punto pregunto, ¿podría ser que la producción de pares funcione de la misma manera? Una vez producidos, los estados son fijos y solo las perturbaciones externas eliminan el claro enredo de estos estados fijos.
PD: Veo claro las afirmaciones de científicos bien formados de que esto no puede ser porque nunca se enseña de esta manera. Pero esto no podría ser un argumento en contra de mi respuesta. La respuesta solo podría ser incorrecta si alguno de los pasos de mi respuesta pudiera ser falsificado. Pero tenga cuidado, para el proceso real esto no es posible ya que el proceso en el tiempo entre la emisión de fotones y la detección de fotones no es visible y mi explicación es tan buena como la anterior.
Mi problema con una respuesta positiva sería que algunos autómatas celulares de reglas locales son universales de Turing, lo que implicaría que el entrelazamiento podría simularse mediante un modelo que usa una regla local clásica. Esto parece incorrecto, ¿no?
Existe un equivalente clásico, local, determinista y realista de QM, llamado mecánica bohmiana. Y no, NO es no local, por ejemplo, admite acciones instantáneas. La condición de localidad de Bell no tiene sentido. Ver este enlace .
Hay una buena lista de reproducción en YouTube sobre este tema: https://youtu.be/_6TNF854Xmo?list=PL7LbfRoKBR5OpRjt8toBOmzqGjH7zaM1m
Además, actualmente hay experimentos realizados que respaldan esta interpretación de QM: https://www.quantamagazine.org/20140624-fluid-tests-hint-at-concrete-quantum-reality/
Además, existe una profunda correspondencia entre la mecánica estadística clásica y la formulación del operador de QM a través de la mecánica clásica (estadística) de Koopman-von-Neumann: http://en.wikipedia.org/wiki/Koopman%E2%80%93von_Neumann_classical_mechanics
Estrictamente hablando, la única diferencia entre la mecánica clásica (estadística) habitual y QM es el hecho de que la posición de la partícula y su momento no conmutan, es decir, una medición de la primera puede cambiar la posterior y viceversa. En la mecánica clásica ordinaria este hecho se desdibuja porque uno siempre interactúa con objetos pesados, para los cuales este cambio es insignificante.
DanielSank
usuario66432
curioso
usuario66432
curioso
usuario66432
curioso
gatsu