Parece que hay un nuevo teorema que cambia las reglas del juego en el debate interpretativo sobre QM:
http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392
¿Esto deja solo a Bohm, Everett y GRW como posibles candidatos?
Creo que este teorema, aunque es simple, es algo útil, porque descarta una cierta clase de interpretaciones de la mecánica cuántica, aunque ninguna de estas son las estándar que ves en los libros. Para las personas que creen en la interpretación de Copenhague (o muchos mundos/muchas mentes/CCC o incluso Bohm), la función de onda es el estado físico del sistema, y este resultado demuestra algo vacío, a saber, que el parámetro que describe el verdadero estado secreto del sistema, contiene al menos la función de onda. ¡Pero es la función de onda! Así que este teorema no tiene nada que decirles a esas personas, y ese es el final de la historia. La primera respuesta que obtuviste fue expresando este punto de vista.
En la medida en que me sienta cómodo con la interpretación estándar, también tengo la misma reacción al teorema --- no hay nada nuevo aquí. Pero las interpretaciones a las que se dirige el teorema no son realmente interpretaciones, son intentos de nuevas teorías, y para entenderlas, uno debe ser consciente de la forma exacta en que la mecánica cuántica entra en conflicto con la intuición. Es difícil encontrar esto en la literatura clásica, porque esta literatura fue escrita antes de que la gente se sintiera cómoda con la noción de computación.
Creo en las ideas a continuación alrededor del 40% del tiempo. La mayor parte del tiempo, creo en la interpretación de muchos mundos. No veo ningún sentido en distinguir entre opciones filosóficas que son positivistamente equivalentes, o equivalentes en módulo de galimatías filosóficas, por lo que considero que muchos mundos son equivalentes (módulo de galimatías) a Copenhague, a la conciencia provoca el colapso, a la decoherencia , y para muchas mentes, y estoy igualmente feliz de usar cualquiera de estos lenguajes para describir la mecánica cuántica estándar (aunque muchos mundos es más intuitivo). Estos métodos producen el mismo algoritmo para simular una parte del universo.
Bohm es diferente, porque hay datos adicionales en la simulación, las posiciones de las partículas (o los valores del campo escalar) que actúa como un oráculo de valor real que determina el resultado de los experimentos, y esto significa que la aleatoriedad proviene de una fuente diferente. , por lo que no creo que sea una filosofía ociosa distinguir a Bohm de los demás.
Pero ninguna de estas interpretaciones es filosóficamente satisfactoria desde un punto de vista computacional puro. Todavía no existe una teoría que satisfaga desde el punto de vista computacional, y tal vez tal teoría sea imposible. Pero sería bueno encontrar una teoría alternativa, o probar que esto es imposible con buenas suposiciones. Para encontrar los supuestos, existen criterios parciales que a menudo no se establecen explícitamente, que los defensores que buscan a tientas una teoría más satisfactoria suelen utilizar. Las compilaré a continuación y explicaré qué clase de teorías descarta el nuevo resultado al final.
Einstein ya señaló el problema básico que tiene la gente con la mecánica cuántica, y este es el gato de Schrödinger. La función de onda para N partículas es aproximadamente del mismo tamaño que una distribución de probabilidad en las N partículas, y tales objetos matemáticos de dimensiones descomunales generalmente aparecen solo cuando se refieren a cantidades que miden nuestra información sobre un sistema grande, no para cantidades que representan el estado de un sistema. En la mecánica clásica, el número de variables de estado crece linealmente en el número de partículas, pero el número de variables requeridas para describir una distribución de probabilidad de la posición de las partículas crece exponencialmente. El crecimiento exponencial no es paradójico en probabilidad, porque puedes imaginar que hay una posición real debajo de la distribución,
El estado cuántico determina el estado cuántico en el futuro de forma puramente lineal, por lo que está evolucionando de una manera que sugiere que es una medida de nuestra ignorancia de algunas variables, como una proyección de una distribución de probabilidad dimensional muy alta, no en una manera que sugiere que es una verdadera medida de la física de los objetos. Pero en la mecánica cuántica, la función de onda es una entidad física, es una medida de la física. Una función de onda es la mejor especificación completa posible del estado físico de un sistema aislado.
Aparte del estado fundamental de un sistema bosónico, no existe una forma productiva de reducir el cálculo en mecánica cuántica usando Monte-Carlo. Esto es casi un teorema ahora, debido al algoritmo de Shor. Suponiendo solo que la factorización de números enteros en la naturaleza requiere una búsqueda (y el algoritmo de Shor por sí mismo no proporciona ningún método clásico de factorización que sea mejor que una búsqueda ciega). Incluso si hubiera una forma extremadamente inteligente de evitar una búsqueda a ciegas en la factorización, la naturaleza tendría que descubrir este método mientras ejecuta una computadora cuántica, sin ninguna pista proveniente del algoritmo cuántico, por lo que el método eficiente tendría que estar estrechamente relacionado con Shor, y es poco probable que exista tal algoritmo, incluso si existe un buen algoritmo de factorización no relacionado muy complicado.
Entonces, la mecánica cuántica no es como la probabilidad, las diferentes ramas probabilísticas pueden transmitir suficiente información entre las ramas para realizar tareas computacionales no triviales con aceleración exponencial. Pero la mecánica cuántica no es como un universo NP --- no tiene una instrucción fork() con una parada en cualquier bifurcación que conduzca a un resultado global. Por lo tanto, ocupa un extraño lugar intermedio entre una física de universo verdaderamente paralelo y un cálculo probabilístico.
Si bien es posible que así sea realmente el universo, es importante buscar teóricamente alternativas, solo para que aprendamos qué tan grande es el espacio de posibilidades. Una alternativa interesante tendría que obedecer al menos a una de las siguientes dos restricciones:
La alternativa de Bohm, computacionalmente hablando, es incluso más grande que la mecánica cuántica, incluye datos adicionales, por lo que desde una perspectiva computacional no es mejor que QM. Así que lo ignoraré. También ignoraré la primera alternativa, porque también es más grande que QM. Solo me enfocaré en teorías verdaderamente clásicas, debajo de todo.
La desigualdad de Bell acabó con las teorías de las variables ocultas locales para siempre. Para ver esto, recapitularé rápidamente el teorema de Bell de la manera más intuitiva que conozco: si tienes tres estudiantes A, B, C en una línea tomando un examen, y están haciendo trampa, de modo que miran a su vecino y copian el respuestas, si sabes que el estudiante del medio, B, tiene una correlación del 99% con A, y también un 99% con C, sabes que A y C tienen una correlación de al menos un 98%, sin decir nada más. La razón es que si hay 1000 preguntas en la prueba, 10 respuestas son diferentes entre B y A, y otras 10 preguntas son diferentes entre B y C, por lo que hay como máximo 20 preguntas diferentes entre A y C. Esto es muy intuitivo. , espero que no necesite una explicación detallada.
La desigualdad de la campana se viola para las mediciones locales de espín en pares entrelazados anticorrelacionados. Si mide el giro de dos partículas entrelazadas distantes en un singlete a lo largo de tres direcciones, A, B, C, las respuestas para las dos partículas siempre están anticorrelacionadas entre sí. La respuesta A para una partícula está correlacionada en un 99 % con la respuesta B para la otra, la respuesta B está correlacionada en un 99 % con la respuesta C para la otra, pero la respuesta C está correlacionada solo en un 96 % con la respuesta A para la otra. Esto significa que si los electrones hicieran crib-sheets antes de tiempo, cuando estaban cerca, para decir qué respuesta iban a dar para cada medida, el contenido de crib-sheets para las tres direcciones definiría a los estudiantes A, B, C (usando cualquier partícula, las sábanas de cuna para cada dirección siempre serán exactamente opuestas entre las dos), y A, B, C tendría correlaciones imposibles. Así que no hay sábanas de cuna locales.
La razón fundamental de la violación es que la amplitud del desajuste se duplica, pero se eleva al cuadrado para obtener la probabilidad, y la forma de la función de elevar al cuadrado es redonda en la parte inferior, y para que se satisfaga la desigualdad de Bell, se necesita una función de probabilidad. con una esquina, como la función de valor absoluto. Esta es una característica central de la mecánica cuántica, el redondeo, y es exactamente la razón por la que es difícil simular la mecánica cuántica usando estadísticas.
Entonces, el teorema de Bell establece que no hay sábanas de cuna, o bien las sábanas de cuna se modifican no localmente. ¿Esto mata las variables ocultas?
No realmente, porque ahora sabemos que existe una holografía gravitacional, que la descripción fundamental de la gravedad es no local y lejana. Esto requiere que la descripción correcta de pares entrelazados se distribuya de forma no local en una superficie lejana, y ahora no es inconcebible que se puedan reproducir correlaciones no locales, simplemente porque está distribuida.
Además, ya no es inconcebible que pueda obtener aceleraciones de raíz cuadrada, como en el algoritmo de búsqueda de Grover, a partir de una descripción distribuida de un estado cuántico. Quizás las variables fundamentales que describen un sistema cuántico están distribuidas en un gran número de copias en el horizonte cosmológico, y cuando estás haciendo el algoritmo de Grover, diferentes secciones del horizonte correspondientes a tu computadora cuántica localizada están buscando en diferentes lugares de la base de datos, entonces obtienes una aceleración de raíz cuadrada (al menos para sistemas mucho más pequeños que el tamaño del horizonte cosmológico). Bajo tales modelos, el aspecto del universo paralelo de la mecánica cuántica tendría un alcance limitado: la cantidad de cómputo paralelo que puede hacer en una superposición estaría limitada por el tamaño computacional total en bits del horizonte cosmológico.
Este tipo de punto de vista fue sugerido por t'Hooft, inmediatamente después de que descubrió el principio de la holografía gravitatoria. Sus modelos para reemplazar la mecánica cuántica han sido preliminares y no los encuentro particularmente convincentes, pero la idea parece ser que la no localidad debida a la holografía podría ser la misma no localidad que se requeriría para que las variables ocultas tuvieran sentido.
Para ser innecesariamente pedante con respecto a la fuente de esta idea (no quiero poner palabras en boca de t'Hooft), no he encontrado este principio de variable oculta holográfica explícitamente declarado en la escritura de t'Hooft. Le gustaba dibujar una gran esfera de horizonte con ceros y unos por todas partes, pero sus escritos sobre el teorema de Bell y sus teorías de variables ocultas han sido menos claros. Pero creo que esta es la motivación detrás de sus intentos de variables ocultas. Me encontré con él una vez en una conferencia hace unos 10 años, y me dijo en privado que cree que una computadora cuántica fallará debido a fuentes de decoherencia no identificables en unos pocos cientos de qubits, no por razones triviales de acoplamiento ambiental --- por falla de razones de mecánica cuántica. Esta predicción sugiere que él estaba pensando de esta manera, al menos en ese entonces.
El problema fundamental con la reproducción de la mecánica cuántica es que la evolución cuántica es un tipo de cosa reversible, mientras que la evolución estocástica es aleatoria e irreversible. Este desajuste hace que sea muy difícil incluso concebir una subestructura estocástica o clásica debajo de la mecánica cuántica.
Me gustaría mostrar cómo las cosas reversibles pueden suceder en probabilidad de todos modos, usando un rompecabezas ilustrativo sobre la reversibilidad termodinámica:
Supongamos que tengo dos cubos de agua, uno a 100 grados y el otro a cero grados. Se me permite subdividir los cubos en pequeños volúmenes de manera arbitraria, y tocar cualquiera de los dos volúmenes entre sí de manera arbitraria, y dejar que el calor fluya hasta el equilibrio entre los dos volúmenes. Pero siempre recuerdo qué recipiente vino de qué balde, y al final del proceso, vuelvo a verter toda el agua del primer balde al primer balde, y toda el agua del segundo balde al segundo balde.
Entonces, el balde caliente ahora está más frío y el balde frío ahora está más caliente. ¿Cuál es la cantidad máxima de calor que puedo transferir de la cubeta caliente a la cubeta fría usando solo el flujo de calor?
Es un ejercicio divertido para resolver este problema, y si quieres hacerlo, no sigas leyendo.
La respuesta es que es imposible transferir la cantidad total de calor de la cubeta caliente a la cubeta fría. En realidad, no, esta no es la respuesta, pero me preocupaba que alguien pudiera leer demasiado por accidente y arruinaría el problema, lo cual es muy divertido. La respuesta es que es posible transferir casi todo el calor de la cubeta caliente a la cubeta fría construyendo un intercambiador de calor.
Este es un sistema de pequeños dedales que funcionan en temperatura de 100 grados a 0 grados en pasos de (digamos) 1 grado. Así que tienes un pequeño dedal de 99 grados, un pequeño dedal de 98 grados, etc., de cada uno de los cubos fríos y calientes. Luego, toca el dedal de n grados del balde frío con el dedal de n+2 grados del balde caliente para formar dos dedales de n+1 grados.
Los dedales calientes bajan de temperatura 1 grado en este proceso, y los dedales fríos suben 1 grado, y obtienes dos cintas transportadoras que se mueven en sentido opuesto, que terminan con todos los dedales de cubeta caliente alcanzando 1 grado, y todos los dedales fríos -dedales de cubo a 99 grados. Al ajustar la diferencia de temperatura para que sea pequeña, reduce la brecha.
La lección aquí es simple: si desea hacer que el calor fluya de manera reversible, debe hacer que el calor fluya entre cosas que están casi exactamente a la misma temperatura.
Ahora daré un rompecabezas superficialmente diferente:
Supongamos que tengo dos habitaciones, con volúmenes iguales de aire. En una de las habitaciones, hay un solo átomo de cloro flotando, difundiéndose. Se me permite subdividir el aire de la habitación en pequeños volúmenes (sin probar el cloro) y juntar los volúmenes para permitir que el cloro se difunda entre los volúmenes (si está allí). Al final, devuelvo el aire de cada volumen a su habitación correspondiente. ¿Cuál es la máxima probabilidad con la que puedo pasar el cloro a la otra habitación?
En esta formulación, la respuesta es casi deslumbrantemente obvia: lo mejor que puede hacer es terminar con una probabilidad del 50/50 de encontrar el cloro en cualquier habitación. Fíjate que si reemplazas temperatura por "probabilidad de encontrar el cloro", este problema es completamente equivalente al anterior, ya que el calor y la probabilidad se difunden. Así que la solución del intercambiador de calor al problema anterior da una doble sorpresa --- al hacer una coreografía complicada de tocar dedales de aire que se mueven a lo largo de las cintas transportadoras, ¡puedes transferir la molécula de cloro entre las dos habitaciones con una probabilidad casi segura! Esto viola la intuición: considera que la mayor parte del tiempo estás tocando dedales vacíos, con el único propósito de obtener la (pequeña) probabilidad de tener el átomo de cloro en el dedal lo suficientemente cerca de la (también pequeña) probabilidad de tener el átomo de cloro en otro dedal, para que puedan tocarse con seguridad sin causar daños irreversibles. ganancia de entropía. Este complicado baile de dedales vacíos es absolutamente necesario si quieres una transferencia reversible.
Esto fue una gran sorpresa para mí, porque se trata de una dinámica lineal reversible que surge de la pura probabilidad. Si usa el _exacto_mismo_proceso con un cloro en algún lugar de una habitación y un flúor en algún lugar de la otra habitación, con casi cierta probabilidad, cambiarán de posición. Así que si repites este proceso, el cloro oscilará entre las dos habitaciones. No se supone que los sistemas probabilísticos oscilen así, solo los sistemas cuánticos lo hacen.
Entonces, la probabilidad de que el cloro esté en una de las dos habitaciones evoluciona en una forma reversible de valor propio complejo, aunque la descripción fundamental es completamente probabilística y puramente difusiva (y dependiendo del modelo detallado, la dinámica del tiempo real no es cuántica buscando). El requisito clave es que si una partícula puede ir de la región A a la región B, la probabilidad de que la partícula se encuentre en la región A siempre debe ser casi igual a la probabilidad de que se encuentre en la región B (este requisito también se establece mediante t 'Hooft, lo que me hizo preguntarme por qué no puedo reconocer la mecánica cuántica de patas de pato en sus artículos). Esto es natural de asumir en un modelo de tipo holográfico, donde todo lo que sabe sobre el sistema son variables macroscópicas brutas, que son los valores de los observables locales para algún sistema.
Entonces, para mí, el requisito de una teoría clásica que puede reemplazar a la mecánica cuántica subyacente es que debería ser una teoría de probabilidad clásica que tenga la propiedad de que su dinámica de probabilidad pura se describa aproximadamente a gran escala mediante una dinámica cuántica hamiltoniana reversible, porque toda la difusión es entre pequeñas regiones donde la probabilidad de ocupar las regiones es casi igual. Creo que tal teoría no existe el 60 por ciento del tiempo, creo que sí el otro 40 por ciento.
Llamaría a tal teoría, si existe, mecánica cuántica de patas de pato. Las patas de pato son intercambiadores de calor casi perfectos.
El documento está refutando las interpretaciones de la mecánica cuántica que asumen que existe un estado secreto del sistema. , que es diferente de la función de onda y que no determina la función de onda. Esto incluye todos los modelos de mecánica cuántica de pies de pato, las ideas de t'Hooft y casi todos los demás intentos modernos de reemplazar la mecánica cuántica, porque la función de onda es demasiado grande para ser incluida en la descripción de estado de cualquier clásico razonable debajo de ella. -todo modelo.
El teorema establece que si la función de onda no está determinada por , hay dos funciones de onda no ortogonales diferentes y , preparar cualquiera de los cuales podría conducir al mismo . La función de onda no puede ser determinada por en un modelo razonable. Está determinado por en la mecánica de Bohm (porque la función de onda es parte de la descripción de la fuerza entre las partículas), y esta es la razón por la que la mecánica de Bohm no es buena como sustituto de la mecánica cuántica: no coincide con la computación clásica en la misma medida, por lo que es simplemente tan fundamentalmente incomprensible como la mecánica cuántica.
Luego, el documento asume que los sistemas distantes son independientes, por lo que dos sistemas se describen mediante y . Usando una base particular de función de onda sesgada, mezclando y etc., muestran que hay medidas que dan un resultado en mecánica cuántica con certeza que no pueden dar un resultado cierto usando el estado oculto y .
Creo que este es solo un resultado medianamente informativo, porque el estado se supone que es como un estado clásico, por lo que la descripción de un sistema de dos partículas es por variables independientes. No está claro que no se pueda violar este teorema al tener distribuciones de probabilidad correlacionadas para las variables ocultas de los dos sistemas aparentemente no relacionados e identificar la información de estado clásica con información sobre la densidad de probabilidad correlacionada, de modo que la descripción de los sistemas independientes sea no simplemente concatenar las dos descripciones de cualquiera de los dos sistemas.
pero el teorema descarta un modelo mental ingenuo en el que cada electrón tiene una sábana secreta dentro, que te dice el resultado de todos los experimentos, de modo que el número de variables en las sábanas no crece exponencialmente en el número de electrones. Tal vez esta es una posición de hombre de paja, pero he visto a algunas personas sin experiencia que la ocupan.
El documento no entra en detalles sobre qué interpretaciones serían refutadas por sus resultados. Hay una buena razón para esto: no hay interpretaciones que puedan ser refutadas por sus resultados. Están refutando a un testaferro. Aquí está el resultado central probado por el documento, expresado de una manera menos oscura:
"Si un sistema está en estado puro entonces definitivamente no está en otro estado puro diferente o lo que sea."
Si esto parece obvio y sin controversias, ¡lo es! Es cierto que en la sección de conclusiones, afirman que están diciendo cosas que no son obvias... pero están equivocados.
Vamos a empezar desde el principio. Definen el debate diciendo que hay dos estados cuánticos puros, y . Hay un procedimiento para preparar y un procedimiento diferente para preparar . Dicen que hay dos escuelas de pensamiento. La primera escuela de pensamiento (la correcta) es que "el estado cuántico es una propiedad física del sistema", de modo que "el estado cuántico está determinado únicamente por [la situación física]". Esa es la que probarán que es correcta. Dicen que la alternativa (la incorrecta) es que "el estado cuántico es de naturaleza estadística", con lo que quieren decir que "una especificación completa de [la situación física] no necesita determinar el estado cuántico de manera única".
Digamos que tiene un sistema spin-1/2, en estado . Entonces... ¡ESPERA UN MINUTO! ¡Me acabo de comprometer con la primera escuela de pensamiento! ¡Dije que el sistema estaba realmente en cierto estado cuántico!
De hecho, todos los que hacen mecánica cuántica siempre están en la primera escuela de pensamiento, porque decimos que un sistema tiene un estado cuántico y hacemos cálculos sobre cómo evoluciona el estado, etc., si el sistema está en estado puro. (No es necesariamente cierto para los estados mixtos, como se analiza a continuación).
¿Cuál sería la segunda escuela de pensamiento? Diría: "Pasé por un procedimiento que supuestamente prepara el sistema en el estado puro . Pero en realidad el sistema no solo tiene un estado único. Tiene alguna probabilidad asociada de alguna manera con él. Este mismo procedimiento bien podría haber preparado al estado o lo que sea.
Los físicos reales tienen una forma de lidiar con esta posibilidad: los estados mixtos y el formalismo de la matriz de densidad. Si intenta preparar un estado puro pero no lo hace muy bien, obtendrá un estado mixto, por ejemplo, el estado mixto que tiene un 70% de posibilidades de ser y un 30% de posibilidades de ser .
De nuevo, como dije al principio, han probado el hecho obvio: "Si un sistema está en estado puro entonces definitivamente no está en otro estado puro diferente o lo que sea."
Con una premisa tan obvia e incontrovertible, ¿cómo pretenden concluir algo que no es totalmente obvio? Vamos a la sección de conclusiones. Concluyen que el "proceso cuántico del colapso instantáneo de la función de onda [es diferente del] procedimiento clásico (totalmente no misterioso) de actualizar una distribución de probabilidad cuando se adquiere nueva información". De hecho, si un giro está en el estado , entonces adquirir nueva información nunca la pondrá en el estado . Tienes que hacerle algo al sistema para cambiar un giro de a !! Por ejemplo, podría medirlo, aplicar un campo magnético, etc.
Tomemos un ejemplo más interesante, un par EPR en el estado . Después de preparar el estado, realmente está en este estado cuántico específico. Si lo manipulamos con cuidado mientras está aislado, podemos cambiarlo coherentemente a otros estados, etc. Ahora separamos el par. Alguien que quiera describir el primer espín de la forma más completa posible, pero no tenga acceso al segundo espín, tomaría un trazo parcial como de costumbre para obtener una matriz de densidad. Luego recibe un correo electrónico que indica que el segundo giro está en estado +. Modifica su matriz de densidad al estado puro +. Notarás que su ejemplo no muestra que este llamado colapso viole ninguna ley de la mecánica cuántica. Su refutación es específica de los estados puros y no funcionaría en este ejemplo de estado mixto. Por lo tanto, no pueden concluir que "el colapso cuántico debe corresponder a un proceso físico real" en el caso EPR.
Un ejemplo más: un giro en el estado , y lo mides en la dirección X. La ecuación de Schrödinger, interpretada con la teoría de la decoherencia, dice que la función de onda del universo evolucionará coherentemente hacia una superposición de (medida macroscópica de +) y (medida macroscópica de -). En el artículo lo dicen de otra manera: "cada componente macroscópicamente diferente tiene una contrapartida directa en la realidad". Esto es simplemente decir lo mismo, pero suena más profundo. Espero que cualquiera que entienda la teoría de la decoherencia esté de acuerdo en que ambas medidas macroscópicas son parte de la función de onda del universo, y que el universo realmente tiene una función de onda de evolución unitaria, incluso si no podemos ver la mayor parte. Sin embargo, rara vez nos preocupamos por la función de onda del universo;
-- ACTUALIZAR --
Traté de releer el periódico de la manera más caritativa que pude. Ahora, creo que fui un poco demasiado duro arriba. Esto es lo que prueba el documento:
AFIRMACIÓN CENTRAL: Supongamos que tiene una teoría de variables ocultas, por lo que cuando "prepara un estado puro ", en realidad preparas el estado , donde A es la variable oculta que varía aleatoriamente cada vez que preparas el estado. es imposible tener , si . En otras palabras, los conjuntos de variables ocultas de diferentes estados puros no se superponen.
Están refutando un hombre de paja porque no existe una interpretación de la mecánica cuántica que afirme que los conjuntos de variables ocultas de diferentes estados puros deben superponerse entre sí. Incluso las teorías de variables ocultas no afirman esto. Hay una llamada "interpretación estadística" en la literatura (defendida por L. Ballentine), que tampoco afirma esto.
Así que esto es un hombre de paja, porque nadie argumentó jamás que los conjuntos de variables ocultas de diferentes estados deberían superponerse. Pero, no es un testaferro manifiestamente ridículo. Al menos, no puedo pensar en una forma mucho más simple de probar esa afirmación. (Es cierto que no pierdo el tiempo pensando en teorías de variables ocultas). Puedo imaginar que a alguien que estaba construyendo una nueva teoría cuántica de variables ocultas no locales le gustaría saber que los conjuntos de variables ocultas no deberían superponerse.
En mi humilde opinión, el documento PRB pasa por alto el hecho de que las probabilidades provienen de un grano grueso decoherente. En el nivel de grano fino, un estado puro es un estado puro. Sin embargo, para todos los propósitos prácticos, no se puede hacer una descripción completa y detallada de un sistema que no sea tan simple como una molécula. Lo que hace el grano grueso es convertir un estado puro en un estado mixto, y luego, su teorema no se aplica. Incluso cuando se observa un sistema simple como una molécula, el aparato de medición tiene que ser descrito de manera detallada y, por lo tanto, las probabilidades entran en juego al nivel del aparato de medición.
No es posible especificar el estado. de un sistema sin medirlo desde el exterior interactuando con él dinámicamente y cambiándolo y enredándose con él. Especificar el estado es cambiarlo para que ya no sea el mismo que antes.
De todos modos, PBR asume en la práctica que podemos medir un sistema en cualquier base ortonormal que elijamos, sin importar cuán complicado sea. Esto puede ser cierto en principio, pero no en la práctica. La decoherencia tiene una teoría de einselection en las llamadas bases de puntero. Algunas bases son más naturales que otras, siendo las naturales más fáciles de medir, y algunas bases son prácticamente imposibles de medir.
Realmente no creo que este teorema sea tan devastador como parece. La prueba principal de su artículo es para un qubit preparado en un estado puro particular. Para sistemas de interés realistas, normalmente tenemos muchos grados de libertad internos y la dimensionalidad del espacio de Hilbert es enorme. Dejemos de lado la dificultad de preparar un sistema con muchos grados de libertad internos en un estado puro particular en oposición a un estado mixto. Cuando hay tantos dof internos, la construcción de los autores requiere que se prepare el mismo estado puro una gran cantidad de veces. Para sistemas de cualquier tamaño significativo, el número de clones preparados resultará poco práctico. Quiero decir, incluso en la teoría clásica de la probabilidad, si dos científicos asignan diferentes distribuciones de probabilidad a alguna preparación experimental,
Los autores realmente se están colando en un conjunto por la puerta de atrás, y los conjuntos tienen interpretaciones estadísticas.
MBN
Jorge
Ron Maimón
Jorge
ana v
Ron Maimón
ana v
Ron Maimón
Ron Maimón
Ron Maimón
ana v
Ron Maimón