¿Consecuencias del nuevo teorema en QM?

Parece que hay un nuevo teorema que cambia las reglas del juego en el debate interpretativo sobre QM:

http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392

¿Esto deja solo a Bohm, Everett y GRW como posibles candidatos?

No, parece que argumentan en contra de la interpretación estadística, así que deja todo lo demás.
Parece que argumentan en contra de una interpretación como si tuviera únicamente significación estadística. No conozco a nadie que insistiera en esto. Este es un engaño usado a menudo por los "escritores científicos" (y otros escritores) para inventar algún antagonismo que luego se resuelve/decide mediante "nuevos" resultados/descubrimientos/teorías... Alguien comparó eso con el hecho de que las ranas comienzan a ver y atrapar moscas que no existen cuando no hay moscas por más de 10 minutos.
@Georg: no están discutiendo contra un hombre de paja --- He visto esta interpretación utilizada muchas veces, aunque nunca la sostuve seriamente. Es importante tener en cuenta que la función de onda es demasiado grande para ser una entidad real si el universo está realizando cálculos clásicos, y dado que nuestros cerebros ciertamente están realizando cálculos clásicos, la mecánica cuántica le da al universo un carácter esencialmente incognoscible. Hay gente que busca reducciones de la mecánica cuántica, y este teorema es una guía útil. Es un argumento simple, pero eso no debería ser un golpe en su contra.
Hola Ron, mi comentario fue en parte sobre los autores, en parte sobre la Sra. Reich. Es bien conocida como una escritora de "ciencia" a la que le gusta exagerar mucho. Tal sensacionalismo a la Bildzeitung es repugnante.
@RonMaimon No estoy de acuerdo con que nuestros cerebros estén "ciertamente haciendo cálculos clásicos". El nivel meta de la lógica entrenada, sí. Las estructuras de pensamiento básicas, el inconsciente, etc. son altamente probabilísticas y holográficas. En realidad, cerca de las probabilidades de la función de onda, cualitativamente, en mi opinión. Solemos llamarlo "intuición".
@anna v: Me refiero a la computación clásica en oposición a la computación cuántica, no a la computación clásica frente a la computación probabilística. Estoy de acuerdo en que hay componentes del pensamiento que son distribuidos y probabilísticos, pero esto cuenta como clásico para mí, porque no podemos poner partes de neuronas en superposiciones internas y ejecutarlas a través de puertas cuánticas.
@RonMaimon Creo que el jurado aún debería estar deliberando sobre esto hasta que sepamos realmente cómo funcionan las neuronas y todo el asunto de la generación de pensamientos.
@anna v: Para no ser un secreto, mi opinión personal es que la memoria en las neuronas funciona utilizando cintas de teletipo de moléculas de ARN unidas a la membrana que registran y producen trenes de picos entre las neuronas, que la mayor parte del cálculo es doble enlace estocástico clásico Operaciones de /corte/empalme en el ARN sináptico y en el cuerpo principal de la célula, con un transporte más lento de estos ARN que contienen memoria dentro y fuera del cuerpo. Nadie más piensa esto, con la posible excepción de John Mattick en Australia. Esta es una idea puramente teórica, basada en la RAM ridículamente pequeña de las redes neuronales, ~ 1 bit/celda.
@anna v: Pero cualquiera que sea el mecanismo, es imposible imaginar superposiciones coherentes en neuronas a temperatura ambiente, considerando la cantidad de dificultad que tiene para controlar la decoherencia. El almacenamiento de información disponible para las neuronas es puramente clásico y puramente discreto. No puede almacenar datos de variables continuas, por la sencilla razón de que dos variables reales suficientemente cercanas no se pueden distinguir con fidelidad y, por lo tanto, los datos de bits lejanos no se pueden leer. Esta discreción nunca ha sido apreciada adecuadamente en biología, pero esto cambiará.
@anna v: No descarto que el cálculo en la mente sea masivo --- el contenido de memoria aproximado en el ARN de una célula es de 1 Gbyte/célula (¡por célula!), y en las neuronas, con sinapsis independientes, tú podría tener 10 Gbyte/célula, con 10 trillones de células, o 100 mil millones de Terabytes por cerebro, cada megabyte realiza un cálculo independiente a la frecuencia de reloj molecular, no celular, de muchos megahercios. En tal modelo, no es imposible ver cómo los fenómenos de la intuición pueden surgir a nivel cerebral. Debo decir que todo esto es una idea mía puramente teórica, nadie está de acuerdo con ella.
@RonMaimon Las teorías están bien, lo que falta es evidencia experimental. No estoy siguiendo el campo, pero recuerdo preguntas sobre si las neuronas muestran superconductividad a temperatura ambiente, hace algún tiempo. Sin descartar que con el tamaño del ADN los efectos serían mecánicos cuánticos incluso en su modelo. De todos modos, como muestran los comportamientos de los cristales, la mecánica cuántica puede tener manifestaciones de largo alcance, y tal vez el ADN solo use la química del cuerpo para orquestar un gran "cristal" (un modelo improvisado :)). Es un campo interesante que tiene que ser explorado experimentalmente todavía.
@anna v: incluso si las neuronas fueran superconductoras, no puede usar superconductores para el cálculo cuántico porque los superconductores son clásicos de límite de onda, su campo de condensado tiene un valor clásico. Las ondas clásicas no se pueden usar para la computación cuántica más que las partículas clásicas. Necesitas superposiciones coherentes y delicadas entre objetos relativamente lejanos que estén completamente enredados para tener una computadora cuántica, y la superconductividad no ayuda en este sentido (al menos no de manera obvia).

Respuestas (5)

Creo que este teorema, aunque es simple, es algo útil, porque descarta una cierta clase de interpretaciones de la mecánica cuántica, aunque ninguna de estas son las estándar que ves en los libros. Para las personas que creen en la interpretación de Copenhague (o muchos mundos/muchas mentes/CCC o incluso Bohm), la función de onda es el estado físico del sistema, y ​​este resultado demuestra algo vacío, a saber, que el parámetro λ que describe el verdadero estado secreto del sistema, contiene al menos la función de onda. ¡Pero es la función de onda! Así que este teorema no tiene nada que decirles a esas personas, y ese es el final de la historia. La primera respuesta que obtuviste fue expresando este punto de vista.

En la medida en que me sienta cómodo con la interpretación estándar, también tengo la misma reacción al teorema --- no hay nada nuevo aquí. Pero las interpretaciones a las que se dirige el teorema no son realmente interpretaciones, son intentos de nuevas teorías, y para entenderlas, uno debe ser consciente de la forma exacta en que la mecánica cuántica entra en conflicto con la intuición. Es difícil encontrar esto en la literatura clásica, porque esta literatura fue escrita antes de que la gente se sintiera cómoda con la noción de computación.

Creo en las ideas a continuación alrededor del 40% del tiempo. La mayor parte del tiempo, creo en la interpretación de muchos mundos. No veo ningún sentido en distinguir entre opciones filosóficas que son positivistamente equivalentes, o equivalentes en módulo de galimatías filosóficas, por lo que considero que muchos mundos son equivalentes (módulo de galimatías) a Copenhague, a la conciencia provoca el colapso, a la decoherencia , y para muchas mentes, y estoy igualmente feliz de usar cualquiera de estos lenguajes para describir la mecánica cuántica estándar (aunque muchos mundos es más intuitivo). Estos métodos producen el mismo algoritmo para simular una parte del universo.

Bohm es diferente, porque hay datos adicionales en la simulación, las posiciones de las partículas (o los valores del campo escalar) que actúa como un oráculo de valor real que determina el resultado de los experimentos, y esto significa que la aleatoriedad proviene de una fuente diferente. , por lo que no creo que sea una filosofía ociosa distinguir a Bohm de los demás.

Pero ninguna de estas interpretaciones es filosóficamente satisfactoria desde un punto de vista computacional puro. Todavía no existe una teoría que satisfaga desde el punto de vista computacional, y tal vez tal teoría sea imposible. Pero sería bueno encontrar una teoría alternativa, o probar que esto es imposible con buenas suposiciones. Para encontrar los supuestos, existen criterios parciales que a menudo no se establecen explícitamente, que los defensores que buscan a tientas una teoría más satisfactoria suelen utilizar. Las compilaré a continuación y explicaré qué clase de teorías descarta el nuevo resultado al final.

La mecánica cuántica es demasiado grande para ser física

Einstein ya señaló el problema básico que tiene la gente con la mecánica cuántica, y este es el gato de Schrödinger. La función de onda para N partículas es aproximadamente del mismo tamaño que una distribución de probabilidad en las N partículas, y tales objetos matemáticos de dimensiones descomunales generalmente aparecen solo cuando se refieren a cantidades que miden nuestra información sobre un sistema grande, no para cantidades que representan el estado de un sistema. En la mecánica clásica, el número de variables de estado crece linealmente en el número de partículas, pero el número de variables requeridas para describir una distribución de probabilidad de la posición de las partículas crece exponencialmente. El crecimiento exponencial no es paradójico en probabilidad, porque puedes imaginar que hay una posición real debajo de la distribución,

El estado cuántico determina el estado cuántico en el futuro de forma puramente lineal, por lo que está evolucionando de una manera que sugiere que es una medida de nuestra ignorancia de algunas variables, como una proyección de una distribución de probabilidad dimensional muy alta, no en una manera que sugiere que es una verdadera medida de la física de los objetos. Pero en la mecánica cuántica, la función de onda es una entidad física, es una medida de la física. Una función de onda es la mejor especificación completa posible del estado físico de un sistema aislado.

Aparte del estado fundamental de un sistema bosónico, no existe una forma productiva de reducir el cálculo en mecánica cuántica usando Monte-Carlo. Esto es casi un teorema ahora, debido al algoritmo de Shor. Suponiendo solo que la factorización de números enteros en la naturaleza requiere una búsqueda (y el algoritmo de Shor por sí mismo no proporciona ningún método clásico de factorización que sea mejor que una búsqueda ciega). Incluso si hubiera una forma extremadamente inteligente de evitar una búsqueda a ciegas en la factorización, la naturaleza tendría que descubrir este método mientras ejecuta una computadora cuántica, sin ninguna pista proveniente del algoritmo cuántico, por lo que el método eficiente tendría que estar estrechamente relacionado con Shor, y es poco probable que exista tal algoritmo, incluso si existe un buen algoritmo de factorización no relacionado muy complicado.

Entonces, la mecánica cuántica no es como la probabilidad, las diferentes ramas probabilísticas pueden transmitir suficiente información entre las ramas para realizar tareas computacionales no triviales con aceleración exponencial. Pero la mecánica cuántica no es como un universo NP --- no tiene una instrucción fork() con una parada en cualquier bifurcación que conduzca a un resultado global. Por lo tanto, ocupa un extraño lugar intermedio entre una física de universo verdaderamente paralelo y un cálculo probabilístico.

Si bien es posible que así sea realmente el universo, es importante buscar teóricamente alternativas, solo para que aprendamos qué tan grande es el espacio de posibilidades. Una alternativa interesante tendría que obedecer al menos a una de las siguientes dos restricciones:

  • Es verdaderamente paralelo: por lo que puede resolver problemas completos NP en tiempo polinomial
  • Es verdaderamente clásico: falla al hacer el algoritmo de Shor.

La alternativa de Bohm, computacionalmente hablando, es incluso más grande que la mecánica cuántica, incluye datos adicionales, por lo que desde una perspectiva computacional no es mejor que QM. Así que lo ignoraré. También ignoraré la primera alternativa, porque también es más grande que QM. Solo me enfocaré en teorías verdaderamente clásicas, debajo de todo.

Desigualdad de Bell y no localidad holográfica

La desigualdad de Bell acabó con las teorías de las variables ocultas locales para siempre. Para ver esto, recapitularé rápidamente el teorema de Bell de la manera más intuitiva que conozco: si tienes tres estudiantes A, B, C en una línea tomando un examen, y están haciendo trampa, de modo que miran a su vecino y copian el respuestas, si sabes que el estudiante del medio, B, tiene una correlación del 99% con A, y también un 99% con C, sabes que A y C tienen una correlación de al menos un 98%, sin decir nada más. La razón es que si hay 1000 preguntas en la prueba, 10 respuestas son diferentes entre B y A, y otras 10 preguntas son diferentes entre B y C, por lo que hay como máximo 20 preguntas diferentes entre A y C. Esto es muy intuitivo. , espero que no necesite una explicación detallada.

La desigualdad de la campana se viola para las mediciones locales de espín en pares entrelazados anticorrelacionados. Si mide el giro de dos partículas entrelazadas distantes en un singlete a lo largo de tres direcciones, A, B, C, las respuestas para las dos partículas siempre están anticorrelacionadas entre sí. La respuesta A para una partícula está correlacionada en un 99 % con la respuesta B para la otra, la respuesta B está correlacionada en un 99 % con la respuesta C para la otra, pero la respuesta C está correlacionada solo en un 96 % con la respuesta A para la otra. Esto significa que si los electrones hicieran crib-sheets antes de tiempo, cuando estaban cerca, para decir qué respuesta iban a dar para cada medida, el contenido de crib-sheets para las tres direcciones definiría a los estudiantes A, B, C (usando cualquier partícula, las sábanas de cuna para cada dirección siempre serán exactamente opuestas entre las dos), y A, B, C tendría correlaciones imposibles. Así que no hay sábanas de cuna locales.

La razón fundamental de la violación es que la amplitud del desajuste se duplica, pero se eleva al cuadrado para obtener la probabilidad, y la forma de la función de elevar al cuadrado es redonda en la parte inferior, y para que se satisfaga la desigualdad de Bell, se necesita una función de probabilidad. con una esquina, como la función de valor absoluto. Esta es una característica central de la mecánica cuántica, el redondeo, y es exactamente la razón por la que es difícil simular la mecánica cuántica usando estadísticas.

Entonces, el teorema de Bell establece que no hay sábanas de cuna, o bien las sábanas de cuna se modifican no localmente. ¿Esto mata las variables ocultas?

No realmente, porque ahora sabemos que existe una holografía gravitacional, que la descripción fundamental de la gravedad es no local y lejana. Esto requiere que la descripción correcta de pares entrelazados se distribuya de forma no local en una superficie lejana, y ahora no es inconcebible que se puedan reproducir correlaciones no locales, simplemente porque está distribuida.

Además, ya no es inconcebible que pueda obtener aceleraciones de raíz cuadrada, como en el algoritmo de búsqueda de Grover, a partir de una descripción distribuida de un estado cuántico. Quizás las variables fundamentales que describen un sistema cuántico están distribuidas en un gran número de copias en el horizonte cosmológico, y cuando estás haciendo el algoritmo de Grover, diferentes secciones del horizonte correspondientes a tu computadora cuántica localizada están buscando en diferentes lugares de la base de datos, entonces obtienes una aceleración de raíz cuadrada (al menos para sistemas mucho más pequeños que el tamaño del horizonte cosmológico). Bajo tales modelos, el aspecto del universo paralelo de la mecánica cuántica tendría un alcance limitado: la cantidad de cómputo paralelo que puede hacer en una superposición estaría limitada por el tamaño computacional total en bits del horizonte cosmológico.

Este tipo de punto de vista fue sugerido por t'Hooft, inmediatamente después de que descubrió el principio de la holografía gravitatoria. Sus modelos para reemplazar la mecánica cuántica han sido preliminares y no los encuentro particularmente convincentes, pero la idea parece ser que la no localidad debida a la holografía podría ser la misma no localidad que se requeriría para que las variables ocultas tuvieran sentido.

Para ser innecesariamente pedante con respecto a la fuente de esta idea (no quiero poner palabras en boca de t'Hooft), no he encontrado este principio de variable oculta holográfica explícitamente declarado en la escritura de t'Hooft. Le gustaba dibujar una gran esfera de horizonte con ceros y unos por todas partes, pero sus escritos sobre el teorema de Bell y sus teorías de variables ocultas han sido menos claros. Pero creo que esta es la motivación detrás de sus intentos de variables ocultas. Me encontré con él una vez en una conferencia hace unos 10 años, y me dijo en privado que cree que una computadora cuántica fallará debido a fuentes de decoherencia no identificables en unos pocos cientos de qubits, no por razones triviales de acoplamiento ambiental --- por falla de razones de mecánica cuántica. Esta predicción sugiere que él estaba pensando de esta manera, al menos en ese entonces.

Reversibilidad estadística y pies de pato

El problema fundamental con la reproducción de la mecánica cuántica es que la evolución cuántica es un tipo de cosa reversible, mientras que la evolución estocástica es aleatoria e irreversible. Este desajuste hace que sea muy difícil incluso concebir una subestructura estocástica o clásica debajo de la mecánica cuántica.

Me gustaría mostrar cómo las cosas reversibles pueden suceder en probabilidad de todos modos, usando un rompecabezas ilustrativo sobre la reversibilidad termodinámica:

Supongamos que tengo dos cubos de agua, uno a 100 grados y el otro a cero grados. Se me permite subdividir los cubos en pequeños volúmenes de manera arbitraria, y tocar cualquiera de los dos volúmenes entre sí de manera arbitraria, y dejar que el calor fluya hasta el equilibrio entre los dos volúmenes. Pero siempre recuerdo qué recipiente vino de qué balde, y al final del proceso, vuelvo a verter toda el agua del primer balde al primer balde, y toda el agua del segundo balde al segundo balde.

Entonces, el balde caliente ahora está más frío y el balde frío ahora está más caliente. ¿Cuál es la cantidad máxima de calor que puedo transferir de la cubeta caliente a la cubeta fría usando solo el flujo de calor?

Es un ejercicio divertido para resolver este problema, y ​​si quieres hacerlo, no sigas leyendo.

La respuesta es que es imposible transferir la cantidad total de calor de la cubeta caliente a la cubeta fría. En realidad, no, esta no es la respuesta, pero me preocupaba que alguien pudiera leer demasiado por accidente y arruinaría el problema, lo cual es muy divertido. La respuesta es que es posible transferir casi todo el calor de la cubeta caliente a la cubeta fría construyendo un intercambiador de calor.

Este es un sistema de pequeños dedales que funcionan en temperatura de 100 grados a 0 grados en pasos de (digamos) 1 grado. Así que tienes un pequeño dedal de 99 grados, un pequeño dedal de 98 grados, etc., de cada uno de los cubos fríos y calientes. Luego, toca el dedal de n grados del balde frío con el dedal de n+2 grados del balde caliente para formar dos dedales de n+1 grados.

Los dedales calientes bajan de temperatura 1 grado en este proceso, y los dedales fríos suben 1 grado, y obtienes dos cintas transportadoras que se mueven en sentido opuesto, que terminan con todos los dedales de cubeta caliente alcanzando 1 grado, y todos los dedales fríos -dedales de cubo a 99 grados. Al ajustar la diferencia de temperatura para que sea pequeña, reduce la brecha.

La lección aquí es simple: si desea hacer que el calor fluya de manera reversible, debe hacer que el calor fluya entre cosas que están casi exactamente a la misma temperatura.

Ahora daré un rompecabezas superficialmente diferente:

Supongamos que tengo dos habitaciones, con volúmenes iguales de aire. En una de las habitaciones, hay un solo átomo de cloro flotando, difundiéndose. Se me permite subdividir el aire de la habitación en pequeños volúmenes (sin probar el cloro) y juntar los volúmenes para permitir que el cloro se difunda entre los volúmenes (si está allí). Al final, devuelvo el aire de cada volumen a su habitación correspondiente. ¿Cuál es la máxima probabilidad con la que puedo pasar el cloro a la otra habitación?

En esta formulación, la respuesta es casi deslumbrantemente obvia: lo mejor que puede hacer es terminar con una probabilidad del 50/50 de encontrar el cloro en cualquier habitación. Fíjate que si reemplazas temperatura por "probabilidad de encontrar el cloro", este problema es completamente equivalente al anterior, ya que el calor y la probabilidad se difunden. Así que la solución del intercambiador de calor al problema anterior da una doble sorpresa --- al hacer una coreografía complicada de tocar dedales de aire que se mueven a lo largo de las cintas transportadoras, ¡puedes transferir la molécula de cloro entre las dos habitaciones con una probabilidad casi segura! Esto viola la intuición: considera que la mayor parte del tiempo estás tocando dedales vacíos, con el único propósito de obtener la (pequeña) probabilidad de tener el átomo de cloro en el dedal lo suficientemente cerca de la (también pequeña) probabilidad de tener el átomo de cloro en otro dedal, para que puedan tocarse con seguridad sin causar daños irreversibles. ganancia de entropía. Este complicado baile de dedales vacíos es absolutamente necesario si quieres una transferencia reversible.

Esto fue una gran sorpresa para mí, porque se trata de una dinámica lineal reversible que surge de la pura probabilidad. Si usa el _exacto_mismo_proceso con un cloro en algún lugar de una habitación y un flúor en algún lugar de la otra habitación, con casi cierta probabilidad, cambiarán de posición. Así que si repites este proceso, el cloro oscilará entre las dos habitaciones. No se supone que los sistemas probabilísticos oscilen así, solo los sistemas cuánticos lo hacen.

Entonces, la probabilidad de que el cloro esté en una de las dos habitaciones evoluciona en una forma reversible de valor propio complejo, aunque la descripción fundamental es completamente probabilística y puramente difusiva (y dependiendo del modelo detallado, la dinámica del tiempo real no es cuántica buscando). El requisito clave es que si una partícula puede ir de la región A a la región B, la probabilidad de que la partícula se encuentre en la región A siempre debe ser casi igual a la probabilidad de que se encuentre en la región B (este requisito también se establece mediante t 'Hooft, lo que me hizo preguntarme por qué no puedo reconocer la mecánica cuántica de patas de pato en sus artículos). Esto es natural de asumir en un modelo de tipo holográfico, donde todo lo que sabe sobre el sistema son variables macroscópicas brutas, que son los valores de los observables locales para algún sistema.

Entonces, para mí, el requisito de una teoría clásica que puede reemplazar a la mecánica cuántica subyacente es que debería ser una teoría de probabilidad clásica que tenga la propiedad de que su dinámica de probabilidad pura se describa aproximadamente a gran escala mediante una dinámica cuántica hamiltoniana reversible, porque toda la difusión es entre pequeñas regiones donde la probabilidad de ocupar las regiones es casi igual. Creo que tal teoría no existe el 60 por ciento del tiempo, creo que sí el otro 40 por ciento.

Llamaría a tal teoría, si existe, mecánica cuántica de patas de pato. Las patas de pato son intercambiadores de calor casi perfectos.

El papel

El documento está refutando las interpretaciones de la mecánica cuántica que asumen que existe un estado secreto del sistema. λ , que es diferente de la función de onda y que no determina la función de onda. Esto incluye todos los modelos de mecánica cuántica de pies de pato, las ideas de t'Hooft y casi todos los demás intentos modernos de reemplazar la mecánica cuántica, porque la función de onda es demasiado grande para ser incluida en la descripción de estado de cualquier clásico razonable debajo de ella. -todo modelo.

El teorema establece que si la función de onda no está determinada por λ , hay dos funciones de onda no ortogonales diferentes | + > y | 0 > , preparar cualquiera de los cuales podría conducir al mismo λ . La función de onda no puede ser determinada por λ en un modelo razonable. Está determinado por λ en la mecánica de Bohm (porque la función de onda es parte de la descripción de la fuerza entre las partículas), y esta es la razón por la que la mecánica de Bohm no es buena como sustituto de la mecánica cuántica: no coincide con la computación clásica en la misma medida, por lo que es simplemente tan fundamentalmente incomprensible como la mecánica cuántica.

Luego, el documento asume que los sistemas distantes son independientes, por lo que dos sistemas se describen mediante λ y λ . Usando una base particular de función de onda sesgada, mezclando | + > | 0 > y | + > | + > etc., muestran que hay medidas que dan un resultado en mecánica cuántica con certeza que no pueden dar un resultado cierto usando el estado oculto λ y λ .

Creo que este es solo un resultado medianamente informativo, porque el estado λ se supone que es como un estado clásico, por lo que la descripción de un sistema de dos partículas es por variables independientes. No está claro que no se pueda violar este teorema al tener distribuciones de probabilidad correlacionadas para las variables ocultas de los dos sistemas aparentemente no relacionados e identificar la información de estado clásica con información sobre la densidad de probabilidad correlacionada, de modo que la descripción de los sistemas independientes sea no simplemente concatenar las dos descripciones de cualquiera de los dos sistemas.

pero el teorema descarta un modelo mental ingenuo en el que cada electrón tiene una sábana secreta dentro, que te dice el resultado de todos los experimentos, de modo que el número de variables en las sábanas no crece exponencialmente en el número de electrones. Tal vez esta es una posición de hombre de paja, pero he visto a algunas personas sin experiencia que la ocupan.

Publicación muy útil y completa. Usted dice que descarta el enfoque de Gerard 't Hoofts y enfoques similares, pero no veo por qué.
@SchroedingersGhost: Realmente no los descarta, aunque afirma que sí. Descarta enfoques en los que el estado de la variable oculta de un sistema aislado no determina únicamente la función de onda más la suposición implícita de que el estado clásico de dos sistemas aislados entre sí es la concatenación del estado de cualquiera de ellos. La segunda suposición no se cumple necesariamente en los modelos de t'Hooft (francamente, no entiendo sus modelos, aunque creo que entiendo la motivación, así que traté de dar una idea alternativa con el mismo espíritu).
Para decir por qué descarta algo: el teorema establece que si tiene un sistema aislado que se describe mediante una función de onda o, alternativamente, mediante una variable oculta λ , y λ contiene menos información que la función de onda, por lo que puede cambiar la función de onda con una posibilidad finita de que la λ permanece sin cambios, y además, si muchas copias del sistema son descritas por muchas copias de λ , entonces hay una contradicción en los productos tensoriales de este sistema aislado. Un esquema de variable oculta que no crece exponencialmente no puede determinar la función de onda a partir de las variables ocultas.
La razón es que los valores de función de onda para N qubits requieren 2 norte valores para especificar, y las variables ocultas para N qubits en esquemas de estilo t'Hooft generalmente requieren algo similar a H norte número de bits a especificar, donde H es el tamaño del horizonte en unidades de Planck, por lo que cuando 2 norte se vuelve más grande que H norte , no tienes suerte reproduciendo la mecánica cuántica. Además, es imposible que un número tan pequeño de variables ocultas pueda arreglar de forma única la función de onda, por lo que muchas funciones de onda globales diferentes tienen que hacer las mismas configuraciones de variables ocultas (globalmente).
Por lo que puedo decir, las partículas en la interpretación de Bohm son epifenómenos con respecto a la función de onda. Como tal, no puedo verlo como algo más que el MWI con una rama declarada arbitrariamente como la verdadera.
@wnoise: El milagro de Bohm es que da una manera de declarar que una rama es real de una manera consistente. Esto no es trivial --- si poda ramas de función de onda sin partículas Bohmianas, obtiene predicciones diferentes de QM. Las partículas de Bohm hacen la poda mediante una danza complicada de olfatear alternativas cercanas y moverse en ramas que están estadísticamente vivas con la probabilidad correcta, lo cual es extremadamente interesante, porque la gente pensó que era imposible durante mucho tiempo, hasta que Bohm lo hizo.
@wnoise: También debo agregar que las partículas a veces se barajan por completo de una rama que simplemente se interfiere fuera de la existencia en otra rama lejana. Así es como Bohm puede reproducir la aceleración exponencial --- como la interferencia de la función de onda hace cosas exponenciales, las partículas a veces entran en una rama durante mucho tiempo, hasta que comienza a desvanecerse, y luego se encuentran en otra rama. Es realmente extraño y no local en el espacio de configuración, aunque las partículas siempre se mueven localmente, por supuesto. Hubo simulaciones de esto en los últimos años.
Ron Maimon, ¿podría elaborar un poco sobre: ​​"si poda las ramas de la función de onda sin partículas de Bohm, obtiene predicciones diferentes de qm"?
@SchroedingersGhost: Ahora recuerdo de lo que estás hablando. Podar la función de onda significa seleccionar una rama para llamarla "real" y las otras ramas desaparecen. En principio, siempre se puede obtener una interferencia coherente entre alternativas superpuestas. En Bohm, la poda la realiza la rama en la que las partículas están olfateando en ese momento, y esta poda es consistente, ya que cuando hay interferencia, incluso una gran interferencia mesoscópica, todas las partículas se reorganizan para estar en otra trayectoria que no desaparece. de una manera extraña debido a la fuerza cuántica.
Entonces, por ejemplo, cuando se ejecuta el algoritmo de Shor, el resultado final es que los qubits se superponen sobre los múltiplos del factor. La función de onda de Bohm en etapas intermedias se ejecuta sobre todas las superposiciones, incluidos los no factores. Cuando finaliza el algoritmo de factorización, las partículas de Bohm se canalizan solo hacia los factores, y esto parece un extraño fenómeno acausal, porque involucra muchas ramas no realizadas que entran e interfieren con las ramas que no son factores. Las partículas son capaces de seleccionar una rama real sin contradicciones con efectos de interferencia, y esto es difícil.
Muchas gracias. Obviamente, esta es también la razón por la cual los bohmianos dicen que derivan la regla de nacimiento en lugar de postularla. ¿Cuáles son sus pensamientos sobre MWI vs Bohm? Además, ¿cómo evitar que las "ramas vacías" den lugar a mundos (funcionalismo)?
@SchroedingersGhost: ¿Es Born una alternativa seria? Siempre lo consideré más un contraejemplo de una supuesta afirmación de que no hay variables ocultas en lugar de una teoría seria. La teoría de Born tiene partículas con una posición definida, y la posición es solo una de muchas bases. ¿Por qué no puedo Bornify en la representación de impulso? Si Bornificas una teoría de campo cuántica dada en diferentes bases de campo, estoy seguro de que hay miles de teorías de Born diferentes. Born for me es solo una prueba de principio. Pero sí deriva la interpretación de probabilidad, seguro.
¿Qué quiere decir alternativa seria? Me refiero a la Born Rule (universalmente válida, independientemente de las interpretaciones) que nos da las probabilidades en QM. ¿Quiso decir bohm?
@Schrodinger'sGhost: Vaya, lea "Bohm" para "Born" en todas partes en el comentario anterior.
¡Ajá! :) ¿Podría elaborar un poco sobre esta oración: "si poda las ramas de función de onda sin partículas de Bohmian, obtiene predicciones diferentes de QM". ?

El documento no entra en detalles sobre qué interpretaciones serían refutadas por sus resultados. Hay una buena razón para esto: no hay interpretaciones que puedan ser refutadas por sus resultados. Están refutando a un testaferro. Aquí está el resultado central probado por el documento, expresado de una manera menos oscura:

"Si un sistema está en estado puro | + Z entonces definitivamente no está en otro estado puro diferente | + X o lo que sea."

Si esto parece obvio y sin controversias, ¡lo es! Es cierto que en la sección de conclusiones, afirman que están diciendo cosas que no son obvias... pero están equivocados.

Vamos a empezar desde el principio. Definen el debate diciendo que hay dos estados cuánticos puros, | ϕ 0 y | ϕ 1 . Hay un procedimiento para preparar | ϕ 0 y un procedimiento diferente para preparar | ϕ 1 . Dicen que hay dos escuelas de pensamiento. La primera escuela de pensamiento (la correcta) es que "el estado cuántico es una propiedad física del sistema", de modo que "el estado cuántico está determinado únicamente por [la situación física]". Esa es la que probarán que es correcta. Dicen que la alternativa (la incorrecta) es que "el estado cuántico es de naturaleza estadística", con lo que quieren decir que "una especificación completa de [la situación física] no necesita determinar el estado cuántico de manera única".

Digamos que tiene un sistema spin-1/2, en estado | + Z . Entonces... ¡ESPERA UN MINUTO! ¡Me acabo de comprometer con la primera escuela de pensamiento! ¡Dije que el sistema estaba realmente en cierto estado cuántico!

De hecho, todos los que hacen mecánica cuántica siempre están en la primera escuela de pensamiento, porque decimos que un sistema tiene un estado cuántico y hacemos cálculos sobre cómo evoluciona el estado, etc., si el sistema está en estado puro. (No es necesariamente cierto para los estados mixtos, como se analiza a continuación).

¿Cuál sería la segunda escuela de pensamiento? Diría: "Pasé por un procedimiento que supuestamente prepara el sistema en el estado puro | + Z . Pero en realidad el sistema no solo tiene un estado único. Tiene alguna probabilidad asociada de alguna manera con él. Este mismo procedimiento bien podría haber preparado al estado | + X o lo que sea.

Los físicos reales tienen una forma de lidiar con esta posibilidad: los estados mixtos y el formalismo de la matriz de densidad. Si intenta preparar un estado puro pero no lo hace muy bien, obtendrá un estado mixto, por ejemplo, el estado mixto que tiene un 70% de posibilidades de ser | + Z y un 30% de posibilidades de ser | + X .

De nuevo, como dije al principio, han probado el hecho obvio: "Si un sistema está en estado puro | + Z entonces definitivamente no está en otro estado puro diferente | + X o lo que sea."

Con una premisa tan obvia e incontrovertible, ¿cómo pretenden concluir algo que no es totalmente obvio? Vamos a la sección de conclusiones. Concluyen que el "proceso cuántico del colapso instantáneo de la función de onda [es diferente del] procedimiento clásico (totalmente no misterioso) de actualizar una distribución de probabilidad cuando se adquiere nueva información". De hecho, si un giro está en el estado | + Z , entonces adquirir nueva información nunca la pondrá en el estado | + X . Tienes que hacerle algo al sistema para cambiar un giro de | + Z a | + X !! Por ejemplo, podría medirlo, aplicar un campo magnético, etc.

Tomemos un ejemplo más interesante, un par EPR en el estado ( | + + + | ) / 2 . Después de preparar el estado, realmente está en este estado cuántico específico. Si lo manipulamos con cuidado mientras está aislado, podemos cambiarlo coherentemente a otros estados, etc. Ahora separamos el par. Alguien que quiera describir el primer espín de la forma más completa posible, pero no tenga acceso al segundo espín, tomaría un trazo parcial como de costumbre para obtener una matriz de densidad. Luego recibe un correo electrónico que indica que el segundo giro está en estado +. Modifica su matriz de densidad al estado puro +. Notarás que su ejemplo no muestra que este llamado colapso viole ninguna ley de la mecánica cuántica. Su refutación es específica de los estados puros y no funcionaría en este ejemplo de estado mixto. Por lo tanto, no pueden concluir que "el colapso cuántico debe corresponder a un proceso físico real" en el caso EPR.

Un ejemplo más: un giro en el estado | + Z , y lo mides en la dirección X. La ecuación de Schrödinger, interpretada con la teoría de la decoherencia, dice que la función de onda del universo evolucionará coherentemente hacia una superposición de (medida macroscópica de +) y (medida macroscópica de -). En el artículo lo dicen de otra manera: "cada componente macroscópicamente diferente tiene una contrapartida directa en la realidad". Esto es simplemente decir lo mismo, pero suena más profundo. Espero que cualquiera que entienda la teoría de la decoherencia esté de acuerdo en que ambas medidas macroscópicas son parte de la función de onda del universo, y que el universo realmente tiene una función de onda de evolución unitaria, incluso si no podemos ver la mayor parte. Sin embargo, rara vez nos preocupamos por la función de onda del universo;

-- ACTUALIZAR --

Traté de releer el periódico de la manera más caritativa que pude. Ahora, creo que fui un poco demasiado duro arriba. Esto es lo que prueba el documento:

AFIRMACIÓN CENTRAL: Supongamos que tiene una teoría de variables ocultas, por lo que cuando "prepara un estado puro | ψ ", en realidad preparas el estado { | ψ , A } , donde A es la variable oculta que varía aleatoriamente cada vez que preparas el estado. es imposible tener { | ψ 0 , A } = { | ψ 1 , A } , si | ψ 0 | ψ 1 . En otras palabras, los conjuntos de variables ocultas de diferentes estados puros no se superponen.

Están refutando un hombre de paja porque no existe una interpretación de la mecánica cuántica que afirme que los conjuntos de variables ocultas de diferentes estados puros deben superponerse entre sí. Incluso las teorías de variables ocultas no afirman esto. Hay una llamada "interpretación estadística" en la literatura (defendida por L. Ballentine), que tampoco afirma esto.

Así que esto es un hombre de paja, porque nadie argumentó jamás que los conjuntos de variables ocultas de diferentes estados deberían superponerse. Pero, no es un testaferro manifiestamente ridículo. Al menos, no puedo pensar en una forma mucho más simple de probar esa afirmación. (Es cierto que no pierdo el tiempo pensando en teorías de variables ocultas). Puedo imaginar que a alguien que estaba construyendo una nueva teoría cuántica de variables ocultas no locales le gustaría saber que los conjuntos de variables ocultas no deberían superponerse.

Creo que esto es útil, +1, pero también creo que su caracterización de lo que significa que "un par EPR" esté "en un estado" es más concreta de lo que justifica el experimento --- un experimento solo puede verificar que un conjunto de medidas es estadísticamente consistente con una distribución de probabilidad que se deriva de la hipótesis conjunta de que "un conjunto de pares EPR" está en un estado dado y que la medida es una realización experimental fiel de un operador de medida dado. El documento de arXiv al que se hace referencia está escrito de manera demasiado oscura para estar seguro de a qué se inclinan, en mi opinión.
Creo que eres un poco extremo con la interpretación estadística. Es una posición filosófica válida.
@MBN: Acabo de leer la reseña de Ballentine sobre la "interpretación estadística". Ella lo define como: "un estado puro... no necesita proporcionar una descripción completa de un sistema individual". (Por ejemplo, también puede haber variables ocultas). El nuevo documento intenta refutar la afirmación: "Una descripción completa de un sistema individual puede ser consistente con muchos estados puros diferentes a la vez". ¡No es el mísmo! Cualquier sistema individual dado fue preparado por algún método de preparación determinado, y cada método de preparación está asociado con SOLO UN ket según Ballentine.
@Peter Morgan: si lo desea, cuando digo "... en el estado ...", puede reemplazar mentalmente esas palabras con "... preparado a través de un procedimiento que, cuando se repite, produciría un conjunto en el estado...". Eventualmente, puede internalizar esto como su definición personal de la frase "en el estado". Eso hará tu vida más fácil y mejorará tu comunicación con otros físicos. :-PAGS
@Steve B Me alegro de que puedas ir de cualquier manera. A veces, pensar de manera más operativa puede ser útil, aunque las abreviaturas que han evolucionado son ciertamente útiles. En el presente caso, cualesquiera que sean las confusiones que pueda haber, parecen ser sobre la relación entre las descripciones operativas y las taquigrafías. "Son reales los estados", por ejemplo, no es realmente una pregunta para una interpretación operativa, pero es más una pregunta si uno piensa de manera realista sobre los tokens que introducen las taquigrafías. Entonces, como dice su Respuesta, es más bien un hombre de paja.
@Steve, en su respuesta está negando el punto de vista de interpretación estadística. Sólo digo que es un punto de vista válido.
@MBN: independientemente de mis sentimientos personales, mi punto principal es que el nuevo artículo NO refuta la interpretación estadística (al menos, como lo describe Ballentine). La interpretación estadística NO implica ni requiere que un sistema individual pueda ser consistente con muchos estados puros diferentes a la vez. (Ese es el hombre de paja que el artículo está refutando). En la interpretación estadística, aún puede ver cómo se preparó el sistema individual, y ese método de preparación está asociado con SOLO UN ket que predecirá correctamente (aunque estadísticamente) el comportamiento del sistema.

En mi humilde opinión, el documento PRB pasa por alto el hecho de que las probabilidades provienen de un grano grueso decoherente. En el nivel de grano fino, un estado puro es un estado puro. Sin embargo, para todos los propósitos prácticos, no se puede hacer una descripción completa y detallada de un sistema que no sea tan simple como una molécula. Lo que hace el grano grueso es convertir un estado puro en un estado mixto, y luego, su teorema no se aplica. Incluso cuando se observa un sistema simple como una molécula, el aparato de medición tiene que ser descrito de manera detallada y, por lo tanto, las probabilidades entran en juego al nivel del aparato de medición.

Su teorema no está dirigido a la mecánica cuántica, sino a ideas de variables ocultas --- está diseñado para establecer que la información de la función de onda no es reducible a datos clásicos independientes que tienen la propiedad de que datos (A tensor B) = datos (A) U data(B) para sistemas independientes. En realidad, no están pasando por alto el grano grueso, simplemente es irrelevante para sus propósitos.

No es posible especificar el estado. λ de un sistema sin medirlo desde el exterior interactuando con él dinámicamente y cambiándolo y enredándose con él. Especificar el estado es cambiarlo para que ya no sea el mismo que antes.

De todos modos, PBR asume en la práctica que podemos medir un sistema en cualquier base ortonormal que elijamos, sin importar cuán complicado sea. Esto puede ser cierto en principio, pero no en la práctica. La decoherencia tiene una teoría de einselection en las llamadas bases de puntero. Algunas bases son más naturales que otras, siendo las naturales más fáciles de medir, y algunas bases son prácticamente imposibles de medir.

Su punto es que no es posible especificar el estado de un sistema λ en absoluto, incluso lógicamente hablando, no como una cuestión de hacer experimentos para determinarlo, si se cumplen los siguientes postulados: 1. el estado oculto no determina la función de onda. 2. Los sistemas independientes tienen un estado oculto que es la concatenación de los datos de estado de los dos sistemas. La segunda suposición es implícita, por lo que su conclusión es que cualquier dato oculto es al menos lo suficientemente grande como para determinar de manera única la función de onda (que es mucho más grande de lo que permitirían las ideas modernas de variables ocultas).

Realmente no creo que este teorema sea tan devastador como parece. La prueba principal de su artículo es para un qubit preparado en un estado puro particular. Para sistemas de interés realistas, normalmente tenemos muchos grados de libertad internos y la dimensionalidad del espacio de Hilbert es enorme. Dejemos de lado la dificultad de preparar un sistema con muchos grados de libertad internos en un estado puro particular en oposición a un estado mixto. Cuando hay tantos dof internos, la construcción de los autores requiere que se prepare el mismo estado puro una gran cantidad de veces. Para sistemas de cualquier tamaño significativo, el número de clones preparados resultará poco práctico. Quiero decir, incluso en la teoría clásica de la probabilidad, si dos científicos asignan diferentes distribuciones de probabilidad a alguna preparación experimental,

Los autores realmente se están colando en un conjunto por la puerta de atrás, y los conjuntos tienen interpretaciones estadísticas.

Esto no es verdad. Podemos preparar átomos y fotones con alta fidelidad con equipos modernos que son efectivamente dos estados. Por ejemplo, esta podría ser una prueba realizada con átomos individuales de rubidio Rydberg o con fotones. De hecho, puedo ver que la gente de fotónica está haciendo esta prueba extremadamente rápido. Son muy ágiles.
@Mark: por supuesto que tiene razón, pero el punto que Peter Moulin está haciendo podría ser que el experimento mental se vuelve inviable precisamente cuando la descripción de la función de onda es lo suficientemente grande como para esperar que una descripción coherente de la función de onda falle por razones fundamentales. Las personas que esperan fallas en la mecánica cuántica esperan fallas solo en superposiciones coherentes de un gran número de codos.