¿Hay conservación de la información durante la medición cuántica?

Considere el siguiente experimento. Doy una vuelta- 1 2 partícula y hacer una σ X medición (mida el giro en el X dirección), luego haga una σ y medida, luego otra σ X uno, entonces σ y , y así sucesivamente para norte mediciones. El formalismo de la mecánica cuántica nos dice que los resultados de estas medidas serán aleatorios e independientes. Ahora tengo una cadena de bits completamente aleatorios, de longitud norte . Brevemente, mi pregunta es ¿de dónde proviene la información de esta cadena?

La respuesta obvia es "las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que obtienes una cadena aleatoria cuando haces eso". El problema que tengo con esto es que se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann, al igual que la evolución hamiltoniana de un sistema clásico conserva la entropía de Shannon. En el caso clásico, esto puede interpretarse como "ningún proceso puede crear o destruir información a nivel microscópico". Parece que lo mismo debería ser cierto para el caso cuántico también, pero esto parece difícil de reconciliar con la existencia de aleatoriedad "verdadera" en la medición cuántica, que parece crear información.

Está claro que hay algunas interpretaciones para las que esto no es un problema. En particular, para una interpretación sin colapso, el Universo simplemente termina en una superposición de 2 norte estados, cada uno con un observador mirando una cadena de salida diferente.

Pero no soy un gran fanático de las interpretaciones sin colapso, así que me pregunto cómo otras interpretaciones cuánticas se las arreglan con esto. En particular, en la interpretación "estándar" (me refiero a aquella a la que se adhiere la gente cuando dice que la mecánica cuántica no necesita una interpretación), ¿cómo se reconcilia la indeterminación de la medida con la conservación de la entropía de von Neumann? ¿Hay alguna interpretación distinta al no-colapso que pueda resolverlo particularmente bien?

apéndice

Parece que vale la pena resumir mi pensamiento actual sobre esto y tratar de aclarar lo que realmente estoy preguntando.

Quiero comenzar hablando del caso clásico, porque solo así puedo aclarar dónde parece fallar la analogía. Consideremos un sistema clásico que puede asumir uno de norte estados discretos (microestados). Dado que inicialmente no sé en qué estado se encuentra el sistema, modelo el sistema con una distribución de probabilidad.

El sistema evoluciona con el tiempo. Modelamos esto tomando el vector pags de probabilidades y multiplicándola por una matriz T en cada paso de tiempo, es decir pags t + 1 = T pags t . El análogo discreto de la dinámica hamiltoniana resulta ser la suposición de que T es una matriz de permutación, es decir, tiene exactamente un 1 en cada fila y columna, y todas sus demás entradas son 0. (Observe que las matrices de permutación son un subconjunto de matrices unitarias). Resulta que, bajo esta suposición, la entropía de Gibbs (también conocido como entropía de Shannon) H ( pags ) no cambia con el tiempo.

(También vale la pena mencionar, como un aparte, que en lugar de representar pags como vector, podría optar por representarlo como una matriz diagonal PAGS , con PAGS i i = pags i . Entonces se parece mucho al formalismo de la matriz de densidad, con PAGS jugando el papel de ρ y T siendo equivalente a la evolución unitaria.)

Ahora digamos que hago una medición del sistema. Asumiremos que no perturbo el sistema cuando hago esto. Por ejemplo, digamos que el sistema tiene dos estados, y que inicialmente no tengo idea en cuál de ellos está el sistema, entonces pags = ( 1 2 , 1 2 ) . Después de mi medición, sé en qué estado se encuentra el sistema, por lo que pags se convertirá en cualquiera ( 1 , 0 ) o ( 0 , 1 ) con igual probabilidad. He ganado un poco de información sobre el sistema, y H ( pags ) se ha reducido un poco. En el caso clásico, estos siempre serán iguales, a menos que el sistema interactúe con algún otro sistema cuyo estado no conozco con precisión (como, por ejemplo, un baño de calor).

Visto desde este punto de vista, el cambio en la entropía de von Neumann cuando se realiza una medición cuántica no es sorprendente. Si la entropía solo representa una falta de información sobre un sistema, entonces, por supuesto, debería disminuir cuando obtenemos información. En los comentarios a continuación, donde me refiero a interpretaciones de "colapso subjetivo", me refiero a interpretaciones que intentan interpretar el "colapso" de una función de onda como análogo al "colapso" de la distribución de probabilidad clásica como se describe anteriormente, y la entropía de von Neumann como análogo a la entropía de Gibbs. Estos también son llamados " ψ interpretaciones "epistémicas".

Pero hay un problema, que es este: en el experimento descrito al comienzo de esta pregunta, obtengo un bit de información con cada medición, pero la entropía de von Neumann permanece constante (en cero) en lugar de disminuir un bit. cada vez. En el caso clásico, "la información total que he obtenido sobre el sistema" + "la incertidumbre que tengo sobre el sistema" es constante, mientras que en el caso cuántico puede aumentar. Esto es preocupante, y supongo que lo que realmente quiero saber es si existe alguna interpretación conocida en la que esta información "adicional" se tenga en cuenta de alguna manera (por ejemplo, tal vez podría provenir de los grados térmicos de libertad en el aparato de medición), o en la que se puede demostrar que algo distinto a la entropía de von Neumann juega un papel análogo a la entropía de Gibbs.

Publicado de forma cruzada en theorialphysics.stackexchange.com/q/1164/189

Respuestas (3)

Aunque su afirmación de que

se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann,

Es cierto que en la teoría cuántica y en particular en cualquier interpretación de "colapso" la evolución de un sistema cuántico está gobernada por tal evolución unitaria excepto cuando el sistema está siendo medido; en esos momentos, el sistema sufre un colapso proyectivo no unitario que no conserva la entropía de von Neumann y, por lo tanto, es libre de manipular el contenido de información del mundo. (No estoy seguro de que se pueda argumentar que una medición proyectiva crea o destruye información. Sin embargo, lo que sí creo es que ciertamente hace que el mundo sea más (o al menos no menos) entrópico: si colapsamos sin saber la respuesta, hay una más cosas que descubrir sobre el mundo.)

Gracias por la respuesta. Esta es, por supuesto, una ruta válida para tomar. Pero aún se necesita algo más para decirnos exactamente cuándo ocurren tales colapsos, de lo contrario, se encontrará con problemas con el gato de Schrödinger, el amigo de Wigner, etc. para contar como una medida, la entropía de von Neumann debería cambiar espontáneamente, y nunca observamos eso. Por eso creo que este argumento es un problema serio para las interpretaciones del colapso objetivo. (Sin embargo, los de colapso subjetivo están bien).
Creo que su pregunta se convierte exactamente en el problema de medición (¡todavía muy abierto!). ¿Cuándo exactamente la evolución unitaria da paso a la medición proyectiva? ¿Cómo se debe trazar exactamente la línea de interpretación de Copenhague entre objetos microscópicos y macroscópicos? ¿Se puede siquiera dibujarlo? Tal como yo lo veo, las interpretaciones del colapso objetivo no están en ninguna parte cerca de una posición para responder a estas preguntas, y las interpretaciones del colapso subjetivo (es decir, ¿muchos mundos?) podría decirse que simplemente lo ocultan. (continuación)
No digo que este sea un estado de cosas satisfactorio, pero no creo que la contradicción que observas en tu publicación original realmente exista. Realmente observamos estos cambios de entropía de von Neumann: pase | + = σ X | + a través de un imán SG polarizado en Z y obtendrá (después de rastrear la posición, es decir, si no mira el resultado de la medición) un estado mixto ρ = 1 2 ( | 0 0 | + | 1 1 | ) con entropía de von Neumann positiva.
Observamos cambios de entropía vN, pero solo cuando realizamos mediciones. (La situación que describe es un poco diferente, ya que implica ignorar un bit de información para crear un bit de entropía; esto está bien, porque ignorar la información también crea entropía en un sistema clásico). Si los colapsos objetivos estuvieran ocurriendo espontáneamente en no -escenarios de medición observaríamos disminuciones espontáneas en la entropía vN en sistemas aislados (aunque tal vez tendrían que ser de cierto tamaño y/o complejidad), pero no vemos esto.
Sí, estoy de acuerdo en que este es exactamente el problema de la medición. (Esto es más claro para mí ahora que cuando escribí la pregunta). Supongo que solo estaba interesado en cómo las diversas interpretaciones de QM intentan abordar el problema de la medición, y si mirarlo de esta manera arroja alguna luz sobre si sus estrategias son viables.
Esta discusión fue algo útil, por lo que le otorgué la recompensa.
¿Por qué los votos negativos? por favor comenta...
No sé quién te votó negativo (no fui yo). Pero después de volver a leer su respuesta, ahora veo lo que quiere decir acerca de que los colapsos espontáneos aumentan la entropía vN: está diciendo que un colapso espontáneo sería equivalente a hacer una medición pero no mirar la respuesta. Es una observación bastante interesante, y no estoy seguro de por qué no la entendí antes.

Dos cosas:

  1. La versión cuántica del teorema de Louiville es el hecho de que la evolución del tiempo es un operador unitario, es decir, conserva las amplitudes.

  2. La medición no es misteriosa. El problema conceptual es preguntar qué es clásico. Las medidas, como todas las interacciones, son cuánticas: se trata el sistema como cuántico, el aparato de medición como cuántico y se deja que interactúen. El conjunto sistema + aparato evoluciona unitariamente. Ahora, el aparato de medición no se percibe a sí mismo en una superposición --- eso sería lógicamente una tontería, así que desde el punto de vista del aparato el sistema está "colapsado" a algún estado, que se correlaciona con el estado del aparato. Proceduralmente, modelamos esto rastreando los grados de libertad en el aparato y obtenemos una matriz de densidad para el sistema.

Apoyaré a genneth y publicaré mi respuesta solo como comentario. ... Las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que obtienes una cadena aleatoria cuando haces eso. El teorema de Liouville solo se aplica a modelos de física estadística clásica , consulte en.wikipedia.org/wiki/Liouville%27s_theorem_(Hamiltonian) ... Nuestro mundo no es clásico, por lo que no tiene que obedecer el teorema de Liouville. La extensión cuántica solo dice que la evolución es unitaria, es decir, la probabilidad total es 1 para cualquier estado inicial, pero no que la aleatoriedad esté prohibida.
@genneth, ¿diría que su punto 2 es diferente de respaldar una interpretación sin colapso? Me parece que está diciendo que el sistema general + aparato (+ observador) está en una superposición de estados en los que se han producido diferentes resultados de medición; por lo tanto, la función de onda nunca colapsa, sino que solo parece hacerlo porque los observadores superpuestos son independientes de uno otro. Puedo ver muy claramente que lo que describí no es problemático bajo tal interpretación, pero estaba preguntando cómo lo manejan otras interpretaciones.
@LubošMotl Entiendo el análogo cuántico del teorema de Liouville. Implica que la entropía de von Neumann se conserva tanto como el teorema clásico de Liouville implica la conservación de la entropía de Shannon. Es esto lo que me cuesta conciliar con la presencia de la estocasticidad.
He editado la pregunta para aclarar ese punto. (No debería haberme referido a la evolución unitaria como "teorema de Liouville", solo tengo el hábito mental de pensar en ellos como la misma cosa).
Cada interpretación ve esto en la misma línea que el acto de hacer una medición. Si crees que tu alma colapsa el estado necesitas aceptar que la información correlacionada con tu alma también tiene una evolución no unitaria (la información no se conserva, puedes aprender y perder información). Si crees que entras en algún mundo de interpretación de muchos mundos, debes aceptar que la información no se conserva en la línea del mundo que experimentas. Si la medición es un agujero especial de su interpretación, entonces debe aceptar que la información no se conserva en algún sentido.
De lo contrario, tratará la mecánica cuántica con una función de onda universal.
Una superposición de aparatos implica múltiples aparatos y, por lo tanto, múltiples conciencias, si asumimos que cada aparato equivale a un ser consciente.
Entonces, ¿de dónde viene el elemento probabilidad/aleatorio? No hay términos estocásticos en la evolución, entonces, ¿cómo puede ser percibido un resultado aleatorio/no determinista de la medición por quien hace el experimento (y es parte del sistema cuántico más grande)? ¿Qué concilia este no determinismo con la evolución determinista?

En la interpretación "estándar", la evolución unitaria solo ocurre cuando no hay observación.

La presencia del observador hace que la evolución no sea unitaria, por lo que pueden ocurrir procesos no deterministas.

Esto hace que cualquier interpretación con colapso no sea simétrica frente a diferentes personas. Cierta persona distinguida (el observador) puede hacer el derrumbe y otros no. Esto significa que hay una persona viva en la Tierra con propiedades físicas especiales, la capacidad de hacer colapsar la función de onda. Quién es esa persona se puede determinar por medios físicos (aunque es bastante difícil porque requiere un buen aislamiento, actualmente imposible a las temperaturas a las que se puede vivir).

Cualquier interpretación que postule el colapso ("objetivo") independiente del observador, la igualdad de todas las personas, etc., es claramente errónea.