Considere el siguiente experimento. Doy una vuelta- partícula y hacer una medición (mida el giro en el dirección), luego haga una medida, luego otra uno, entonces , y así sucesivamente para mediciones. El formalismo de la mecánica cuántica nos dice que los resultados de estas medidas serán aleatorios e independientes. Ahora tengo una cadena de bits completamente aleatorios, de longitud . Brevemente, mi pregunta es ¿de dónde proviene la información de esta cadena?
La respuesta obvia es "las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que obtienes una cadena aleatoria cuando haces eso". El problema que tengo con esto es que se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann, al igual que la evolución hamiltoniana de un sistema clásico conserva la entropía de Shannon. En el caso clásico, esto puede interpretarse como "ningún proceso puede crear o destruir información a nivel microscópico". Parece que lo mismo debería ser cierto para el caso cuántico también, pero esto parece difícil de reconciliar con la existencia de aleatoriedad "verdadera" en la medición cuántica, que parece crear información.
Está claro que hay algunas interpretaciones para las que esto no es un problema. En particular, para una interpretación sin colapso, el Universo simplemente termina en una superposición de estados, cada uno con un observador mirando una cadena de salida diferente.
Pero no soy un gran fanático de las interpretaciones sin colapso, así que me pregunto cómo otras interpretaciones cuánticas se las arreglan con esto. En particular, en la interpretación "estándar" (me refiero a aquella a la que se adhiere la gente cuando dice que la mecánica cuántica no necesita una interpretación), ¿cómo se reconcilia la indeterminación de la medida con la conservación de la entropía de von Neumann? ¿Hay alguna interpretación distinta al no-colapso que pueda resolverlo particularmente bien?
apéndice
Parece que vale la pena resumir mi pensamiento actual sobre esto y tratar de aclarar lo que realmente estoy preguntando.
Quiero comenzar hablando del caso clásico, porque solo así puedo aclarar dónde parece fallar la analogía. Consideremos un sistema clásico que puede asumir uno de estados discretos (microestados). Dado que inicialmente no sé en qué estado se encuentra el sistema, modelo el sistema con una distribución de probabilidad.
El sistema evoluciona con el tiempo. Modelamos esto tomando el vector de probabilidades y multiplicándola por una matriz T en cada paso de tiempo, es decir . El análogo discreto de la dinámica hamiltoniana resulta ser la suposición de que es una matriz de permutación, es decir, tiene exactamente un 1 en cada fila y columna, y todas sus demás entradas son 0. (Observe que las matrices de permutación son un subconjunto de matrices unitarias). Resulta que, bajo esta suposición, la entropía de Gibbs (también conocido como entropía de Shannon) no cambia con el tiempo.
(También vale la pena mencionar, como un aparte, que en lugar de representar como vector, podría optar por representarlo como una matriz diagonal , con . Entonces se parece mucho al formalismo de la matriz de densidad, con jugando el papel de y siendo equivalente a la evolución unitaria.)
Ahora digamos que hago una medición del sistema. Asumiremos que no perturbo el sistema cuando hago esto. Por ejemplo, digamos que el sistema tiene dos estados, y que inicialmente no tengo idea en cuál de ellos está el sistema, entonces . Después de mi medición, sé en qué estado se encuentra el sistema, por lo que se convertirá en cualquiera o con igual probabilidad. He ganado un poco de información sobre el sistema, y se ha reducido un poco. En el caso clásico, estos siempre serán iguales, a menos que el sistema interactúe con algún otro sistema cuyo estado no conozco con precisión (como, por ejemplo, un baño de calor).
Visto desde este punto de vista, el cambio en la entropía de von Neumann cuando se realiza una medición cuántica no es sorprendente. Si la entropía solo representa una falta de información sobre un sistema, entonces, por supuesto, debería disminuir cuando obtenemos información. En los comentarios a continuación, donde me refiero a interpretaciones de "colapso subjetivo", me refiero a interpretaciones que intentan interpretar el "colapso" de una función de onda como análogo al "colapso" de la distribución de probabilidad clásica como se describe anteriormente, y la entropía de von Neumann como análogo a la entropía de Gibbs. Estos también son llamados " interpretaciones "epistémicas".
Pero hay un problema, que es este: en el experimento descrito al comienzo de esta pregunta, obtengo un bit de información con cada medición, pero la entropía de von Neumann permanece constante (en cero) en lugar de disminuir un bit. cada vez. En el caso clásico, "la información total que he obtenido sobre el sistema" + "la incertidumbre que tengo sobre el sistema" es constante, mientras que en el caso cuántico puede aumentar. Esto es preocupante, y supongo que lo que realmente quiero saber es si existe alguna interpretación conocida en la que esta información "adicional" se tenga en cuenta de alguna manera (por ejemplo, tal vez podría provenir de los grados térmicos de libertad en el aparato de medición), o en la que se puede demostrar que algo distinto a la entropía de von Neumann juega un papel análogo a la entropía de Gibbs.
Aunque su afirmación de que
se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann,
Es cierto que en la teoría cuántica y en particular en cualquier interpretación de "colapso" la evolución de un sistema cuántico está gobernada por tal evolución unitaria excepto cuando el sistema está siendo medido; en esos momentos, el sistema sufre un colapso proyectivo no unitario que no conserva la entropía de von Neumann y, por lo tanto, es libre de manipular el contenido de información del mundo. (No estoy seguro de que se pueda argumentar que una medición proyectiva crea o destruye información. Sin embargo, lo que sí creo es que ciertamente hace que el mundo sea más (o al menos no menos) entrópico: si colapsamos sin saber la respuesta, hay una más cosas que descubrir sobre el mundo.)
Dos cosas:
La versión cuántica del teorema de Louiville es el hecho de que la evolución del tiempo es un operador unitario, es decir, conserva las amplitudes.
La medición no es misteriosa. El problema conceptual es preguntar qué es clásico. Las medidas, como todas las interacciones, son cuánticas: se trata el sistema como cuántico, el aparato de medición como cuántico y se deja que interactúen. El conjunto sistema + aparato evoluciona unitariamente. Ahora, el aparato de medición no se percibe a sí mismo en una superposición --- eso sería lógicamente una tontería, así que desde el punto de vista del aparato el sistema está "colapsado" a algún estado, que se correlaciona con el estado del aparato. Proceduralmente, modelamos esto rastreando los grados de libertad en el aparato y obtenemos una matriz de densidad para el sistema.
En la interpretación "estándar", la evolución unitaria solo ocurre cuando no hay observación.
La presencia del observador hace que la evolución no sea unitaria, por lo que pueden ocurrir procesos no deterministas.
Esto hace que cualquier interpretación con colapso no sea simétrica frente a diferentes personas. Cierta persona distinguida (el observador) puede hacer el derrumbe y otros no. Esto significa que hay una persona viva en la Tierra con propiedades físicas especiales, la capacidad de hacer colapsar la función de onda. Quién es esa persona se puede determinar por medios físicos (aunque es bastante difícil porque requiere un buen aislamiento, actualmente imposible a las temperaturas a las que se puede vivir).
Cualquier interpretación que postule el colapso ("objetivo") independiente del observador, la igualdad de todas las personas, etc., es claramente errónea.
qmecanico