¿Cómo puede aumentar la entropía en la mecánica cuántica?

Digamos que tenemos un sistema cerrado con estados en un espacio de Hilbert H . Cada estado se puede expresar como una suma de estados propios de energía. En un sistema cerrado, como una caja de átomos, la entropía aumentará hasta que todo el sistema esté en equilibrio térmico. Sin embargo, cuando escribimos un estado como una suma de estados propios de energía, la evolución del tiempo simplemente aporta una fase a cada estado base. No me parece que los estados se vuelvan más "desordenados" con el tiempo, entonces, ¿cómo puede aumentar la entropía?

Permítanme formular mi pregunta de manera diferente. Recuerdo a un profesor que una vez escribió

S = k Iniciar sesión ( oscuro H )
a bordo. Ciertamente, la dimensionalidad de un espacio de Hilbert no cambia con la evolución del tiempo. Entonces, ¿cómo puede aumentar la entropía con la evolución del tiempo? ¿La ecuación anterior solo es correcta bajo ciertas condiciones? Debe haber un gran defecto en mi razonamiento/memoria.

pienso S = Tr ρ en ρ Es más común; ver en.wikipedia.org/wiki/Von_Neumann_entropy
@innisfree La ecuación de OP es el caso especial de la entropía de Von Neumann donde ρ = ( 1 / oscuro H )   yo es el estado de máxima mezcla, por ejemplo, el conjunto de Gibbs a temperatura infinita. También es la entropía de Renyi con α = 0 .
@tparker oh sí, así es
Demasiado cansado para escribir una respuesta en este momento, pero considere esta pregunta relacionada: un sistema hamiltoniano clásico es invariante en el tiempo. ¿Cómo puede aumentar su entropía con el tiempo?
@spaceisdarkgreen Creo que la paradoja de Loschmidt es una pregunta igualmente interesante pero algo no relacionada, porque la no linealidad de la evolución temporal clásica conduce naturalmente a la ergodicidad. por lo que la entropía total realmente puede aumentar (si partimos de una condición inicial reconocidamente no genérica). Pero la linealidad de la evolución del tiempo de Schrödinger significa que la evolución del tiempo cuántico es manifiestamente no ergódica (la gran mayoría del espacio de Hilbert nunca se ve afectado), por lo que es mucho más difícil explicar por qué esperaríamos que el postulado fundamental de la mecánica estadística se aplicara en el caso cuántico.
@tparker de acuerdo. Pensado por la redacción de la pregunta, OP estaba confundido en este punto, pero al leerlo de nuevo más de cerca, no está claro de ninguna manera que lo estén.
@tparker He escuchado la afirmación antes de que la linealidad de QM implica no ergodicidad. ¿Por qué debería ser eso? Me doy cuenta de que significa que el vector de diferencia entre dos estados no cambia en la norma (y, por lo tanto, hace que definir un exponente de Lyapunov sea problemático), pero no veo cómo eso tiene relación con la ergodicidad. De hecho, dados dos estados cuánticos, creo que sería físicamente más sensato caracterizar su diferencia en términos de la distancia en C PAGS norte 1 , no C norte , que es altamente no lineal. (Además, tenga en cuenta que incluso el clásico t ρ = { H , ρ } es lineal.)

Respuestas (2)

De hecho, la entropía total de un sistema aislado no cambia bajo la evolución temporal de Schrödinger. Para ver esto, tenga en cuenta que (suponiendo por simplicidad que el hamiltoniano no depende explícitamente del tiempo) la matriz de densidad del sistema satisface la ecuación de Von Neumann ρ ( t ) = mi i H t / ρ ( 0 ) mi i H t / , asi que ρ ( t ) y ρ ( 0 ) son siempre unitariamente equivalentes y, por lo tanto, tienen el mismo espectro de valores propios. Por tanto, cualquier medida de entropía que dependa únicamente de los pesos de la matriz de densidad (que, en la práctica, son todos ellos), es constante en el tiempo.

Pero la entropía de entrelazamiento entre subsistemas sí puede aumentar, porque los subsistemas no están aislados. Entonces, si el sistema, digamos, comienza en un estado de producto sin entrelazamiento espacial entre sus subsistemas, entonces, genéricamente, la evolución temporal de Schrödinger conducirá a un entrelazamiento creciente entre los subsistemas, por lo que el localla entropía asociada con cada pequeña parte del sistema completo aumentará, incluso si la entropía total permanece constante. Este hecho se basa en una característica muy poco clásica de la entropía de Von Neumann, que es que la suma de las entropías de los subsistemas puede ser mayor que la entropía del sistema como un todo. (De hecho, al estudiar el entrelazamiento del estado fundamental, a menudo consideramos sistemas en los que los subsistemas tienen una entropía de entrelazamiento muy grande, pero el sistema como un todo está en un estado puro y, por lo tanto, ¡tiene una entropía cero !)

Los subcampos de "termalización de estado propio", "propagación de entrelazamiento" y "localización de muchos cuerpos", que se encuentran bajo investigación muy activa en la actualidad, estudian las formas en que la evolución temporal de Schrödinger de varios sistemas conduce o no a un aumento de entropía de entrelazamiento de los subsistemas, aun cuando la entropía del sistema como un todo siempre permanece igual.

¡Muy interesante! Si puedo preguntar, ¿qué cambia cuando el hamiltoniano depende del tiempo? ¿La matriz de densidad del sistema subyacente todavía no evoluciona unitariamente en el tiempo?
@ user929304 Buena pregunta. Tiene razón en que todo se lleva a cabo casi de manera idéntica si el hamiltoniano depende explícitamente del tiempo, excepto que la ecuación de von Neumann se convierte en ρ ( t ) = tu ( t ) ρ ( 0 ) tu ( t ) , donde el operador de evolución temporal unitario tu es una función mucho más complicada del hamiltoniano, que está dada formalmente por la expansión de Magnus . He editado mi respuesta para aclarar.

Aunque tparker expresa una opinión común, no estoy de acuerdo. La entropía en los sistemas cerrados, ya sea cuántico o clásico, puede aumentar . Esto debería ser completamente obvio desde una perspectiva física: imagine tener una caja cerrada de gas donde en el estado inicial todo el gas está en la esquina superior izquierda de la caja, esto claramente se homogeneizará con el tiempo, con un aumento de entropía definido. Esta intuición no es diferente en el contexto cuántico, pero intentaré aclarar esto más a continuación.

Por supuesto, si dices S = k Iniciar sesión ( oscuro H ) , no puede cambiar con el tiempo. Pero esa no es necesariamente la expresión de la entropía de un sistema cerrado. En general, lo que pones en el logaritmo es el volumen del espacio de fase consistente con lo que sabes sobre tu sistema cerrado. Si todo lo que sabe sobre su sistema es su espacio de Hilbert (análogo clásico: todo lo que sabe de una caja es su espacio de fase clásico), entonces necesariamente debe esperar que el sistema esté en su estado de máxima entropía total (análogo clásico: usted está va a adivinar que el gas en la caja es homogéneo), en cuyo caso, por supuesto, nada cambiará en el tiempo.

En otros casos, sin embargo, es posible que sepa más acerca de su sistema, por ejemplo, es posible que conozca alguna distribución espacial no homogénea (inicial) (esta especificación se denomina macroestado ). Clásicamente, la entropía de ese estado está calculando el volumen Ω abarcado por todos los microestados (es decir, puntos en el espacio de fase) consistentes con ese macroestado (equivalentemente se dice que las variables de macroestado dividen el espacio de fase). Tomar el logaritmo de ese número te da la entropía del sistema cerrado en ese macroestado. Esta es la conocida entropía de Boltzmann S = k Iniciar sesión Ω , y esto ciertamente aumenta con el tiempo para los sistemas cerrados (a menos, por supuesto, que ya comenzó en un estado de máxima entropía). [Curiosamente, tenga en cuenta que la entropía de Gibbs no puede aumentar para sistemas cerrados (una consecuencia del teorema de Liouville), lo que ilustra que la entropía de Boltzmann es, me atrevo a decir, mejor. Algunos dicen que la entropía de Boltzmann es un caso especial de la entropía de Gibbs, pero eso es solo en el aburrido caso de la entropía máxima.]

Lo mismo ocurre en el caso cuántico: suponga que tiene un sistema aislado con algo de espacio de Hilbert H C norte . Suponga que todo lo que sabe del sistema es una lista de valores esperados de algunos observables. Considere el conjunto de estados S H coherente con ese conocimiento. Queremos asignar un volumen sensible Ω S a esto tal que podemos definir la entropía de Boltzmann S = k Iniciar sesión Ω S . Si todo lo que conocemos es el espacio de Hilbert (es decir, tenemos una ignorancia total, tal que S = H ), entonces es sensato definir Ω = oscuro ( H ) = norte desde entonces, la entropía es aditiva: sumando dos sistemas desacoplados, sus espacios de Hilbert son productos tensoriales tales que sus dimensiones se multiplican y, por lo tanto, Iniciar sesión Ω es de hecho aditivo. Esto es consistente con lo que tu profesor escribió. Más generalmente, si S es meramente una subregión del espacio total, le asignaríamos Ω ser la fracción correspondiente. Esto se puede definir sensatamente de la siguiente manera: sea π : C norte C PAGS norte 1 denotamos la proyección sobre el espacio proyectivo de Hilbert (es decir, modificamos el grado de libertad de gauge), entonces ahora tenemos una variedad compacta (con una subvariedad π ( S ) ) tal que podemos asignar

Ω S = norte Vol. ( π ( S ) ) C PAGS norte 1 Vol. ( C PAGS norte 1 ) C PAGS norte 1 .
De todos modos, los detalles de definir el volumen no son tan importantes para esta discusión. El punto es que tenemos una entropía de Boltzmann --similar al caso clásico-- y esto maximizará --similar al caso clásico. Tenga en cuenta que su maximización no es un concepto místico: es la declaración obvia de que el sistema fluirá hacia el macroestado con el mayor número de microestados correspondientes.

Tal vez la entropía de Von Neumann utilizada por tparker no sea equivalente a la entropía de Boltzmann que está utilizando aquí.