¿Por qué se maximiza la entropía (von Neumann) para un conjunto en equilibrio térmico?

Considere un sistema cuántico en equilibrio térmico con un baño de calor. Para determinar el operador de densidad del sistema, el procedimiento habitual es maximizar la entropía de von Neumann sujeta a la restricción de que el conjunto promedio del hamiltoniano tiene un valor fijo.

¿Qué justifica esta suposición?

Sakurai, en su texto QM, escribe

Justificar esta suposición nos involucraría en una delicada discusión sobre cómo se establece el equilibrio como resultado de las interacciones con el medio ambiente.

Agradecería si alguien pudiera arrojar algo de luz sobre esto. Las referencias también son bienvenidas.

Escuché la sugerencia de que un conjunto de equilibrio térmico se define simplemente por ese operador de densidad que resuelve el problema de optimización con restricciones anterior. Si este es el caso, ¿por qué los sistemas físicos reales que están en contacto débil con baños de calor durante largos períodos están bien descritos por tales conjuntos matemáticos, y cómo se identificaría el multiplicador de Lagrange? β que surge con la temperatura inversa del baño de calor?

Respuestas (2)

Tienes que leer este artículo de Jaynes. No puedo explicarlo tan bien como él, pero intentaré resumir los puntos principales a continuación.

Lo primero es darse cuenta de que la entropía depende del observador: depende de a qué información tenga acceso sobre el sistema. Una temperatura finita significa que no tienes acceso a toda la información sobre el estado del sistema; en particular, no puede realizar un seguimiento de los (infinitos) grados de libertad del baño. Sin embargo, supongamos que algún demonio pudiera llevar la cuenta de todos los grados de libertad del sistema y baño: ve cero entropía. Para el demonio, parece un poco que el sistema total está a temperatura cero (aunque en realidad es mejor decir que la temperatura está mal definida para el demonio).

Dado que eres ignorante (lo siento, pero al menos no te estoy llamando demonio), necesitas encontrar una receta consistente para asignar probabilidades a los diferentes microestados. La prescripción debe ser 'honesta' sobre lo que sabe o no sabe. La entropía es, en cierto sentido, una medida única de la ignorancia, como lo demostró Shannon. Por lo tanto, debe 'maximizar su ignorancia', sujeto a la restricción de que conoce ciertos observables macroscópicos, por ejemplo, energía promedio o número de partículas promedio si el sistema está abierto, etc.

Maximizar la entropía del sistema es la forma más lógica de asignar probabilidades a los microestados del sistema, dado acceso solo a un subconjunto limitado de observables. El mismo principio 'MaxEnt' es bastante general y se aplica a todos los análisis estadísticos, no solo a la física. El multiplicador de Lagrange β se identifica con la temperatura inversa al comparar el resultado de este procedimiento abstracto con los hechos experimentales de la termodinámica fenomenológica.

Si está interesado en la dinámica real del equilibrio, ha habido mucha literatura sobre esto recientemente, especialmente en sistemas mesoscópicos. Se presta especial atención a la integrabilidad del sistema: los sistemas no integrables (caóticos) se termalizan, mientras que existe bastante evidencia de que los sistemas integrables no se termalizan correctamente. Intuitivamente, esto se debe a que los sistemas integrables tienen un conjunto máximo de cantidades conservadas localmente de modo que, incluso cuando están en contacto con un baño de calor, la memoria de las condiciones iniciales nunca se pierde del todo.

Ver, por ejemplo: Dinámica de termalización en pequeños sistemas modelo Hubbard y Termalización y ergodicidad en sistemas cuánticos abiertos de muchos cuerpos , si busca 'termalización' (sic) en arxiv, encontrará muchos más.

gracias marca Sí, en realidad me olvidé del punto de vista teórico de la información por alguna razón cuando estaba haciendo esta pregunta. Supongo que esperaba que el principio MaxEnt pudiera justificarse de alguna manera no solo desde la perspectiva de la inferencia estadística, sino que emergiera en conjuntos de equilibrio como consecuencia del proceso de equilibración (o algo por el estilo). ¿Crees que tal expectativa no es razonable? No estoy muy seguro de qué pensar sobre este punto. Además, muchas gracias por las referencias al final.
Creo que esta es una muy buena pregunta, y es objeto de mucha investigación en este momento, aunque viene con una advertencia. En el contexto de la física clásica, es importante recordar que el sistema siempre está realmente en estado puro. Así que la aparición del conjunto de Gibbs no puede realmente separarse del conocimiento subjetivo del observador sobre el sistema. Pienso en ello como ignorancia/información/entropía que se crea dinámicamente cada vez que el sistema interactúa con grados de libertad que el observador no puede rastrear.
(cont.) Cuando la distribución de energía/partícula, etc. es uniforme en escalas más largas que la resolución experimental mínima alcanzable, las interacciones adicionales no aumentan la entropía del observador, es decir, la distribución de probabilidad alcanza el estado estacionario.
(cont.) Sin embargo, en la mecánica cuántica no se puede decir que el sistema está siempre en estado puro, y la incertidumbre del observador no es subjetiva, es requerida por las leyes de la física. Puede estudiar el equilibrio de pequeños sistemas cuánticos en un baño de calor y encontrará que el sistema evoluciona hacia un estado térmico, básicamente debido al entrelazamiento con el baño. Asimismo, se ha demostrado que casi todos los estados bipartitos para sistemas con división natural sistema-ambiente son localmente térmicos, ver aquí .
Vaya, muchas gracias Marcos. No podría haber pedido mejores respuestas; Definitivamente miraré todas las referencias que sugieres.
Mi placer :-)
Esa es una gran pieza de escritura técnica, Mark. Creo que incluso el mismo Jaynes habría estado feliz de delegarte una descripción de su trabajo. Y creo que la Sección 2 del artículo de Jaynes que usted cita es una de las mejores y más claras piezas de escritura técnica que he visto.
@WetSavannaAnimalakaRodVance Gracias :) Me alegro de que alguien todavía lea ocasionalmente estas publicaciones antiguas. Estoy de acuerdo, el artículo de Jaynes es una de las mejores piezas de prosa científica que he leído, y también fue una revelación personal cuando lo encontré por primera vez.
@MarkMitchison ¿Por qué un sistema clásico siempre está realmente en estado puro? ¿Significa que los microestados que contribuyen a la entropía dependen del conocimiento subjetivo del observador?

Aquí hay un enfoque alternativo para responder a esta pregunta ( que ignora la temperatura y los multiplicadores de Lagrange ) que nos brinda la primera ley de la termodinámica y la información cuántica.

En resumen, un conjunto que interactúa débilmente en equilibrio térmico maximiza la entropía de von Neumann porque al hacerlo minimiza la energía libre del sistema.

¿Por qué podemos decir esto? Un conjunto de interacción débil en equilibrio térmico corresponde a un estado de Gibbs, que no es más que una versión cuántica de un conjunto canónico. Podemos escribir esto como

ρ ^ β = mi β H ^ Z
dónde Z es la función de partición canónica. Los conjuntos canónicos también tienen una cantidad relacionada conocida como la energía libre de Gibbs dada por
F = tu t S
dónde tu es la energía interna y t es la temperatura Podemos escribir una versión cuántica de esto como
F = H ^ t S .
Para un estado de Gibbs, esto coincidirá con la energía libre de Gibbs, pero ¿qué pasa si definimos esta cantidad para un estado cuántico arbitrario que modela un sistema cuántico abierto tomando S ser la entropía de von Neumann
S = tr { ρ ^ en ρ ^ } .
En general tenemos
F ( ρ ^ ) = tr { ρ ^ H ^ } + β 1 tr { ρ ^ en ρ ^ } = β 1 tr { ρ ^ ( en ρ ^ + β H ^ ) }
por la linealidad de la traza. La energía libre de un estado de Gibbs es la energía libre de Gibbs
F ( ρ β ^ ) = β en Z = β 1 en ( tr { mi β H ^ } ) .
Considerando la entropía relativa de este estado arbitrario ρ ^ y el estado de Gibbs ρ ^ β tenemos
D ( ρ ^ | | ρ ^ β ) = tr { ρ ^ en ρ ^ } tr { ρ ^ en ρ ^ β }
que se puede expresar en términos de energía libre como
D ( ρ ^ | | ρ ^ β ) = β ( F ( ρ ^ ) F ( ρ ^ β ) ) .
Pero, se sabe que la entropía relativa no es negativa .
D ( | | ) 0.
Como resultado, la energía libre de Gibbs es la energía libre más baja posible o la energía libre del estado de Gibbs es mínima.

La primera ley de la termodinámica se puede establecer en este contexto como

d mi = t d S + d F
entonces, si los estados de Gibbs minimizan la energía libre, maximizan la entropía de von Neumann , que resulta ser la entropía de Gibbs.

Más allá de esto, también se puede justificar el enfoque del equilibrio térmico sobre la base de la información cuántica ampliando este argumento. Cualquier canal cuántico que conserve el estado de Gibbs no puede aumentar la energía libre. Más bien, la energía libre de los estados fuera de equilibrio está disminuyendo monótonamente hasta el equilibrio que da la energía libre de Gibbs, maximizando la entropía de von Neumann en tiempos largos.

Este argumento lo da Preskill en sus notas sobre la teoría cuántica de Shannon .