¿Cuál es la entropía de un estado puro?

Bueno, cero por supuesto. Porque

S = tr ( ρ en ρ ) y ρ para un estado puro da cero entropía.

Pero... todos los estados cuánticos son realmente estados puros, ¿verdad? Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular. Entonces, ¿cómo pueden surgir propiedades como la entropía y la temperatura de la ignorancia de la información? Eso no tiene sentido para mí.

¿De dónde crees que viene la entropía clásicamente?
¡La entropía no es un concepto fácil! pero cuanto más lees y piensas en ello, más sentido tiene. Puede escribir un libro completo discutiendo su(s) significado(s).
Clásicamente? Básicamente, la forma en que se definió originalmente como motor térmico.
Su pregunta se encuentra en el límite entre la mecánica cuántica y la clásica. Nadie sabe exactamente dónde está esta frontera. Por ejemplo, un objeto que consta de muchas partículas, ¿lo describiremos por mecánica cuántica o clásica? Un objeto clásico está en tan rápido intercambio de energía y partículas con el entorno, que ni siquiera podemos decir en cada momento cuántas partículas y qué energía posee. Entonces, su estado mixto es una superposición cuántica de estados de un objeto de muchas partículas y no conocemos las fases, ¿o tenemos que ver con un objeto clásico de muchos cuerpos?
@Nick Deberías leer a Jaynes: erudito.google.com/…
¿No es un estado puro equivalente a un "microestado" en mecánica estadística? Creo que solo se puede hablar de la entropía del macroestado del que forma parte un microestado particular (y la mayoría de los macroestados consisten en grandes conjuntos de microestados, aunque en principio puede haber macroestados que consisten en un solo microestado). Serían "macroestados" en QM stat. mecánico ser normalmente estados mixtos, consistentes en diferentes conjuntos estadísticos de estados puros? No estoy seguro, pero si es así, se podría aplicar la misma idea, en el sentido de que solo podría hablar sobre la entropía del estado mixto del que formaba parte el estado puro.
Los sistemas abiertos cuánticos no están en estado puro. No tiene nada que ver con la ignorancia, sino con las correlaciones cuánticas con el entorno.

Respuestas (5)

Creo que es un error, en este caso, pensar en la entropía como "una descripción de nuestra ignorancia". Más bien, sugeriría que piense en la entropía como una propiedad objetiva bien definida, siempre que especifique qué grados de libertad en el universo están dentro y fuera de su sistema. El contenido de esta declaración no es realmente diferente, pero enfatiza que la entropía es una propiedad objetiva y no dependiente del observador.

Si su lista incluida es "todo" (o al menos todo lo que ha interactuado alguna vez en la historia de su sistema), entonces lo que dijo es cierto: si comenzó con un estado puro, siempre permanecerá así, y no hay No hay mucho que hablar de termodinámica.

La pregunta básica de la termodinámica (y, en términos más generales, de la mecánica estadística) es qué sucede en cualquier otro caso ; por lo general, el caso en el que los grados de libertad que especifica están continuamente acoplados a un sistema abierto de alguna manera. Sorprendentemente, existe una respuesta general a esta pregunta para muchos de estos arreglos.

Más concretamente, en la termodinámica clásica, una de las cosas importantes sobre la entropía y la temperatura es que te dicen cuánto trabajo puedes extraer de un sistema. Entonces, una forma de reformar su pregunta es: "¿Cómo pueden las propiedades como el máximo trabajo extraído surgir de la ignorancia de la información?" Pero es fácil pensar en situaciones cuando este es el caso. Como modelo de juguete, imagina a un marinero tratando de navegar en un velero en medio de una tormenta, con el viento cambiando violenta y rápidamente. Si de alguna manera sabe de antemano exactamente cuándo y cómo cambiará el viento, le resultará mucho más fácil moverse en la dirección que desea.

En definitiva, se está jugando un juego similar a nivel microscópico cuando se habla, por ejemplo, de la máxima eficiencia posible en un motor térmico. La conexión explícita la hace el Principio de Landauer , que es el vínculo directo que estás buscando entre los grados de libertad incluidos (o, si insistes, "conocimiento") y el trabajo. Esta ley se inspiró en el famoso experimento mental Maxwell's Demon , que es un equivalente microscópico de mi marinero que predice el clima.


"Más bien, sugeriría que piense en la entropía como una propiedad objetiva bien definida, siempre que especifique qué grados de libertad en el universo están dentro y fuera de su sistema". Bingo.
@Nick, con respecto a su pregunta sobre la sartén (lo siento, no tengo suficiente reputación para comentar sobre esa pregunta), puede estar interesado en una propuesta reciente para modificar la definición estándar de entropía para aplicarla a sistemas cerrados. Sin embargo, véase también esta refutación , que argumenta el punto de vista convencional: que los estados puros tienen una entropía de 0 y una temperatura mal definida.
Me gusta la idea detrás de su primera oración, pero en realidad no se sigue que la entropía no dependa del observador (¡depende del observador!). Más bien, está definiendo un "observador estándar" que tiene acceso a un conjunto dado de observables (o técnicamente, un espacio de estado termodinámico). Entonces, para todos los observadores estándar, la entropía se define de forma única. Sin embargo, aún puede imaginar observadores con acceso a más información (por ejemplo, demonios de Maxwell) para quienes la entropía observada es diferente.
Hola, @MarkMitchison: no estoy seguro de que estemos en desacuerdo de manera profunda, pero había dos cosas que quería enfatizar:
1. La definición de entropía no requiere de ninguna manera la noción de un observador, pero sí requiere una especificación del subespacio considerado, para obtener la matriz de densidad. 2. Un observador puede medir diferentes entropías según los aspectos del sistema que considere. Concretamente, para un sistema de dos partículas entrelazadas se medirá una entropía diferente para cada una de las partículas independientemente del estado totalmente entrelazado.
Estoy de acuerdo en que la noción de un "observador estándar" que solo puede realizar mediciones de cierta complejidad dada es importante y una parte crucial de la conexión entre el uso de la entropía en contextos termodinámicos e informativos. Pero esta es una estructura adicional más allá de lo que estoy discutiendo en mi respuesta, y no es el sentido en el que llamo "objetivo" a la entropía.

Hay una diferencia entre la entropía de "grano fino" y la de "grano grueso". Si comenzamos con un estado puro (entropía cero) y lo evolucionamos en el tiempo, la entropía se mantiene en cero por unidad de tiempo de evolución. La entropía de grano fino no cambió.

La entropía de grano grueso es lo que solemos llamar entropía térmica, y es lo que siempre aumenta (o permanece igual) con el tiempo. Considere un sistema con más de un subsistema. La entropía térmica se define como la suma de todas las entropías de los subsistemas. Digamos, por ejemplo, que comenzamos en un estado puro del sistema como un todo, y todos los subsistemas también están en sus propios estados puros (no necesariamente, pero elegimos que así sea en este ejemplo). Posteriormente, los subsistemas desarrollarán correlaciones debido a las interacciones con otros subsistemas. Dado que los subsistemas ahora tienen una entropía (entrelazamiento), la entropía térmica general no será cero.

Básicamente sé esto por el libro "Una introducción a los agujeros negros, la información y la revolución de la teoría de cuerdas: el universo holográfico" de L. Susskind y J. Lindesay, capítulo "las leyes de la naturaleza". (No necesitas saber nada sobre las cosas en el título para entender la discusión sobre la entropía) Allí, también puedes encontrar una buena explicación que implica la evolución de cierto volumen en el espacio de fase.
Lo sentimos, la respuesta no es satisfactoria. Si asigna a un gas ideal un estado cuántico, entonces si el objeto de muchas partículas no interactúa con el medio ambiente, evoluciona unitariamente y un estado cuántico sigue siendo un estado cuántico único.
@Sofia Cierto, pero ¿cuál es el problema con eso? En mi ejemplo también se mantiene en un estado cuántico puro (aunque la entropía térmica aumenta).
"Considere un sistema con más de un subsistema". ¿Cuál es la definición rigurosa de un subsistema? ¿Cómo se descompone matemáticamente una función de onda multidimensional en subsistemas?
Explicar todo con precisión sería demasiado elaborado aquí. Para los detalles tendrás que leer un libro al respecto. (Como el que mencioné antes). En resumen: cuando tiene un espacio de Hilbert que se puede escribir como un producto tensorial de espacios de Hilbert 'más pequeños', cada uno de estos espacios de Hilbert más pequeños es un subsistema.
Lo siento, supongo que esta respuesta me confunde aún más. Suponga que tiene una sartén aislada flotando en el espacio. Se podría decir que el hamiltoniano para la función de onda de toda la sartén es independiente del tiempo, ya que está muy aislado. Lo que quiero saber es cómo pasar de esta función de onda única, pura y de alta dimensión a una entropía o temperatura. En otras palabras, funcionales f y g tales que f(Ψ) = S y g(Ψ) = T. Seguramente S y T están definidos para este sistema, sin invocar la noción de "subsistemas".
(Bueno, más específicamente, supongo que f y g darían valores esperados para esas dos cantidades).
Buena respuesta. Mencionaste un poco de aditividad de las entropías de los subsistemas independientemente de la interacción o cualquier otra cosa. ¿Podrías aclarar esto un poco más? ¿Es la entropía total sumada independiente de varias posibles divisiones del sistema completo?

El problema es que cuando una función de onda colapsa, tiene una aleatoriedad inherente. Dado que la entropía está fundamentalmente relacionada con la información, comenzaré con información para explicar por qué esto es importante.

Información, aleatoriedad y entropía

Si piensas en la información de un estado como lo que se necesita para definir completamente un sistema, sucede algo interesante. Esto se ilustra mejor tomando una foto e intentando comprimirla. Tomemos esta imagen:

ingrese la descripción de la imagen aquí

Puede pensar en la información necesaria para que definamos completamente un sistema como la cantidad total de detalles que necesitamos para describir el sistema. Para esta imagen, PUEDE representarla como una colección de 2000 x 2000 píxeles, cada uno de los cuales requiere 32 bits de información (RGB+Alfa), o   128 10 8 bits de datos

Sin embargo, digamos que comenzamos a comprimirlo (sin pérdidas), de modo que podamos reconstruirlo completamente a partir de cualquier información que nos quede. Podemos ver fácilmente todos los píxeles, pero la sombra que tenemos es totalmente transparente o totalmente opaca, por lo que podemos eliminar 7 bits de información de todos los demás puntos y representar el alfa como 1 o 0. También vemos que cualquier lugar con transparencia total no requieren valores RGB, por lo que podemos eliminar 24 bits de información de cada punto con total transparencia.

Dado que esta imagen era originalmente un svg, resulta que si seguimos siendo más y más inteligentes en la forma en que comprimimos esto, podríamos reducir la imagen básicamente a 2 formas (contorno blanco y forma de pétalo), 1 radio y 4 ángulos aproximadamente el centro para posicionar cada forma, 4 colores base (quinto para el blanco), una ecuación para el cambio de color degradado y una ecuación para el efecto de sombra.

Resulta que este sistema en realidad solo tiene muy poca información. Lo sorprendente es que este es el caso solo porque la imagen que estamos viendo no es muy aleatoria. Se puede representar con pocos bits de información debido a su uniformidad. Pudimos reducir por completo todos los datos redundantes porque esencialmente no eran aleatorios.

Resulta que para una imagen como esta:

ingrese la descripción de la imagen aquí

Se necesitaría mucha más información para describirlo completamente, ya que es esencialmente aleatorio en todo momento. Realmente no podemos hacer ninguna compresión porque casi toda la información que tenemos no es redundante. La información de un sistema que tiene norte i muchos estados que requieren σ i los bits de información (p. ej., colores, ecuación de forma) que se describirán se reducen a algo aproximadamente como

i = 1 norte norte i σ i + (información aleatoria)

Mecánica Cuántica/Resumen

¿Qué demonios tiene esto que ver con la mecánica cuántica y la entropía de un sistema cuántico?

QM es una teoría probabilística en su núcleo. Cuando una función de onda colapsa, lo hace aleatoriamente, por lo que describir completamente el sistema después de un colapso de una función de onda requiere más y más información exacta si desea un modelo exacto de lo que está sucediendo. Esta creciente aleatoriedad resulta ser la Ley de la Entropía en acción. A medida que los sistemas interactúan, los efectos cuánticos aleatorios perturban cada vez más el sistema. Si lo desea, puede decir que proviene de "variables ocultas", pero muchos físicos han trabajado para refutar el punto de vista ortodoxo de las "variables ocultas" (con gran éxito, debo agregar). Una función de onda colapsada es inherentemente aleatoria, por lo que introduce aleatoriedad a medida que el reloj avanza.

Medios relacionados: Lo que NO es aleatorio

Pero... todos los estados cuánticos son realmente estados puros, ¿verdad?

Existe la formulación de matriz de densidad para el sistema de muchos cuerpos mecánicamente cuántica. Lo que sucede en un problema de muchos cuerpos, del orden de 10^23 moléculas por mol, que son los números apropiados para una formulación termodinámica, es que los elementos fuera de la diagonal son tan pequeños que efectivamente son cero y el sistema de muchos cuerpos ha perdido la mecánica cuántica. correlaciones. El conjunto no está en un estado puro en lo que respecta a nuestras precisiones de medición.

Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular.

También nuestra incapacidad para medir las correlaciones mecánicas cuánticas debido a su tamaño infinitesimal. Tenga en cuenta que en ciertas condiciones, la superconductividad, por ejemplo, las correlaciones existen fuertemente y los estados puros persisten incluso en la gran cantidad de estados corporales. En el estado de muchos cuerpos donde las cantidades termodinámicas clásicas han sido teóricamente definidas e identificadas con variables medidas, las correlaciones mecánicas cuánticas se pierden.

Entonces, ¿cómo pueden surgir propiedades como la entropía y la temperatura de la ignorancia de la información?

Las cantidades termodinámicas de temperatura, presión, etc. se definen mediante mediciones y experimentos. El modelo/teoría termodinámica se desarrolló para describir las mediciones experimentales y predecir nuevas situaciones. Funciona a la perfección en el marco que se definió, excepto en situaciones en las que la naturaleza cuantificada del marco subyacente creó anomalías, como en la radiación del cuerpo negro . Este último desacuerdo con la elegante teoría de la termodinámica fue una de las razones por las que se postuló la naturaleza cuantizada de la radiación y se añadió a la necesidad de la teoría de la mecánica cuántica.

Cuando se estudia física en diferentes dimensiones y energías, se debe tener en cuenta que todas las teorías son en realidad modelos ajustados a observaciones y datos. Las teorías son apropiadas para el marco en el que fueron desarrolladas y existe una jerarquía que va desde el microcosmos cuantificado de partículas elementales, átomos y moléculas hasta el problema de muchos cuerpos de dimensiones macroscópicas. La termodinámica clásica es una teoría emergente del estado de muchos cuerpos de la naturaleza particulada de la materia.

Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular.

No creo que se pueda llamar a nuestra incapacidad para acceder a un estado puro de cualquier sistema una ignorancia sobre un sistema en particular. Porque pienso en el estado puro como una abstracción matemática que solo puede relacionarse con la realidad mediante la aplicación de la regla de Born, que refleja nuestra ignorancia fundamental (similar al numeral de Kant) o, de hecho, una falta de teoría adecuada (variables ocultas), pero en cualquier caso no una ignorancia acerca de un sistema en particular. Las propiedades termodinámicas surgen no del desconocimiento del estado puro, sino del descarte o desconocimiento de la información accesible, lo que se traduce en entropía.