Digamos que tenemos un sistema cerrado con estados en un espacio de Hilbert . Cada estado se puede expresar como una suma de estados propios de energía. En un sistema cerrado, como una caja de átomos, la entropía aumentará hasta que todo el sistema esté en equilibrio térmico. Sin embargo, cuando escribimos un estado como una suma de estados propios de energía, la evolución del tiempo simplemente aporta una fase a cada estado base. No me parece que los estados se vuelvan más "desordenados" con el tiempo, entonces, ¿cómo puede aumentar la entropía?
Permítanme formular mi pregunta de manera diferente. Recuerdo a un profesor que una vez escribió
De hecho, la entropía total de un sistema aislado no cambia bajo la evolución temporal de Schrödinger. Para ver esto, tenga en cuenta que (suponiendo por simplicidad que el hamiltoniano no depende explícitamente del tiempo) la matriz de densidad del sistema satisface la ecuación de Von Neumann , asi que y son siempre unitariamente equivalentes y, por lo tanto, tienen el mismo espectro de valores propios. Por tanto, cualquier medida de entropía que dependa únicamente de los pesos de la matriz de densidad (que, en la práctica, son todos ellos), es constante en el tiempo.
Pero la entropía de entrelazamiento entre subsistemas sí puede aumentar, porque los subsistemas no están aislados. Entonces, si el sistema, digamos, comienza en un estado de producto sin entrelazamiento espacial entre sus subsistemas, entonces, genéricamente, la evolución temporal de Schrödinger conducirá a un entrelazamiento creciente entre los subsistemas, por lo que el localla entropía asociada con cada pequeña parte del sistema completo aumentará, incluso si la entropía total permanece constante. Este hecho se basa en una característica muy poco clásica de la entropía de Von Neumann, que es que la suma de las entropías de los subsistemas puede ser mayor que la entropía del sistema como un todo. (De hecho, al estudiar el entrelazamiento del estado fundamental, a menudo consideramos sistemas en los que los subsistemas tienen una entropía de entrelazamiento muy grande, pero el sistema como un todo está en un estado puro y, por lo tanto, ¡tiene una entropía cero !)
Los subcampos de "termalización de estado propio", "propagación de entrelazamiento" y "localización de muchos cuerpos", que se encuentran bajo investigación muy activa en la actualidad, estudian las formas en que la evolución temporal de Schrödinger de varios sistemas conduce o no a un aumento de entropía de entrelazamiento de los subsistemas, aun cuando la entropía del sistema como un todo siempre permanece igual.
Aunque tparker expresa una opinión común, no estoy de acuerdo. La entropía en los sistemas cerrados, ya sea cuántico o clásico, puede aumentar . Esto debería ser completamente obvio desde una perspectiva física: imagine tener una caja cerrada de gas donde en el estado inicial todo el gas está en la esquina superior izquierda de la caja, esto claramente se homogeneizará con el tiempo, con un aumento de entropía definido. Esta intuición no es diferente en el contexto cuántico, pero intentaré aclarar esto más a continuación.
Por supuesto, si dices , no puede cambiar con el tiempo. Pero esa no es necesariamente la expresión de la entropía de un sistema cerrado. En general, lo que pones en el logaritmo es el volumen del espacio de fase consistente con lo que sabes sobre tu sistema cerrado. Si todo lo que sabe sobre su sistema es su espacio de Hilbert (análogo clásico: todo lo que sabe de una caja es su espacio de fase clásico), entonces necesariamente debe esperar que el sistema esté en su estado de máxima entropía total (análogo clásico: usted está va a adivinar que el gas en la caja es homogéneo), en cuyo caso, por supuesto, nada cambiará en el tiempo.
En otros casos, sin embargo, es posible que sepa más acerca de su sistema, por ejemplo, es posible que conozca alguna distribución espacial no homogénea (inicial) (esta especificación se denomina macroestado ). Clásicamente, la entropía de ese estado está calculando el volumen abarcado por todos los microestados (es decir, puntos en el espacio de fase) consistentes con ese macroestado (equivalentemente se dice que las variables de macroestado dividen el espacio de fase). Tomar el logaritmo de ese número te da la entropía del sistema cerrado en ese macroestado. Esta es la conocida entropía de Boltzmann , y esto ciertamente aumenta con el tiempo para los sistemas cerrados (a menos, por supuesto, que ya comenzó en un estado de máxima entropía). [Curiosamente, tenga en cuenta que la entropía de Gibbs no puede aumentar para sistemas cerrados (una consecuencia del teorema de Liouville), lo que ilustra que la entropía de Boltzmann es, me atrevo a decir, mejor. Algunos dicen que la entropía de Boltzmann es un caso especial de la entropía de Gibbs, pero eso es solo en el aburrido caso de la entropía máxima.]
Lo mismo ocurre en el caso cuántico: suponga que tiene un sistema aislado con algo de espacio de Hilbert . Suponga que todo lo que sabe del sistema es una lista de valores esperados de algunos observables. Considere el conjunto de estados coherente con ese conocimiento. Queremos asignar un volumen sensible a esto tal que podemos definir la entropía de Boltzmann . Si todo lo que conocemos es el espacio de Hilbert (es decir, tenemos una ignorancia total, tal que ), entonces es sensato definir desde entonces, la entropía es aditiva: sumando dos sistemas desacoplados, sus espacios de Hilbert son productos tensoriales tales que sus dimensiones se multiplican y, por lo tanto, es de hecho aditivo. Esto es consistente con lo que tu profesor escribió. Más generalmente, si es meramente una subregión del espacio total, le asignaríamos ser la fracción correspondiente. Esto se puede definir sensatamente de la siguiente manera: sea denotamos la proyección sobre el espacio proyectivo de Hilbert (es decir, modificamos el grado de libertad de gauge), entonces ahora tenemos una variedad compacta (con una subvariedad ) tal que podemos asignar
innisfree
parker
innisfree
el espacio es verde oscuro
parker
el espacio es verde oscuro
ruben verresen