¿Varía la entropía de un sistema en el equilibrio?

No soy físico y esta pregunta puede parecer trivial. Pero entiendo que en el equilibrio las magnitudes como la temperatura o el volumen no varían. ¿Es lo mismo para la entropía? Mi lógica dice que no debería, y he aquí por qué:

La entropía es proporcional al número de microestados de un macroestado En el equilibrio, un sistema es uno de los macroestados con más microestados -> Pero no necesariamente en el que tiene más de ellos. El sistema puede visitar macroestados con un número ligeramente diferente de microestados Si este es el caso, la entropía estaría variando (aunque tal vez no demasiado, pero lo sería)

¿Me equivoco aquí o el razonamiento es bueno?

Hay diferentes formulaciones (equivalentes) de la segunda ley de la termodinámica. Planck ha declarado la siguiente versión: "Todo proceso que ocurre en la naturaleza procede en el sentido en que aumenta la suma de las entropías de todos los cuerpos que participan en el proceso. En el límite, es decir, para los procesos reversibles, la suma de las entropías permanece sin alterar.". La idea importante aquí es que el aumento de entropía para los procesos reversibles es cero. Un sistema en equilibrio es el sistema reversible más trivial (el proceso inverso es idéntico al original).

Respuestas (2)

El equilibrio se define en las nociones originales de la termodinámica como el estado estático asintótico. Es decir, según esta definición, ninguna cantidad macroscópica varía en el equilibrio .

Sin embargo, la física estadística nos dice que el sistema varía en una cierta "caminata aleatoria" alrededor de todos los estados posibles y nunca se detiene . Simplemente no podemos distinguir la mayoría de estos estados macroscópicamente. Pero una vez que el sistema entra en el microestado, que es uno de los conjuntos abrumadoramente dominantes de microestados que observamos como "equilibrio", es muy probable que elija otro de los microestados de "equilibrio" en su próximo paso aleatorio. Entonces observamos que se quede allí y que esté en equilibrio sin cambios.

Pero, ¿cambia la entropía? La entropía es estrictamente una propiedad del macroestado, es decir, el estado aproximado observado: es solo una medida de los microestados que dan el mismo macroestado. Hay un solo macroestado llamado "equilibrio". Entonces, la entropía en un macroestado fijo no puede variar por definición . En este sentido la respuesta es un no muy estricto .

Pero como se menciona en el segundo párrafo, el sistema nunca detiene su recorrido aleatorio. Entonces, el sistema realmente fluctúa alrededor del equilibrio incluso macroscópicamente. Dado que alcanza un macroestado diferente, necesariamente variará en entropía. ¿Por qué? Debido a que el equilibrio es un máximo local de entropía en el espacio del macroestado, cualquier macroestado adjunto tendrá estrictamente una entropía diferente. Por lo tanto, incluso podemos decir cuál será la dirección de las variaciones: la entropía siempre fluctuará brevemente a valores ligeramente más pequeños que en el equilibrio .


EDITAR: en esta discusión, supongo que podemos observar distintas fluctuaciones en los parámetros macroscópicos, como la energía interna y el volumen, y luego la entropía se define utilizando el volumen del espacio de fase Ω C (número de microestados) limitado por los valores inmediatos de los parámetros macroscópicos:

S = k B registro Ω C
Pero no observamos la energía interna directamente, por lo que podemos pensar en un sistema aislado con un volumen fijo V , comience fuera del equilibrio y observe las fluctuaciones en la presión. Allí observaríamos exactamente los efectos mencionados.

Incluso en el caso de una interpretación estadística, la entropía no es una cantidad momentánea, sino que se define como un promedio de TODOS los microestados del sistema (o cualquier conjunto que elijamos para una aplicación en particular). Como tal, es una constante para un sistema en equilibrio, que caracteriza todos los estados relevantes del sistema, y ​​no el estado real en el que se encuentra en un momento dado.
Bueno, según la definición estadística axiomática, tiene razón. Pero considere lo siguiente: los parámetros macroscópicos fluctúan, no sabemos qué tipo de conjunto es este. Pero siempre fluctuarán alrededor de la entropía máxima en el espacio de parámetros macroscópicos sin importar la restricción que se les imponga. Cualquier proceso de alcanzar el equilibrio en cualquier caso cuando se vea sólo en los parámetros macroscópicos se verá como una convergencia a una entropía formalmente máxima del sistema con las restricciones dadas. Supongo que debería aclarar esto en la respuesta.
Me di cuenta de que me dejé confundir. Incluso por definición estadística no habría ningún problema con el argumento. Tanto en el conjunto canónico como en el grandcanónico, la entropía no es aguda y no está definida por el promedio de todos los estados: la energía libre y el gran potencial sí lo son. En un buen sentido, la entropía se define exactamente como la he usado en la pregunta en conjuntos canónicos y grancanónicos.
Creo que está confundiendo la termodinámica con la termodinámica de no equilibrio, donde uno INTENTA modelar estas cantidades como variables dinámicas en elementos de volumen finito, utilizando suposiciones ad-hoc (generalmente funciones lineales) sobre el flujo de calor, la mezcla, etc., pero esas suposiciones son mucho más difícil de justificar que incluso los supuestos de promediación de conjunto de la mecánica estadística. A decir verdad, como muestran los problemas con la turbulencia completamente desarrollada y las transiciones de fase, la termodinámica de no equilibrio recorre una banda extremadamente estrecha de utilidad potencial.
Entonces, dígame cómo cree que se define la entropía en un conjunto canónico y grandcanónico.
+1; El supuesto fundamental de la mecánica estadística es que, en equilibrio , los microestados son igualmente probables. Entonces, en equilibrio, el macroestado con el máximo de microestados puede ocurrir la mayor parte del tiempo. Sin embargo, como menciona la suposición, incluso en equilibrio, puede haber otro macroestado ya que todos los microestados son igualmente probables. Entonces, el equilibrio no menciona un solo estado, ¿no es así? La suposición en sí dice que en equilibrio , puede haber otros microestados ya que todos ellos son igualmente probables.

No estoy completamente satisfecho con la respuesta dada, así que proporcionaré la mía. En primer lugar, no se puede hablar de una única entropía, ni siquiera en el equilibrio. Por lo tanto, es engañoso hablar de una sola entropía.

Para dar un ejemplo de lo que quiero decir, consideremos un gas ideal en una caja con energía fija mi , número de partículas norte y volumen V .

Lo que nos dice la mecánica estadística del equilibrio es que la distribución de probabilidad de los microestados del gas ideal en esa caja no varía con el tiempo. Por cierto, también se puede asociar una entropía invariable a esa distribución de probabilidad que es la entropía total del sistema. Básicamente, le dice cuánto no sabe sobre el estado exacto del gas una vez que se ha equilibrado.

Ahora, porque no sabes nada sobre el gas además de que se ha fijado ( mi , norte , V ) no significa que no pueda hacer ninguna pregunta sobre su comportamiento macroscópico en equilibrio. Por ejemplo, la mayoría de la gente imagina que cuando un gas está en equilibrio, llena uniformemente cualquier recipiente en el que esté atrapado. Pero debido a que todos los microestados son igualmente probables, eso no es necesariamente así.

Para ver esto, partamos la caja en dos partes iguales V 1 = V 2 = V / 2 . Podemos preguntarnos cuál es la entropía de tener un gas en una configuración macroscópica con norte 1 partículas en V 1 y norte norte 1 en V 2 . Por definición, esta entropía será S ( norte 1 ) = k B en Ω ( norte 1 ) dónde

Ω ( norte 1 ) = norte ! norte 1 ! ( norte norte 1 ) ! ( V 2 ) norte mi 3 norte / 2 1
Ahora, dentro de la aproximación de Stirling, esta expresión se leerá:
S ( norte 1 ) = k B { norte 1 en norte 1 ( norte norte 1 ) en ( norte norte 1 ) + C o norte s t a norte t }
Si trazas esta función obtienes el siguiente gráfico:

Entropía de configuración asociada a tener $N_1$ partículas en una mitad de la caja (hasta una constante aditiva y en unidades de $k_B$).

Es fácil ver que este gráfico tiene un máximo en norte 1 = norte 2 = norte / 2 . Entonces, lo que encontramos es que, en un gas en equilibrio, tener el mismo número de partículas en ambas mitades de la caja contenedora es la configuración macroscópica con la entropía configuracional más alta. Sin embargo, todas las demás configuraciones con norte 1 norte / 2 también son posibles , es solo que sus probabilidades de que suceda van como mi S ( norte 1 ) S ( norte ) y esta función tiene un pico muy fuerte en norte 1 = norte / 2 .

En general, para cualquier configuración macroscópica que no sea la de las propias restricciones impuestas, la entropía siempre puede variar en el equilibrio y lo hará fluctuando alrededor del valor más probable.