¿Por qué la entropía máxima implica equilibrio?

Desde un punto de vista puramente termodinámico, ¿por qué esa entropía tiene que ser máxima en el equilibrio? Digamos que hay equilibrio, es decir, no hay flujo de calor neto, ¿por qué la entropía no puede estar sentada en un valor no máximo?

De la segunda ley de la termodinámica se sigue que S nunca se vuelve más pequeño y, por supuesto, sé que para un sistema aislado hay muchas declaraciones que involucran d S = d q T , que dicen lo que podría suceder para los procesos. Pero si tengo equilibrio, entonces no se está produciendo ningún proceso relevante. Algunas pruebas en termodinámica involucran argumentos de cómo si no tenemos la entropía máxima, entonces podemos hacer algo que aumente la entropía. Pero, ¿por qué ese equilibrio es relevante o relacionado, es decir, con las posiciones de los parámetros termodinámicos, que no cambian con el tiempo? Se podría argumentar que probablemente la energía tu no se asienta en el valor mínimo, pero en termodinámica, sin fuerzas microscópicas, la afirmación de que la energía cambia hacia el equilibrio y busca su valor mínimo parece derivarse de la entropía máxima.

¿Y cómo puedo concluir lo contrario? ¿Por qué el equilibrio se sigue de d S = 0 ?

pero dado que esto es lo que hace que el espacio del parámetro con respecto a la palabra entropía "máxima", se meta en problemas de lenguaje. Pero al menos veo que es útil para explicar cómo evoluciona la entropía/energía una vez que tomas los parámetros extensos bajo tu control y cambias el sistema cuasistáticamente. En cualquier caso, estoy y solo estaba interesado en una respuesta de mecánica no estadística aquí. Claramente, puedo dar sentido a la física usando la imagen microscópica de todos modos, pero aquí estaba puramente interesado en la formulación de la teoría termodinámica). Se usa para explicar cómo evoluciona la entropía/energía una vez que toma los parámetros extensos bajo su control y cambia el sistema cuasistáticamente. En cualquier caso, estoy y solo estaba interesado en una respuesta de mecánica no estadística aquí. Claramente, puedo dar sentido a la física usando la imagen microscópica de todos modos, pero aquí estaba puramente interesado en la formulación de la teoría termodinámica). Se usa para explicar cómo evoluciona la entropía/energía una vez que toma los parámetros extensos bajo su control y cambia el sistema cuasistáticamente. En cualquier caso, estoy y solo estaba interesado en una respuesta de mecánica no estadística aquí. Claramente, puedo dar sentido a la física usando la imagen microscópica de todos modos, pero aquí estaba puramente interesado en la formulación de la teoría termodinámica).

A veces, "la entropía es máxima en equilibrio" simplemente se incluye en la formulación de la segunda ley. Entonces, ¿cuál es la formulación exacta de la segunda ley que estás usando?
Las formulaciones de Clausius o Kelvin al comienzo de la página de wikipedia serían suficientes. Las formulaciones matemáticas que implican S son buenos también. Es solo que no veo cómo una declaración que involucra equilibrio, que es un concepto que involucra el tiempo y la evolución del tiempo, puede caracterizarse en la termodinámica clásica en términos o d S y así.
@Nick Kidman La estática comparativa tiene un concepto de equilibrio pero no una teoría dinámica. Esto me recuerda la famosa crítica de Joan Robinson al uso de la estática comparativa por parte de la teoría económica neo-neo-clásica.
@josephf.johnson: mmm...
bueno, existen estas cosas llamadas "potenciales termodinámicos" --- Estoy pensando en una respuesta a su pregunta.
Esa página de wikipedia es realmente horrible. Probablemente, mucho de eso es el resultado de ediciones incoherentes que perturban el flujo lógico desde las nociones y definiciones básicas hasta sus desarrollos y aplicaciones. Pero puede haber otras razones... El pequeño libro en rústica de Dover de Fermi es una presentación bastante clara y lógica, pero no lo suficientemente lógica como para responder directamente a su pregunta. Aún así, deberías consultarlo. Estarás insatisfecho con su definición de 'equilibrio', pero lo que quiere decir es lo que ya he explicado.

Respuestas (9)

Primero, si d S 0 , entonces la entropía cambiará, y como algo está cambiando, obviamente no es un equilibrio.

Si el sistema físico no maximiza la entropía y está compuesto por muchas partes que pueden interactuar entre sí, directa o indirectamente (no está desconectado), entonces cualquier camino que permita aumentar la entropía (dados valores fijos de cantidades conservadas como como energía) se realizará, por lo que estarás fuera del equilibrio porque algo cambiará.

Si un sistema se compone de dos o más componentes desacoplados que no interactúan, como una botella de limonada azul y una botella de limonada roja, pueden estar en equilibrio incluso si la entropía no se maximiza. Se podría aumentar la entropía mezclando los líquidos, pero como no están en contacto, no se mezclarán.

Por el contrario, si la entropía ya está maximizada, la única forma en que el sistema puede evolucionar es evolucionar a otro estado con el mismo valor máximo de entropía: no hay un valor más alto permitido y la segunda ley de la termodinámica prohíbe una entropía decreciente. Esto es atípico porque cuando maximizamos la entropía entre todos los estados con las mismas cantidades conservadas, el estado de máxima entropía suele ser único. Por ejemplo, si también hay cuerpos macroscópicos móviles que pueden generar calor por fricción, la entropía se maximiza solo cuando la fricción detiene el movimiento macroscópico y convierte su energía en calor.

En todas estas discusiones, uno debe tener cuidado de si estamos maximizando o no la entropía entre todos los estados o solo los estados con el mismo valor de energía (y otras cantidades conservadas). Si permitimos que la energía cambie arbitrariamente, la entropía no está realmente limitada desde arriba (y las discusiones sobre su maximización no tienen sentido) porque cualquier cuerpo puede calentarse a una temperatura bastante arbitrariamente alta (o puede colapsar en un agujero negro con una masa cada vez mayor y, por lo tanto, una entropía cada vez mayor también).

Bien, la segunda parte básicamente dice que si el máximo es único, entonces la entropía no tiene adónde ir, entonces el equilibrio. todavía no veo por qué S 0 implica que la entropía cambiará. solo porque S ( tu , V ) es tal que crece con tu y V , ¿por qué esto implica que S cambiará con el tiempo por sí solo? En mecánica clásica, si F = tu no es 0 , entonces entiendo que algo va a pasar. Sin embargo, no veo cómo lo que en termodinámica dice que "si d S 0 , entonces la entropía cambiará". ¿Qué dice tal ( tu , V ) , ( T , PAGS ) , . . . o cualquier punto no es estable?
Estimado Nick, como dije, creo que su afirmación de que "algo cambiará" solo es cierta si la entropía (localmente) no es máxima entre estados con la misma energía. Entonces se garantiza que el sistema evolucionará en la dirección en que aumenta la entropía y disminuye la energía libre. La fuerza es realmente Φ , un gradiente de la energía libre, cuando uno lo hace bien, entonces este aumenta con el gradiente de la entropía.
Pero, ¿en qué parte de las leyes de la termodinámica se codifica este movimiento que se aleja de los valores no extremos? No veo que si la termodinámica es una teoría que hace afirmaciones sobre el equilibrio, cómo maneja los puntos en las matemáticas, que "todavía no están" en equilibrio y les dice a dónde ir.
Estimado Nick, el aumento de la entropía es la segunda ley de la termodinámica. Cuando la entropía no se maximiza, la segunda ley puede realmente interpretarse como una "desigualdad estricta": la entropía aumenta estrictamente, por lo que algo tiene que estar cambiando en el sistema porque S , una función de las variables, sube. Por eso no es un equilibrio. La tasa real por la cual S aumenta depende de la situación, pero como indiqué, la fuerza que trata de mover el sistema en la dirección de mayor entropía en realidad está dada por F = ( mi T S ) , un gradiente de energía libre. Incluye + T S .
@Motl: todavía no veo por qué las leyes de la termodinámica pueden hacer declaraciones sobre un cambio en el tiempo . Principalmente no veo cómo puede haber un teorema sobre lo que sucederá, si no hay tiempo involucrado en la teoría basada en tres axiomas. La relación de fuerzas metro X ( t ) = F = . . . no es parte de la termodinámica clásica, ¿verdad?
Estimado @Nick, la segunda ley de la termodinámica trata sobre la evolución del tiempo. Dice que la entropía aumenta con el tiempo, o al menos no disminuye macroscópicamente. Por supuesto, uno debe conocer las leyes dinámicas detalladas de un sistema físico particular para saber qué tan rápido aumentará la entropía, pero puede estar seguro de que aumentará si aún no se maximiza.
@Motl: Así es, por ejemplo, la afirmación de que la energía tu ¿Evolucionará en el tiempo tal que se toma un mínimo en el equilibrio como a priori (sin que eso se mencione en las leyes de la termodinámica)?
Estimado @Nick, no entiendo tu pregunta. ¿Cómo se supone que debo responder tales preguntas sobre la termodinámica sin las leyes de la termodinámica? Es más, tu se conserva: esa es la primera ley de la termodinámica. lo que dije es que S aumenta, es la segunda ley de la termodinámica. De las dos leyes se sigue que tu T S , es decir, la energía libre, disminuye.
Que U se conserve o no depende de las condiciones externas. Ya sea U-TS, o -S, o Φ , que siempre disminuye, depende de las condiciones externas. Qué potencial termodinámico es apropiado minimizar depende de las condiciones externas del problema. Hay sistemas cerrados, sistemas aislados, sistemas aislados térmicamente, sistemas aislados dinámicamente, y todos ellos son diferentes y requieren tratamientos diferentes.

Esta es ahora la Parte II.

PARTE II entropía y desequilibrio

Explicaré las ideas a partir de una nota a pie de página en Fermi, Thermodynamics, p. 50, sobre la entropía en desequilibrio.

Existe la idea, imperfecta, de que "la entropía es aditiva". Si dos sistemas experimentan un cambio de entropía Δ S i , entonces el sistema combinado sufre un cambio de entropía Δ S 1 + Δ S 2 . Fermi comenta que esto no siempre es válido, pero lo es si 'la energía del sistema es la suma de las energías de todas las partes y si el trabajo realizado por el sistema durante una transformación es igual a la suma de las cantidades de trabajo realizadas por todas las partes. Tenga en cuenta que estas condiciones no son del todo obvias y que en algunos casos pueden no cumplirse.'

Ya comenté en la Parte I que si una sustancia no posee una temperatura uniforme en todo su volumen, ni siquiera está en un estado termodinámico. Pero hay algo que podemos hacer al respecto siempre que no haya turbulencia: siempre que la variación de temperatura en el espacio sea suave, podemos dividir la sustancia en muchos subsistemas pequeños y hacer la aproximación de que los subsistemas están cada uno a una temperatura y presión uniformes. ¿Podemos definir la entropía de cada pequeño subsistema?

Suponga además que podemos tratar la entropía como aditiva. Para hacer esto, debemos asumir que cada pequeña pieza está en equilibrio, por lo que no puede estar en contacto térmico con los otros subsistemas. Así que imagina que cada pequeño volumen está separado del resto de la región por pequeños muros no conductores, que también son inamovibles.

Para simplificar, consideremos solo dos regiones más pequeñas. Imagine dos cajas de un año luz cúbico cada una llenas de gas hidrógeno y colocadas una al lado de la otra. La caja de la izquierda está en equilibrio a la temperatura T 1 , el correcto a la temperatura más alta T 2 , y cada caja contiene la misma masa de gas. Cada caja está aislada del entorno y de la otra caja. Entonces cada uno está en equilibrio y el sistema combinado también está en equilibrio. Podemos medir cambios en la entropía desde este estado como punto de partida, el estado uno en las fórmulas integrales de la Parte I.

Si sustituimos la pared medianera por un conductor térmico perfecto, los estados dejan de estar en equilibrio y se producirá una transformación irreversible hasta igualar las temperaturas. Llamaremos a este estado dos. Pero para usar nuestra definición de entropía, tenemos que pensar en cómo conectar el estado uno con el estado dos mediante una transformación reversible que tiene lugar a través de los estados de equilibrio. Podemos hacer esto. Es imposible, pero sigue siendo físicamente significativo.

Sustituir la pared divisoria por una pared termoconductora perfecta solo por un tiempo infinitesimal, luego volver a colocar la pared aislante. Esta es una transformación reversible a un estado donde el cuadro de la izquierda está en equilibrio a la temperatura T 1 + d T 1 , y el cuadro de la derecha tiene temperatura T 2 + d T 2 . Las presiones habrán cambiado en un pozo ya que el volumen ha sido constante. Si estos son gases perfectos, se puede demostrar que d T 1 = d T 2 por la conservación de la energía, pero no importa. Este no es realmente un análisis dinámico ya que no se considera el tiempo como variable. Obsérvese que esta transformación reversible también podría realizarse con dos acumuladores de calor externos, dejando la pared aislante divisoria en su lugar. En la Parte I demostramos que los detalles exactos de cómo se produce una transformación reversible entre dos estados de equilibrio no afectan al valor del cambio de entropía.

Repita este proceso de reemplazar la pared aislante por una pared conductora brevemente, lo que permite que los estados de equilibrio de las dos cajas pasen a estados de equilibrio vecinos con temperaturas más cercanas. Continúe hasta que no se produzcan más cambios. Obviamente por simetría, esto será para la temperatura media T 1 + T 2 2 . O conservación de la energía ya que no se realiza trabajo, el cambio de calor es el mismo que el cambio de energía interna tu , y d q = C v d T ; para un gas perfecto C v es una constante

Esta es una transformación reversible. Podemos volver al estado uno. Utilizamos dos depósitos de calor. Deje la pared aislante divisoria en su lugar, ponga la izquierda en contacto con un depósito infinitesimalmente más frío y la derecha en contacto con un depósito infinitesimalmente más caliente, repita según sea necesario hasta alcanzar el estado uno. Debido a que la pared divisoria no era conductora, cada estado atravesado es un estado de equilibrio.

Por lo tanto, podemos calcular el cambio de entropía de cada caja, sumarlos. Las fórmulas de la Parte I son

S 2 S 1 = T 1 T 1 + T 2 2 d q 1 T 1 + T 2 T 1 + T 2 2 d q 2 T 2 .
En general, d q = d tu + d W dónde tu es la energía interna y W es el trabajo hecho. Aquí, no se realiza trabajo, y por conservación de energía, d tu 1 = d tu 2 . De hecho, por la ley de los gases perfectos, d q = C v d T entonces obtenemos
S 2 S 1 = T 1 T 1 + T 2 2 C v d T 1 T 1 + T 2 T 1 + T 2 2 C v d T 2 T 2 .
Realizando las integraciones, esto se convierte en
S 2 S 1 = C v Iniciar sesión T 1 + T 2 2 T 1 C v Iniciar sesión T 1 + T 2 2 T 2 .
Ahora bien, esta transformación tuvo lugar en aislamiento térmico del medio ambiente. Planck demuestra el teorema de que " Si un sistema de gases perfectos pasa de cualquier modo de un estado a otro, y no permanece ningún cambio en los cuerpos que lo rodean, la entropía del sistema ciertamente no es menor, sino mayor que, o en el límite , igual a la del estado inicial; en otras palabras, el cambio total de entropía 0. El signo de desigualdad corresponde a un proceso irreversible, el signo de igualdad a un proceso reversible.'

De hecho, se puede comprobar que el signo de este cambio de entropía es positivo si

( T 1 + T 2 ) 2 4 T 1 T 2 > 1 ,
es decir, si
( T 1 + T 2 ) 2 > 4 T 1 T 2 , , es decir, si  ( T 1 T 2 ) 2 > 0
que es elemental. Su mínimo es cuando T 1 = T 2 , ese es el único caso donde el cambio en la entropía es cero, por lo tanto, ese es el único caso cuando la entropía es máxima entre todos estos estados de equilibrio con energía constante, conectados al estado uno por una transformación reversible.

Para usar la definición de entropía, teníamos que mostrar cómo invertir la transformación del estado uno al estado dos, pero no teníamos que invertirla permaneciendo aislados. Si nos mantenemos aislados, lo único que podemos manipular es la pared divisoria, no podemos usar depósitos de calor. Mientras el sistema está aislado, entonces, se mueve a través de estados de equilibrio de una manera que es reversible en un sentido, pero irreversible en otro sentido. Por tanto la entropía tiene un máximo cuando se igualan las temperaturas, que es el único equilibrio estable. Es el único estado que no evolucionará más allá de lo que hagamos con la pared divisoria. Los otros estados de equilibrio se vuelven no equilibrados cuando se permite que la pared divisoria conduzca calor. Este es el sentido del eslogan, 'el equilibrio es cuando se maximiza la entropía'.

También es cierto que incluso este estado de equilibrio estable se convertiría en no equilibrio si se pusiera en contacto con un reservorio de calor externo, que es como mostramos que podíamos revertir la transformación y volver al estado uno. Pero entonces el sistema ya no está aislado, pero no hay una ley de que la entropía aumente para un sistema no aislado.

¡Gracias por tu respuesta, lo estudiaré en detalle cuando llegue!

Aunque las respuestas anteriores están bien articuladas, me gustaría dar un punto de vista alternativo y más intuitivo en breve desde dos ángulos interconectados:

  1. Por la segunda ley , la entropía de un sistema aumenta o llega a ser un máximo, es decir Δ S 0 . Esto significa que una vez Δ S llega a un punto estacionario ( máxima entropía ) el sistema está en equilibrio.

  2. Por la relación de Boltzmann (también conocida como mecánica estadística) , la entropía es análoga al número de configuraciones ( S = k B Iniciar sesión W ) en ese estado de energía. Esto implica: máxima entropía número máximo de configuraciones . Esto significa que si el sistema es (ligeramente) perturbado desde este estado, tiene una mayor cantidad de configuraciones disponibles para hacer frente a esta perturbación (o es más probable que sea estable ). Esto puede estar relacionado con resultados similares de la teoría KAM para sistemas hamiltonianos.

  3. Se puede tomar el mismo enfoque que en el punto 2 anterior si se consideran los potenciales termodinámicos (p. ej., diferencias de energía) que corresponden a fuerzas generalizadas en un sistema dinámico . En el equilibrio termodinámico (máxima entropía), los potenciales termodinámicos (fuerzas generalizadas) se compensan, por lo que no hay más cambios en el sistema dinámico => equilibrio mecánico .

Sobre la relación entre el estado de máxima entropía y el estado de equilibrio de un sistema dinámico. Considere el estado de equilibrio como un estado de un sistema donde no se puede extraer más trabajo (esto es nuevamente una generalidad en el espíritu de la pregunta), como tal, también es un estado de máxima entropía.

Por el contrario, en el estado de máxima entropía, no se puede extraer más trabajo, por lo que también es un estado de equilibrio.

Considere un sistema dinámico que puede lograr varias configuraciones a una energía específica. En el estado de máxima entropía, el sistema ya utiliza todas las configuraciones disponibles del sistema y esto representa la cancelación de cualquier diferencia potencial con el entorno del sistema. Por lo tanto (en ese estado de energía del sistema) no se puede extraer más trabajo y está en equilibrio (dinámico en general) (con el medio ambiente).

Por el contrario, un sistema dinámico en equilibrio (con el medio ambiente) (a una energía específica), tiene diferencias de potencial nulas (con el medio ambiente), por lo que no se puede extraer más trabajo y está en máxima entropía.

La analogía es muy similar al principio de acción mínima de la mecánica (que en realidad no es necesariamente una acción mínima sino una acción estacionaria ). ¿Por qué la mínima acción debería dar una ley dinámica?

(la respuesta es algo similar a ambas preguntas, aunque una investigación más profunda puede hacer las cosas más claras e interconectadas)

ACTUALIZAR:

Como argumento adicional al análisis mencionado anteriormente, se puede consultar el artículo de Qiuping A. Wang sobre Ver la máxima entropía a partir del principio del trabajo virtual, que deriva el enfoque de máxima entropía del principio del trabajo virtual de Lagrange-D'Alembert.

Resumen:

Proponemos una aplicación del principio del trabajo virtual de la mecánica a la dinámica aleatoria de sistemas mecánicos. El trabajo virtual total de las fuerzas que interactúan y las fuerzas de inercia en cada partícula del sistema se calcula considerando el movimiento de cada partícula. Luego, de acuerdo con el principio de Lagrange-d'Alembert para el equilibrio dinámico, el trabajo virtual que se desvanece da lugar al estado de equilibrio termodinámico con maximización de la entropía termodinámica con restricciones adecuadas. Este enfoque establece una estrecha relación entre el enfoque de máxima entropía para la mecánica estadística y un principio fundamental de la mecánica, y constituye un intento de dar el enfoque de máxima entropía, considerado por muchos solo como un principio de inferencia basado en la subjetividad de la probabilidad y la entropía.

Véase también "Equilibrio termodinámico y el principio del trabajo virtual", Appleton 1990 Eur. J. física. 11 297 doi:10.1088/0143-0807/11/5/007

Resumen:

Se deriva una condición para el equilibrio termodinámico, que resulta ser una generalización del principio del trabajo virtual, familiar en la estática clásica. La condición de equilibrio no hace referencia a los potenciales termodinámicos y, por lo tanto, es aplicable sin la necesidad habitual de imponer otras restricciones que las necesarias para definir las condiciones físicas del problema.

Gracias por la respuesta. Aunque mi comentario a la respuesta de Carl Brannen también se aplica aquí: en la primera oración de la pregunta, digo que considero la pregunta desde el punto de vista de la termodinámica pura, sin argumentar usando el modelo de física estadística.
@NikolajK, usar una imagen de termodinámica es lo mismo (como el primer argumento), es decir, el sistema evolucionará dinámicamente hacia un estado de máxima entropía. Usando estadísticas la mecánica da otra formulación. También se puede usar la temperatura . Eche un vistazo al libro Termodinámica generalizada de Keenan, Hatzopoulos para generalizaciones de la segunda ley, incluso para la física de no equilibrio.
@NikolajK, entiendo completamente la pregunta, ya que tengo preguntas similares con respecto a la comprensión de los primeros principios. Lo que pasa es que la termodinámica (aunque tiene el prefijo termo- ), es sumamente general, no supone nada (a-priori) sobre la constitución del sistema, o la naturaleza de las partículas (si las hay) o restricciones, etc. En este sentido La segunda ley es una ley dinámica (general) (establece la forma o el estado en que algo evolucionará). El prefijo termo en realidad significa que esta investigación fue desencadenada por motores térmicos, sin embargo, se establece y se relaciona con la dinámica en términos generales.
@NikolajK, respuesta editada para reflejar el comentario
@NikolajK, no sé si todavía está interesado, pero agregó información actualizada y enlaces para derivaciones del equilibrio de máxima entropía a partir de principios mecánicos (y viceversa)
Gracias por las actualizaciones. Realmente no puedo volver a la mentalidad que tenía cuando hice esta pregunta hace 3 años. Tal vez cuando finalmente trabaje en esos temas nuevamente, pueda juzgar mejor.

Centrémonos en el caso de una sustancia homogénea simple que no se disocia ni sufre otras reacciones químicas. Entonces, un estado termodinámico es cualquier estado donde la sustancia tiene una presión definida, igual en todas sus partes, una temperatura definida, sin variaciones de temperatura en sus diferentes partes, y un volumen fijo (no está ocupada expandiéndose o contrayéndose). Como de costumbre, también asumimos que la masa es fija y, por lo tanto, la densidad también está definitivamente relacionada con el volumen: por lo tanto, no se dirá nada más sobre la masa o la densidad. Un poco de, por ejemplo, el gas no puede estar en equilibrio si diferentes partes tienen diferentes temperaturas, esto es un hecho observacional: las temperaturas tienden a igualarse. Pero simplemente hacemos parte de la definición de un 'estado' que el sistema tiene una temperatura definida. Es sólo en más avanzado, no tan clásico, termodinámica que uno relaja hasta cierto punto esta suposición. Esta no es la definición de equilibrio, es la definición de 'estado'. Ahora, además, la definición de equilibrio es que si hay algún contacto térmico con el medio ambiente, entonces el medio ambiente también debe estar a una temperatura definida, la misma que la del sistema. Si el sistema puede interactuar con el entorno realizando trabajo al expandir su volumen, entonces la presión del sistema debe ser igual a la presión del entorno. Esta es la definición de equilibrio. Nótese cuidadosamente: si no hay interacción con el medio ambiente, entonces cada estado termodinámico es un estado de equilibrio, porque no hay ninguna condición que deba satisfacer. Todos estos comentarios son lógicamente anteriores a la Primera o Segunda Ley de la Termodinámica, anteriores también a a las nociones de reversibilidad o irreversibilidad, incluso a la noción de 'camino'. Por esa razón, a veces se les llama 'La Ley Cero de la Termodinámica'. Todo esto tiene sentido incluso si uno no sabe que la temperatura o la presión son el resultado del movimiento de las moléculas: se formuló antes de que se entendiera la teoría moderna del calor, a veces se pensaba que el calor era un fluido.


La estática comparativa no tiene una verdadera dinámica, pero está pensada como un atajo para usar cuando la verdadera evolución dinámica del sistema es desconocida o demasiado complicada para analizar. Uno define el 'equilibrio' por el equilibrio de fuerzas, haciendo que la suma neta de las fuerzas que actúan en cualquier punto sea cero. En termodinámica, los dos principios fundamentales son la igualación de la temperatura, concebida como el resultado de la transferencia de calor del cuerpo más caliente al más frío, y la igualación de la presión, que se produce por expansión o contracción del volumen. Se supone que si uno estudia las propiedades de un sistema en un punto de equilibrio (es decir, el estado de equilibrio que subsistiría bajo un conjunto de valores de los parámetros como la temperatura del medio ambiente y la presión del medio ambiente), y luego estudia las propiedades de ese mismo sistema en un punto de equilibrio diferente que subsistiría bajo diferentes valores de los parámetros, entonces uno tiene una gran cantidad de información incluso sobre el proceso de transformación del primer punto al segundo punto. En termodinámica esto es cierto siempre que la transformación se produzca con la suficiente lentitud.

Equilibrium pretende encarnar la noción de que el sistema está en un estado estable y no evolucionará. Aun así, la noción en termodinámica de un camino reversible es que un sistema pasa a través de varios estados de equilibrio diferentes bajo la influencia externa (es decir, un cambio en los parámetros externos que significa que lo que antes era un estado de equilibrio ya no está en equilibrio con el medio ambiente). ). Aunque pueda violar la lógica estricta, se trata de una idealización de la realidad muy útil. (En realidad, solo pueden tener lugar procesos irreversibles).


Toda la Termodinámica Clásica es Termodinámica del Equilibrio (en una primera aproximación), pero estudia motores térmicos y refrigeradores, en los que el sistema sí pasa por diferentes estados, cambiando su presión y volumen. La teoría utiliza la estática comparativa para poder hacer afirmaciones sobre los resultados finales de estos procesos, sin poder decir nada sobre cómo ocurre exactamente el proceso, a qué velocidad o algo realmente dinámico.

Si el sistema está en el estado dado por un punto de equilibrio, no cambiará de estado a menos que cambien las condiciones externas. Si las condiciones externas, como la temperatura del ambiente, experimentan un cambio finito distinto de cero, el choque conducirá a una transformación irreversible a través de estados de desequilibrio, por ejemplo, la parte del sistema más cercana a la frontera se calentará antes que la resto del sistema, y ​​esto significa que el sistema no está en ningún estado termodinámico. Eventualmente, el sistema alcanzará un nuevo estado de equilibrio, pero la cantidad de trabajo realizado o el calor absorbido durante este período de transición no se puede calcular exactamente utilizando la Termodinámica de Equilibrio Clásica. (Al menos, no en la parte elemental).

Si el cambio distinto de cero es muy pequeño, será una aproximación razonable tratarlo como el resultado de un número infinito de cambios infinitesimales. Un cambio infinitesimal no saca al sistema del equilibrio, sino que lo lleva suavemente a un estado vecino de equilibrio. Por lo tanto, el sistema recorre un camino reversible de estados de equilibrio. Infinitamente lento. En realidad esto no es posible. Lógicamente, si un camino es reversible, entonces no hay razón para que el sistema elija en qué dirección recorrerlo, por lo que el sistema se quedará quieto. Pero esta es una idealización que es una útil aproximación al mundo real de transformaciones irreversibles a través de estados de desequilibrio. Más importante aún, nos da un límite teórico sobre la eficiencia de un proceso irreversible, una eficiencia que nunca se puede mejorar.


La Segunda Ley de la Termodinámica se tomará en la formulación debida a Lord Kelvin y preferida por el premio Nobel Max Planck. Es imposible encontrar un ciclo (de caminos) cuyos únicos efectos sobre el ambiente sean producir trabajo y tomar calor del ambiente.

Tenga en cuenta, por el contrario, que el ciclo de Carnot toma calor y lo expulsa. De hecho, tiene que tener dos depósitos de calor, a dos temperaturas diferentes. Toma calor del caliente y apaga el calor del frío. El punto de la Segunda Ley es que es imposible convertir en trabajo todo el calor tomado del depósito caliente. Parte del calor tiene que "pasarse" a un depósito más frío.

Nuestra estrategia será considerar primero los ciclos reversibles. Un camino reversible es aquel en el que empujamos infinitesimalmente un estado de equilibrio a uno cercano y solo hay dos formas de hacerlo: podemos ponerlo en contacto térmico con un depósito de calor infinitesimalmente más caliente (o más frío). Absorberá (o perderá) una pequeña cantidad de calor tan lentamente que el equilibrio no se altera, y cualquier otro ajuste permitido por la configuración también se realizará de manera infinitamente lenta y delicada. Podemos ajustar su volumen infinitesimalmente: podemos alterar, muy delicada e infinitesimalmente, la presión del entorno que, si permitimos que el sistema esté en el tipo de configuración en la que siente la presión y puede alterar su volumen, entonces se contrae ( o se expande) hasta que se iguale la presión.

Solo hay dos formas de mover reversiblemente el estado de equilibrio, cualquier camino reversible es realmente una combinación de transformaciones adiabáticas y transformaciones isotérmicas. Si permitimos el contacto térmico con el medio ambiente, eso es, por supuesto, una transformación isotérmica. Si no permitimos la interacción térmica con el medio ambiente, entonces, por supuesto, no se puede intercambiar calor y eso, por definición, es una transformación adiabática, y esa es la única forma en que se puede alterar la temperatura.


El primer punto es deducir de la formulación de Lord Kelvin de la Segunda Ley de la Termodinámica que ningún ciclo (máquina térmica) puede ser más eficiente que un ciclo reversible (máquina térmica).

La idea básica de esta deducción es que si C fuera un ciclo (y, para simplificar, suponga que opera solo entre dos depósitos de calor, 1 es 'caliente' y 2 es 'frío') eso sería más eficiente que un ciclo reversible R que opera entre los mismos dos embalses, entonces se violaría la Segunda Ley. Porque podríamos hacer funcionar el motor C y usar su trabajo externo para impulsar R en reversa, como un refrigerador, ya que R es reversible. Al aumentar o disminuir la escala de R, si es necesario, podemos suponer que R requiere la misma cantidad de entrada de calor del depósito frío que la salida de C. Dado que C es más eficiente que R, C produce más trabajo del que R realmente necesita. funcionar. Por lo tanto, la combinación de ejecutar C y luego R es que el depósito de calor frío no cambia, el calor se ha absorbido solo del depósito caliente, y se ha producido trabajo neto (ya que R no necesitaba todo el trabajo producido por C). Pero esto viola la Segunda Ley de la Termodinámica.

El segundo punto es señalar que, por lo tanto, todo ciclo reversible que opera entre las mismas dos temperaturas tiene la misma eficiencia. Porque podemos aplicar el argumento anterior a dos ciclos reversibles, y entonces ninguno de ellos puede ser más eficiente que el otro.

Estamos a punto de usar un poco de álgebra, así que tenemos que formalizar la notación para el argumento intuitivo que ya presentamos en palabras. Dejar W Sea el trabajo total realizado en un ciclo por un motor dado. Como es un ciclo, no hay cambio en la energía interna. tu , entonces el trabajo realizado es W = Δ q 1 Δ q 2 , dónde Δ q 1 es el calor absorbido en el depósito caliente y Δ q 2 es el calor desperdiciado, expulsado al depósito frío. La eficiencia, por definición, es W Δ q 1 y esto es igual a 1 Δ q 2 Δ q 1 . Por lo tanto, todos los ciclos reversibles que operan entre los mismos dos depósitos tienen la misma relación Δ q 2 Δ q 1 .

Este hecho se utiliza para definir la temperatura de los embalses por

Δ q 2 R Δ q 1 R = T 2 T 1 .
(Escribí R esta vez para enfatizar que esto es solo para ciclos reversibles). Esto define la temperatura hasta un factor de escala. También nos da inmediatamente
Δ q 2 R T 2 = Δ q 1 R T 1 .

Ahora, redefine Δ q 2 para significar, al igual que con el otro depósito, el calor absorbido por el sistema del depósito frío. Esto es más racional, menos prejuicioso contra los frigoríficos. Ahora obtenemos para todos los ciclos reversibles,

Δ q 2 R T 2 + Δ q 1 R T 1 = 0
y para un ciclo arbitrario,
Δ q 2 T 2 + Δ q 1 T 1 0 .

Al aproximar una ruta arbitraria por segmentos como estos y usar muchos depósitos, dos para cada segmento, obtenemos las versiones curvas:

camino cerrado d q T 0 ,
con igualdad siempre que el camino sea completamente reversible. Esta es la desigualdad de Clausius, y se deriva de la Segunda Ley por la línea de razonamiento que seguimos que implica comparar un ciclo arbitrario con un ciclo reversible que se ejecuta al revés. Arreglándolo para cancelar el efecto del ciclo dado en un depósito de calor y obteniendo una contradicción con la Segunda Ley.

Si ahora nos limitamos a transformaciones reversibles solo entre estados termodinámicos de equilibrio, entonces el hecho de que esta integral de trayectoria sea cero significa que podemos definir una función potencial S (bien definida hasta una constante aditiva) tal que

S ( estado dos ) S ( estado uno ) = 1 2 d q T .
Esto es matemática pura. Es como una antiderivada (excepto en dos dimensiones). Esta es la definición básica de entropía en la termodinámica clásica (a diferencia de la definición informativa de entropía en Stats o en Stat Mech, debida a Boltzmann, Sir Ronald Fisher y Shannon).

Pero de la desigualdad de Clausius se sigue que para un camino irreversible,

1 2 d q t < S 2 S 1 .
Ahora, para un sistema aislado, d q siempre es cero ya que no se puede intercambiar calor con el medio ambiente. Asi que
S 2 S 1 > 0.
Es decir, a lo largo de un camino irreversible, la entropía de un sistema aislado aumenta, y a lo largo de un camino reversible, la entropía no puede cambiar. Hay algo ilógico en esto. La entropía solo se ha definido para estados de equilibrio, y si un sistema está aislado, no hay forma de perturbar el sistema, por lo que no se producirán procesos.

Pero como idealización, para darnos aproximaciones simplificadas a procesos reales siempre que se desarrollen muy lentamente, es lógico a su manera. La desigualdad de Clausius no nos dice qué tan rápido irá la dinámica a lo largo de un camino, pero nos dirá qué dirección es posible y qué dirección es imposible. Porque

1 2 d q t = 2 1 d q t ,
entonces, si una dirección da un valor negativo de la integral, la otra dirección dará un valor positivo, lo cual está prohibido por la desigualdad de Clausius, por lo que la otra dirección es imposible.

"la entropía se maximiza" no tiene sentido como una declaración dinámica en termodinámica (en la definición habitual). La entropía es constante en td en el equilibrio para condiciones de contorno fijas (dS=/=0 tiene sentido en td, para procesos lentos bajo un cambio de condiciones de contorno, pero eso no está directamente relacionado con la declaración de "la entropía está maximizada").

Aquí hay una manera de dar sentido a la declaración de "la entropía está maximizada":

1) Considere un conjunto de estados td fijos sin transiciones. Por ejemplo, en el ejemplo anterior de la limonada, considere una muestra de estados td fijos, con diferentes mezclas en las dos botellas, de modo que haya equilibrio en cada botella. La entropía total es máxima en configuraciones perfectamente mezcladas (puede medir la diferencia mediante un proceso como en 2)). Entonces, la entropía es máxima para las mezclas perfectas en el conjunto así definido. Pero el sistema permanece en cualquier estado td con menor entropía también.

2) Ahora permita una transición dinámica entre las configuraciones en 1). Los estados no perfectamente mixtos se desarrollarán en los estados perfectamente mixtos, que son los estados de equilibrio. La entropía se maximiza dinámicamente en el conjunto de estados ne. La función de entropía que aquí se maximiza estrictamente ya no es la entropía td, ya que esta última no está definida excepto para los estados de equilibrio. Está bien definido en física estadística, como logaritmo de la multiplicidad del estado ne.

1) no es una declaración dinámica, 2) toma uno fuera de td. No hay una maximización dinámica de la entropía td, sino una generalización menor de una función de entropía definida en estados ne.

Desde un punto de vista puramente termodinámico, ¿por qué esa entropía tiene que ser máxima en el equilibrio? Digamos que hay equilibrio, es decir, no hay flujo de calor neto, ¿por qué la entropía no puede estar sentada en un valor no máximo?

La afirmación de que la entropía tiene el máximo valor posible en equilibrio significa esto:

dadas las restricciones impuestas (volumen, energía total, número molar), el sistema en equilibrio tiene tal valor de las otras variables de estado X k esa entropía termodinámica S ( tu , V , norte , X ) tiene valor máximo. (Es un máximo local y, a menudo, global, pero puede haber casos en los que no sea global, creo).

Esta afirmación se basa en la definición de entropía y la segunda ley de la termodinámica, que es una ley empírica.

Para poner en palabras simples. Dado que la entropía para un proceso espontáneo aumenta hasta que alcanza el máximo y en el equilibrio el cambio de entropía es 0, por lo tanto, la entropía será máxima en el equilibrio.

¿Cómo sabemos que la entropía alcanza un máximo global y no local?

Perdón por arrojar otra respuesta a la pila, pero, en su mayor parte, la gente le dio respuestas en lenguaje técnico y usted dijo que "buscando una explicación 'desde un punto de vista puramente termodinámico'. Una derivación sistemática de las leyes de la termodinámica sería suficiente , sin embargo, supongo que también habrá que establecer una definición clara de equilibrio".

Para TL;DR personas, F ( norte ) es algo norte -bdy función de distribución en el espacio de fase que describe un sistema estadístico y el equilibrio es cuando F ( norte ) t = 0 . (definiciones más sólidas en la parte inferior)

#------------Derivación corta-------------#

A partir de la entropía de Boltzmann,

S = i F i ( norte ) en ( F i ( norte ) )
por segunda ley ( d S 0 ) sabemos que hay algún tipo de dependencia del tiempo. Los procesos particulares que causan ese cambio vienen dados por la primera ley de la termo. Lo que sea... la conclusión principal es que S tiene dependencia del tiempo.
S t = i F i ( norte ) t en ( F i ( norte ) ) + F i ( norte ) ( 1 F i ( norte ) F i ( norte ) t )
= i F i ( norte ) t ( en ( F i ( norte ) ) + 1 )
De este modo S t = 0 cuando F ( norte ) t = 0 y visa vi.

Entonces, su entropía SOLO cambia cuando cambia la probabilidad del espacio de fase de su sistema. por la segunda ley de termo, la entropía siempre tiene un cambio positivo, por lo que su única opción (matemáticamente) es que d S aumenta hasta que alcanza un máximo, donde el máximo es cuando F ( norte ) t = 0 (es decir, equilibrio!)

Notaré que la respuesta de @ user129423 de 2016 es la misma que este último párrafo aquí. Es solo que dejaron una definición de equilibrio, por lo que la respuesta no fue realmente "completa".

#--------------Definición de Términos Para completar------------#

Defina un sistema físico: considere algún sistema que pueda describirse en términos de la posición y el momento de sus partículas. Un norte Se puede construir una función de distribución de probabilidad de espacio de fase -bdy que exprese la probabilidad de que el sistema se encuentre en algún estado i , denotado F ( norte ) . Por ejemplo, en el límite de equilibrio, la 1 -bdy pdf va F i mi β H i ( https://en.wikipedia.org/wiki/Maximum_entropy_probability_distribution ). Formalmente, se deriva F ( norte ) de la ecuación de Klimantovich (ver Ichimaru "Statistical Plasma's" Vol1 ch 2)

Definir un equilibrio : La evolución temporal de F ( norte ) se describe mediante la jerarquía BBGKY. El equilibrio se define como "cuando el norte -bdy funciones de distribución ya no evolucionan con el tiempo ( es decir F ( norte ) t = 0 ).

La termodinámica es una ciencia que se ocupa de sistemas extremadamente complicados que pueden analizarse con solo unas pocas variables. Por ejemplo, el gas en una botella presurizada consiste en algo como 10 23 átomos, cada uno con una posición (3 variables) y una velocidad/momento (3 variables más). Son muchas variables, pero la termodinámica nos brinda una forma de analizar el sistema (usaré la formulación de energía) con solo el volumen, la energía total y la cantidad de átomos. De aquí obtenemos los valores extensivos de presión, temperatura y potencial químico (este último no es necesario para la cantidad fija de gas en una botella), y otras cosas como la capacidad calorífica, etc.

Al hacer un análisis de estos sistemas, encontramos que hay otra variable que es muy útil conocer, la "entropía". Desde un punto de vista microscópico, la entropía es el logaritmo del número de estados que son posibles para el sistema. Por "número de estados" nos referimos al número de posibles posiciones y momentos para esos 10 23 átomos

La razón por la que la entropía es algo útil es que nos dice cuán "fácil" es colocar los átomos en una situación particular. Si solo hay una forma de hacerlo (por ejemplo, todos los átomos sentados uno al lado del otro en un sólido cristalino en el fondo de la botella), será muy difícil de lograr. Por otro lado, si hay "billones y miles de millones" (no importa exactamente cuántas) formas de ensamblar esa situación (en lo que respecta a la energía total, el volumen y la cantidad de átomos), entonces esa situación será fácil de lograr.

A veces puede obtener un sistema donde la entropía es muy pequeña, en comparación con su valor máximo. Un ejemplo es una botella con todo el gas (ideal) en un lado del contenedor. Tal situación no está en equilibrio porque hay tantas formas en las que podría reorganizarse que está condenada a cambiar a una situación de mayor entropía. Por lo tanto, S debe maximizarse.


Ahora déjame darte un ejemplo de una situación en la que los números son extremadamente pequeños, pero aun así tendrás una idea de cómo funcionan las matemáticas.

Supongamos que tenemos un puñado de dados de 6 caras, digamos norte dado. Una situación dada es que cada dado muestra un número en {1,2,3,4,5,6}. Una variable termodinámica para el puñado es "el total de todos los números que aparecen en los dados". Suponemos que los dados tienen una interacción que hace que cambien aleatoriamente su orientación (y por lo tanto sus números). Para norte dados, el promedio (o valor esperado) para esta variable termodinámica es norte veces el número promedio en un dado que resulta ser 7/2. Por lo tanto, en promedio, los troqueles sumarán 7 norte / 2 .

Supongamos que los dados se encuentran en una situación en la que sus números suman norte (o 6 norte ). Tal situación solo tiene una forma de lograrse: todos los dados deben mostrar el mismo número, es decir, "1" (o "6"). Tal situación tiene una entropía de log (1) ya que solo hay una forma en que se puede lograr, y la entropía es en ( 1 ) = 0 . Esto tiene una entropía anormalmente baja y no es una situación de equilibrio.

Por otra parte, hay muchas formas de conseguir que los troqueles sumen 7 norte / 2 , (¡al menos suponiendo que tiene un número par de dados!) Por lo tanto, esta situación es una con alta entropía. Entonces, un puñado de dados que se mueven tiende a acercarse al equilibrio termodinámico al exhibir un valor total que es igual a la suma de sus valores promedio posibles.

Gracias por la respuesta. El punto es que estoy buscando una explicación "desde un punto de vista puramente termodinámico". Una derivación sistemática de las leyes de la termodinámica sería suficiente, sin embargo, supongo que también deberá establecerse una definición clara de equilibrio.