¡Axiomas detrás de la entropía!

El concepto de entropía es muy omnipresente, aprendemos sobre sus usos desde la Teoría de la Información ( entropía de Shannon ) hasta su definición básica en mecánica estadística en términos de número de microestados .

Limitando la discusión a la física, cuando se estudia un sistema físico, puede ser una caja llena con un gas ideal, un fundido de polímeros o el estado de varillas/moléculas en un sistema cristalino líquido, en todos estos escenarios, existen términos entrópicos específicos que definimos al describir la evolución del sistema (incluyéndolo en la expresión de energía libre).

Desde el punto de vista de la mecánica estadística, usamos la definición de Boltzmann de:

S = k B en Ω
dónde Ω , puede ser la función de partición en un conjunto, o simplemente el número de microestados dentro de un macroestado dado. Pero, por supuesto, casi nunca usamos esta forma exacta de entropía al estudiar sistemas reales, ya que es imposible contar los microestados de ninguna manera. En cambio, definimos términos entrópicos basados ​​en variables macroscópicas de un sistema, como los siguientes (ejemplos entre los habituales):

  • Para un gas perfecto se puede escribir la entropía por átomo de N átomos en el volumen V como:

    S i d mi a yo = k B en ( a V norte )
    con a una constante.

  • En la materia blanda condensada, al estudiar la cristalinidad líquida, a menudo definimos una entropía orientacional, que describe la pérdida de entropía cuando se orientan las moléculas. En su forma más general definida como:

    S o r i mi norte t = k B F ( θ ) en F ( θ ) d Ω
    dónde F ( θ ) es una función de distribución de orientación y d Ω un pequeño ángulo sólido.

  • En la física de los polímeros, a menudo hay términos entrópicos atribuidos a la homogeneidad en la distribución de la densidad numérica de los monómeros. norte ( i ) a lo largo de las cadenas (a menudo llamada entropía de Lifshitz), descrita como

    S h o metro o gramo mi norte mi i t y ( norte ( i ) ) 2
    que es solo el gradiente de una distribución de densidad.

En todos estos casos, es relativamente sencillo ver por qué nos referimos a tales funciones de estado como "entrópicas", ya que todas se reducen a describir un cierto tipo de desorden en el sistema, y ​​cómo su inclusión afectaría el estado de equilibrio. de un sistema Pero la pregunta subyacente es cómo damos límites físicos y matemáticos a estos términos entrópicos, debe ser consistente, por lo tanto, debe haber un conjunto de axiomas que una función debe cumplir para calificar como un término entrópico.

Para profundizar en la pregunta:

Por un lado, desde un punto de vista físico, la entropía siempre se establece para alcanzar su máximo en el estado más desordenado, y un mínimo para el caso más ordenado (es decir, 1 microestado posible, certeza completa sobre su estado). Por ejemplo, en cristales líquidos de nuevo, queremos S o r i mi norte t estar como máximo en el estado orientacionalmente desordenado, el isótropo, y como mínimo en los estados completamente ordenados, como el esméctico .

Por otro lado, matemáticamente requerimos que:

  1. S ser continuo en cada Ω
  2. Ser extenso con el tamaño del sistema
  3. Diferenciable (¿tiene que ser siempre?)
  4. Camino independiente: función de estado
  5. ...¿Qué otra cosa?

Claramente, si no sabemos cómo vincular tales funciones con base en un conjunto de axiomas, no podemos saber si tendrán sentido física y matemáticamente.

(Escenario de pensamiento útil: imagine estudiar un sistema de partículas en suspensión, donde su distribución posicional viene con una cierta periodicidad, si vamos a atribuir un término entrópico al estado de periodicidad del sistema, qué condiciones debería satisfacer tal función de estado).

  • ¿Cuáles son los axiomas que debe satisfacer una función de estado para que califique como entropía?

Respuestas (3)

Motivación física definitiva

Estrictamente en el sentido de la física, la entropía es menos libre de lo que parece. Siempre tiene que proporcionar una medida de la energía liberada de un sistema que no se puede captar con parámetros macroscópicos. Es decir, tiene que estar sujeto a la relación

d tu = d mi macro + T d S
Tiene que transportar todas las formas de energía que no pueden expresarse macroscópicamente, que resumimos como "calor", pero la física real detrás de este "calor" puede ser bastante diferente de las nociones en gases, etc. Si la entropía no satisface esta relación, no es una entropía física. Esta sería una caracterización completa de la entropía para la macrofísica. Voy a usar solo esta definición, no los casos en los que la entropía es un identificador para hablar de información.


Formulación estadística

De hecho, esta restricción proporciona cierta libertad para la definición estadística de entropía, pero no en efecto. La libertad está básicamente en el hecho de que estamos haciendo lo norte y V límites y mucha información de la definición se borra. Podemos, por ejemplo, definir el volumen del espacio de fase del conjunto microcanónico de tres formas distintas. el primero es

Ω agudo = mi = tu d m
Dónde m es una especie de medida sobre el espacio de estados. O podemos poner
Ω no afilado = mi ( tu ε , tu ) d m
o incluso
Ω a nadie le importa = mi < tu d m
Cualquiera de estos funcionará para S = k B Iniciar sesión Ω en los límites mencionados (el límite dará el mismo S ). Pero esto es más una reliquia de los grandes límites: la opción físicamente plausible es Ω agudo .

El tema mucho más importante es contar el número de estados relevantes, la transición de estados discretos a estados continuos y por qué deberíamos considerarlos "democráticos". Este sería un argumento muy largo relacionado con la ergodicidad , etc.

Para los sistemas hamiltonianos ergódicos, la medida de probabilidad es ciertamente proporcional a d norte X d norte pags dónde norte es el número de grados de libertad. De la mecánica cuántica sabemos que el factor de "democracia" de estados discretos a continuos hace que esta medida d norte X d norte pags / h con h la constante de Planck. (Solo importan los pesos relativos, ya que de todos modos normalizamos).

La conclusión es que los procedimientos de la física estadística, para un sistema dado, pueden darnos la entropía sin ambigüedades (hasta una constante aditiva que representa la libertad de normalización del estado).


Conclusión ondulada a mano

Entonces siempre hay una entropía para cada situación y sabemos cómo derivarla. El truco es solo especificar qué grados son "gratuitos" o aleatorios en una interacción complicada y activar las estadísticas.

Pero hay algunas lagunas. Vemos que la justificación de todo el procedimiento (la "democratización" de los estados) se basa en la formulación hamiltoniana y básicamente también en la cuantificación. Pero sabemos que la cuantización es más un arte que una ciencia y el procedimiento estadístico puede encontrarse con problemas muy similares a los de la cuantización. ¿Estamos siempre seguros de cuáles son los parámetros macroscópicos de un sistema? ¿Cómo describimos la situación cuando observamos el microestado directamente? ¿Cuál sería la entropía de un espacio-tiempo relativista? ¿Cuáles serían los grados de libertad "activados"? Etc. Pero esta es una pregunta para el "arte de la física".


Nota adicional: "Arte de la física" - modelado y confirmación

Un breve comentario sobre "el arte de la física". Al igual que con cualquier modelo físico y aproximaciones, existen tres criterios:

  1. Fundamentos de (más) física elemental
  2. Autoconsistencia de resultado con suposición
  3. Verificación empírica

Digamos que tenemos un sistema abierto Ξ con un canal de entrada de partículas. Sin embargo, solo sabemos cómo calcular los parámetros relevantes para el flujo de entrada para densidades numéricas pequeñas en Ξ , porque entonces podemos usar un modelo de una partícula de entrada y salida del sistema. El modelo de una partícula sería el punto 1.- fundamento en la física que se cree fundamental. Por lo tanto, suponemos una baja densidad numérica y calculamos las estadísticas del sistema.

Pero aquí es donde el trabajo del teórico no debe detenerse, el último paso es verificar si la densidad es suficientemente baja bajo cualquier elección de parámetros e identificar estas regiones en el espacio de parámetros: este es el punto 2. Sin embargo, esta es una concepción muy primitiva. Para un modelo serio, el teórico debería al menos comprobar si dos o más modelos de flujo de entrada de partículas no pueden hacerse cargo repentinamente incluso a bajas densidades e investigar bajo qué condiciones no lo hacen. Esto es 1. mezclándose con 2.

Sin embargo, también existe 3.- La verificación empírica. Sería muy ingenuo pretender que el teórico es capaz de anticipar todos los efectos posibles. De hecho, los artículos de Einstein son bien conocidos por arrojar un modelo sin largas discusiones matemáticas sobre los efectos desatendidos y dar predicciones experimentales de inmediato. A veces, la intuición manda (a veces tampoco).

En el caso de la entropía, esto se lograría midiendo la respuesta térmica del sistema. No se trata sólo de capacidades caloríficas en forma

C . . . ( S T ) | . . . = constante .
pero también muchos otros coeficientes de respuesta relacionados con la temperatura, como se especifica, por ejemplo, en las relaciones de Maxwell .

Entonces, la respuesta sería: si existe un modelo bien desarrollado que predice cuantitativamente la entropía y se confirma mediante pruebas exhaustivas, la entropía califica como la única entropía del sistema.


Nota adicional: Condiciones matemáticas observadas

Digamos que nuestra motivación física es primordial. Entonces lo más fuerte que podemos decir es lo siguiente:

  • La entropía es una función de un solo valor del conjunto completo de parámetros macroscópicos. (Es decir, si no es así, también podría deberse a que la lista de parámetros no está completa).
  • La entropía tiene una diferencia finita entre dos puntos cualesquiera en el espacio de macroparámetros. Es decir | Δ S | < .
  • La entropía es homogénea en los parámetros definidos por criterios físicos como "extensivos". Es decir, para un conjunto completo de parámetros extensos A i tenemos S ( λ A 1 , . . . , λ A norte , . . . ) = λ S ( A 1 , . . . , A norte , . . . ) , λ < 0 .

En transiciones de fase tan comunes como la congelación/fusión, la entropía es incluso discontinua, por lo tanto, el criterio. (Pero esto sucede sólo en el norte límite como se discute, por ejemplo, por Kardar en sus notas.) Físicamente somos capaces de medir sólo Δ S por lo que un requisito estricto de bien definido d S es redundante e imposible para algunos sistemas muy comunes.

Es importante que la "extensividad" simplemente diga "tome otra copia del sistema": los parámetros que se duplican con esta operación son extensos, pero también se almacena calor en el nuevo sistema "doble". Tomando todos los parámetros extensivos y multiplicando por λ simplemente significa "tomar λ copias del sistema". Todo esto depende en gran medida del hecho de que somos capaces de identificar muy claramente la operación física de "tomar otra copia del sistema".

Hay casos, como la termodinámica del agujero negro, en los que tal noción falla. En cierto modo, todo el espacio-tiempo es el sistema termodinámico, por lo que es difícil especificar "tomar otra copia del sistema". (Más técnicamente, las fórmulas son para agujeros negros aislados y no hay forma de filtrar la gravedad de otra manera que no sea a una distancia infinita). Podría parecer que la superficie del horizonte A sería un parámetro extenso, pero en realidad crece a medida que METRO 2 - No podemos simplemente decir "el doble de la masa" porque eso no funcionaría.

Gracias por tus explicaciones. +1 por la estructura y coherencia de tu respuesta. Cuando dices "procedimientos de física estadística... pueden darnos entropía sin ambigüedades", ¿qué quieres decir exactamente? Por ejemplo, uno de esos procedimientos sería obtener la función de partición. Pero la mayoría de las veces, en sistemas reales, no se pueden resolver (como comenté para la respuesta de BySymmetry), así que, como dices, el truco es reducir el problema a los grados de libertad e interacción que más importan y en base a ellos. modelar estos términos entrópicos, pero ¿qué condiciones explican su validez física y matemática?
Traté de desarrollar brevemente el punto de "hervir" y lo agregué a la respuesta, pero no estoy seguro de si esto es lo que está preguntando (¿lo es?). Supongo que también está tratando de preguntar cómo Boltzmann y otros precisaron la definición estadística de entropía, pero ese sería un argumento completamente diferente.
Gracias por las posteriores elaboraciones, ¡muy agradable! Creo que lo ha resumido bastante bien en términos de requisitos físicos y pasos para derivar términos entrópicos relevantes de manera general. Finalmente, ¿añadiría algo a las condiciones matemáticas que son necesarias en todos estos modelos de entropía? (solo los que se pueden generalizar, por supuesto, como los 4 puntos que mencioné en la publicación), sería "la guinda" de tu respuesta como dice el refrán :)
Las condiciones matemáticas se derivan simplemente de la motivación física original. Pero una vez más, la física es la física y cualquier axioma se puede torcer, por lo que solo establecí el "razonable más fuerte". Creo que esto debería responder suficientemente a su pregunta.
Muchas gracias por haber agregado todos los detalles, cada vez que los pedí. Honestamente, no podría haber pedido una respuesta más completa , concisa y coherente en todo momento. ¡Salud! Una última pregunta si se me permite, usted dice "en algunas transiciones de fase, la entropía es incluso discontinua", pero ¿no son más bien los derivados de S que debe exhibir singularidades para que ocurra la transición de fase? (por ejemplo, singularidad en la derivada de primer orden transición de fase de primer orden, etc.)
La clasificación de Boltzmann se basa en singularidades en los derivados de la energía libre, pero hoy en día sabemos que la transición de fase ferromagnética en realidad incluye un salto en la energía libre con respecto a la temperatura, por lo que la clasificación se rompe. Por lo tanto, estoy hablando de parámetros macroscópicos generales que podemos observar y verlos fijos cuando se transfiere calor "latente" correspondiente a Δ S . Es un enfoque más operativo que la clasificación de Boltzmann y solo habla de lo que observamos relacionalmente en un experimento.
Pero me di cuenta de que los artículos de Yvan Velenik tienen un punto: todos los ejemplos que se me ocurren tienen un conjunto alternativo de "coordenadas de trabajo" en las que la entropía es (al menos) continua, según los supuestos del artículo, incluso continuamente diferenciable. Pero cuando se trabaja empíricamente con un sistema termodinámico desconocido, no estoy completamente seguro de que esto sea relevante.
Mucho más claro ahora, aunque todavía necesita un poco de digestión para mí. Gracias por las aclaraciones. Por cierto, si tiene más referencias útiles (como el enlace del MIT que proporcionó anteriormente) con respecto a estas discusiones, sería genial si pudiera compartir algunas de ellas. ¡Salud!

[Según lo solicitado, convierto mi comentario en una respuesta, ya que también podría ser útil para otras personas.]

Hay una serie muy interesante de trabajos de Lieb e Yngvason sobre la entropía y la segunda ley de la termodinámica, basada en el tipo de enfoque axiomático que parece interesarle. Puede comenzar con este artículo introductorio , o esto , esto o esto más los detallados. Probablemente también haya algunos otros de los mismos autores.

Me parece que de alguna manera algunos de los axiomas deben matar las transiciones de fase, ya que no podemos decir que "la entropía es una función cóncava y continuamente diferenciable" debido a ellas. (Teorema 5, Documento introductorio) Es decir, estos axiomáticos parecen estar construidos alrededor de una cierta clase de sistemas especiales.
No. El enfoque es extremadamente general (mucho más que los anteriores). Con respecto a las transiciones de fase, lea las pocas líneas que siguen al enunciado del teorema que cita.
Oh, ya veo, es en el sentido de "coordenadas de trabajo", no las transformaciones de Legendre, gracias. Entonces, supongo que sería interesante preguntar al manejar un sistema termodinámico exótico del que podemos observar ciertos observables macroscópicos y producir calor, si podríamos decir que un conjunto de observables es un conjunto completo de coordenadas de trabajo solo en base al hecho de que no toma calores "latentes" bajo tal descripción.
Gracias de nuevo Yvan por las referencias, todas están muy en la línea de lo que estaba buscando, ¡buen material +1!

Termodinámicamente la entropía se define por

d S = d q r mi v T ,
dónde d q r mi v es el calor, transferido reversiblemente. Como usted señala, se puede demostrar que esta cantidad es una función de estado. Esto implica que la entropía de cualquier sistema termodinámico tiene, hasta una constante, un valor bien definido dado por
S = S 0 + 0 T C T d T ,
dónde C = q T es la capacidad calorífica del sistema. Entonces, si establecemos el valor de la entropía de un sistema en el cero absoluto, las leyes de la termodinámica y las propiedades físicas del sistema fijan el valor de la entropía.

Las fórmulas que tenemos para las entropías de varios sistemas no son, por lo tanto, algo que se derivó en lugar de decidirse. Contar microestados no es algo práctico para hacer experimentalmente, pero se puede hacer teóricamente para un modelo dado. A partir de esto, podemos usar las fórmulas de Gibbs o Boltzmann para derivar una fórmula para la entropía en términos de cantidades macroscópicas y esto se puede comparar con medidas experimentales de la capacidad calorífica.

Gracias por tu respuesta. En el último párrafo, llega a un punto muy cercano a lo que estoy preguntando, es decir, cómo se "deciden" las entropías de varios sistemas en lugar de "derivarse" de un punto de partida común. Lo que nos lleva a la pregunta, bien, aunque está involucrado un elemento de intuición (tal vez basado en resultados empíricos), uno todavía tiene que darle a la entropía un modelo matemático, ¿cuáles son las condiciones que debería satisfacer tal modelo entrópico? (similar a los puntos que estaba usando en la publicación).
Para cualquier modelo, la entropía se deriva , no se decide. Si tiene un modelo microscópico del sistema, puede escribir directamente la función de partición. A partir de esto puedes calcular directamente la entropía. La Mecánica Estadística da una receta muy general para hacer esto. Y como @CuriousOne dice correctamente, esto solo le permite calcular la entropía de su modelo. El mundo real siempre es demasiado complicado para hablar de axiomas matemáticos perfectos.
Sus puntos están bien y son claros, es solo que todavía no ha tocado los modelos en sí, después de todo, la pregunta principal es ¿dentro de qué marco común definimos tales modelos entrópicos? En cuanto a la función de partición, no veo qué quieres decir con "escribir directamente...", porque a menudo uno se enfrenta a expresiones con al menos 6 norte integrales sobre posiciones y momentos de partículas en el sistema, H el hamiltoniano, entonces: Z = d r norte d pags norte Exp [ H ( r norte , pags norte ) / k B T ] Claramente no siempre podemos resolverlos analíticamente para deducir la expresión de la entropía.
Fui muy cuidadoso con la ubicación de la palabra directo en esa oración. Puede bajar fácilmente una expresión para la función de partición, lo hizo en su comentario anterior, pero nunca dije que podría evaluarse analíticamente en todos los casos. El punto es que la entropía tiene un valor bien definido, ya sea que podamos escribir una expresión analítica para ello o no. En otras ocasiones podemos utilizar métodos numéricos o encontrarlo empíricamente. En los casos en los que tenemos una expresión analítica, normalmente se debe a que alguien encontró una aproximación razonable para las integrales relevantes.