El concepto de entropía es muy omnipresente, aprendemos sobre sus usos desde la Teoría de la Información ( entropía de Shannon ) hasta su definición básica en mecánica estadística en términos de número de microestados .
Limitando la discusión a la física, cuando se estudia un sistema físico, puede ser una caja llena con un gas ideal, un fundido de polímeros o el estado de varillas/moléculas en un sistema cristalino líquido, en todos estos escenarios, existen términos entrópicos específicos que definimos al describir la evolución del sistema (incluyéndolo en la expresión de energía libre).
Desde el punto de vista de la mecánica estadística, usamos la definición de Boltzmann de:
Para un gas perfecto se puede escribir la entropía por átomo de N átomos en el volumen V como:
En la materia blanda condensada, al estudiar la cristalinidad líquida, a menudo definimos una entropía orientacional, que describe la pérdida de entropía cuando se orientan las moléculas. En su forma más general definida como:
En la física de los polímeros, a menudo hay términos entrópicos atribuidos a la homogeneidad en la distribución de la densidad numérica de los monómeros. a lo largo de las cadenas (a menudo llamada entropía de Lifshitz), descrita como
En todos estos casos, es relativamente sencillo ver por qué nos referimos a tales funciones de estado como "entrópicas", ya que todas se reducen a describir un cierto tipo de desorden en el sistema, y cómo su inclusión afectaría el estado de equilibrio. de un sistema Pero la pregunta subyacente es cómo damos límites físicos y matemáticos a estos términos entrópicos, debe ser consistente, por lo tanto, debe haber un conjunto de axiomas que una función debe cumplir para calificar como un término entrópico.
Para profundizar en la pregunta:
Por un lado, desde un punto de vista físico, la entropía siempre se establece para alcanzar su máximo en el estado más desordenado, y un mínimo para el caso más ordenado (es decir, 1 microestado posible, certeza completa sobre su estado). Por ejemplo, en cristales líquidos de nuevo, queremos estar como máximo en el estado orientacionalmente desordenado, el isótropo, y como mínimo en los estados completamente ordenados, como el esméctico .
Por otro lado, matemáticamente requerimos que:
Claramente, si no sabemos cómo vincular tales funciones con base en un conjunto de axiomas, no podemos saber si tendrán sentido física y matemáticamente.
(Escenario de pensamiento útil: imagine estudiar un sistema de partículas en suspensión, donde su distribución posicional viene con una cierta periodicidad, si vamos a atribuir un término entrópico al estado de periodicidad del sistema, qué condiciones debería satisfacer tal función de estado).
Motivación física definitiva
Estrictamente en el sentido de la física, la entropía es menos libre de lo que parece. Siempre tiene que proporcionar una medida de la energía liberada de un sistema que no se puede captar con parámetros macroscópicos. Es decir, tiene que estar sujeto a la relación
Formulación estadística
De hecho, esta restricción proporciona cierta libertad para la definición estadística de entropía, pero no en efecto. La libertad está básicamente en el hecho de que estamos haciendo lo y límites y mucha información de la definición se borra. Podemos, por ejemplo, definir el volumen del espacio de fase del conjunto microcanónico de tres formas distintas. el primero es
El tema mucho más importante es contar el número de estados relevantes, la transición de estados discretos a estados continuos y por qué deberíamos considerarlos "democráticos". Este sería un argumento muy largo relacionado con la ergodicidad , etc.
Para los sistemas hamiltonianos ergódicos, la medida de probabilidad es ciertamente proporcional a dónde es el número de grados de libertad. De la mecánica cuántica sabemos que el factor de "democracia" de estados discretos a continuos hace que esta medida con la constante de Planck. (Solo importan los pesos relativos, ya que de todos modos normalizamos).
La conclusión es que los procedimientos de la física estadística, para un sistema dado, pueden darnos la entropía sin ambigüedades (hasta una constante aditiva que representa la libertad de normalización del estado).
Conclusión ondulada a mano
Entonces siempre hay una entropía para cada situación y sabemos cómo derivarla. El truco es solo especificar qué grados son "gratuitos" o aleatorios en una interacción complicada y activar las estadísticas.
Pero hay algunas lagunas. Vemos que la justificación de todo el procedimiento (la "democratización" de los estados) se basa en la formulación hamiltoniana y básicamente también en la cuantificación. Pero sabemos que la cuantización es más un arte que una ciencia y el procedimiento estadístico puede encontrarse con problemas muy similares a los de la cuantización. ¿Estamos siempre seguros de cuáles son los parámetros macroscópicos de un sistema? ¿Cómo describimos la situación cuando observamos el microestado directamente? ¿Cuál sería la entropía de un espacio-tiempo relativista? ¿Cuáles serían los grados de libertad "activados"? Etc. Pero esta es una pregunta para el "arte de la física".
Nota adicional: "Arte de la física" - modelado y confirmación
Un breve comentario sobre "el arte de la física". Al igual que con cualquier modelo físico y aproximaciones, existen tres criterios:
Digamos que tenemos un sistema abierto con un canal de entrada de partículas. Sin embargo, solo sabemos cómo calcular los parámetros relevantes para el flujo de entrada para densidades numéricas pequeñas en , porque entonces podemos usar un modelo de una partícula de entrada y salida del sistema. El modelo de una partícula sería el punto 1.- fundamento en la física que se cree fundamental. Por lo tanto, suponemos una baja densidad numérica y calculamos las estadísticas del sistema.
Pero aquí es donde el trabajo del teórico no debe detenerse, el último paso es verificar si la densidad es suficientemente baja bajo cualquier elección de parámetros e identificar estas regiones en el espacio de parámetros: este es el punto 2. Sin embargo, esta es una concepción muy primitiva. Para un modelo serio, el teórico debería al menos comprobar si dos o más modelos de flujo de entrada de partículas no pueden hacerse cargo repentinamente incluso a bajas densidades e investigar bajo qué condiciones no lo hacen. Esto es 1. mezclándose con 2.
Sin embargo, también existe 3.- La verificación empírica. Sería muy ingenuo pretender que el teórico es capaz de anticipar todos los efectos posibles. De hecho, los artículos de Einstein son bien conocidos por arrojar un modelo sin largas discusiones matemáticas sobre los efectos desatendidos y dar predicciones experimentales de inmediato. A veces, la intuición manda (a veces tampoco).
En el caso de la entropía, esto se lograría midiendo la respuesta térmica del sistema. No se trata sólo de capacidades caloríficas en forma
Entonces, la respuesta sería: si existe un modelo bien desarrollado que predice cuantitativamente la entropía y se confirma mediante pruebas exhaustivas, la entropía califica como la única entropía del sistema.
Nota adicional: Condiciones matemáticas observadas
Digamos que nuestra motivación física es primordial. Entonces lo más fuerte que podemos decir es lo siguiente:
En transiciones de fase tan comunes como la congelación/fusión, la entropía es incluso discontinua, por lo tanto, el criterio. (Pero esto sucede sólo en el límite como se discute, por ejemplo, por Kardar en sus notas.) Físicamente somos capaces de medir sólo por lo que un requisito estricto de bien definido es redundante e imposible para algunos sistemas muy comunes.
Es importante que la "extensividad" simplemente diga "tome otra copia del sistema": los parámetros que se duplican con esta operación son extensos, pero también se almacena calor en el nuevo sistema "doble". Tomando todos los parámetros extensivos y multiplicando por simplemente significa "tomar copias del sistema". Todo esto depende en gran medida del hecho de que somos capaces de identificar muy claramente la operación física de "tomar otra copia del sistema".
Hay casos, como la termodinámica del agujero negro, en los que tal noción falla. En cierto modo, todo el espacio-tiempo es el sistema termodinámico, por lo que es difícil especificar "tomar otra copia del sistema". (Más técnicamente, las fórmulas son para agujeros negros aislados y no hay forma de filtrar la gravedad de otra manera que no sea a una distancia infinita). Podría parecer que la superficie del horizonte sería un parámetro extenso, pero en realidad crece a medida que - No podemos simplemente decir "el doble de la masa" porque eso no funcionaría.
[Según lo solicitado, convierto mi comentario en una respuesta, ya que también podría ser útil para otras personas.]
Hay una serie muy interesante de trabajos de Lieb e Yngvason sobre la entropía y la segunda ley de la termodinámica, basada en el tipo de enfoque axiomático que parece interesarle. Puede comenzar con este artículo introductorio , o esto , esto o esto más los detallados. Probablemente también haya algunos otros de los mismos autores.
Termodinámicamente la entropía se define por
Las fórmulas que tenemos para las entropías de varios sistemas no son, por lo tanto, algo que se derivó en lugar de decidirse. Contar microestados no es algo práctico para hacer experimentalmente, pero se puede hacer teóricamente para un modelo dado. A partir de esto, podemos usar las fórmulas de Gibbs o Boltzmann para derivar una fórmula para la entropía en términos de cantidades macroscópicas y esto se puede comparar con medidas experimentales de la capacidad calorífica.
ellie
Vacío
ellie
Vacío
ellie
Vacío
Vacío
ellie