¿Cómo "leer" la temperatura de un sistema abstracto?

¿Cómo puedo interpretar el parámetro de temperatura? T , si no me dan la descripción del sistema en términos de la ecuación de estado, mi ( S , V   ) o S ( mi , V   ) etcétera.

En muchos sistemas tiene sentido pensar en ella como una "energía" en sí misma, por ejemplo, cuando la entropía es tal que T básicamente representa la energía cinética media de las partículas. La definición general es como

1 T = ( S ( mi , V   ) mi ) V .

Sin embargo, muy a menudo, especialmente cuando leo sobre transiciones de fase, ejemplos de sistemas con exponentes críticos, etc., suelen hablar del parámetro T y un crítico asociado T C sin tener en cuenta ningún sistema específico. Suele haber algo de energía libre abstracta F , que muestra cantidades abstractas. O en la distribución de Boltzman y cantidades derivadas, a menudo algo se activa cuando el valor de k T se pone al día con algún valor de energía específico del sistema mi 0 . Y se vuelve más complicado cuando toma la forma de QFT.

¿Cuál es la temperatura en un ambiente general?

¿Cómo leo este tipo de cosas y qué debo tener en cuenta al leer este tipo de textos?

Tú escribiste la respuesta. Esta es la definición de T . En el modelo de Ising. por ejemplo, no tiene sentido hablar de "energía cinética media de los espines" ni nada por el estilo. Diría que una buena manera de pensar en la temperatura en este caso es "¿qué tan lejos puedo ir por encima del estado fundamental", que es más o menos equivalente a "¿cuánta energía puedo pagar para comprar algo de entropía"?
¿Podría dar más detalles sobre las oraciones entre paréntesis? ¿Por qué "puedo ir"? ¿Puedo ir con qué? Tengo una probabilidad de que se tomen todos los niveles de energía. ¿Y por qué "pagar"? ¿Por qué "comprar" entropía? ¿Quiero entropía?
Los sistemas fluyen hacia estados probables, es decir, estados que tienen una gran cantidad de microestados. El (registro del) número de microestados es la entropía. Entonces, los sistemas "quieren" estar en (="ir a") estados con alta entropía, pero eso generalmente significa estados con alta energía. La compensación entre entropía y energía es exactamente la temperatura. En la evaporación de líquido, por ejemplo, el estado de vapor tiene una entropía más alta, pero también una energía más alta. Por lo tanto, a baja T el sistema es líquido, pero cuando T es lo suficientemente alto, el sistema prefiere estar en un estado energético más alto ("pago") porque su entropía es más alta.
@yohBS: Su explicación está formulada en términos del sistema, que no está en equilibrio. ¿Diría que uno debería ver y describir el significado de la temperatura T funcionalmente, es decir, en que es el valor que se iguala para los subsistemas acoplados, si todo el sistema alcanza el equilibrio?
Publiqué una respuesta real y elaborada. Espero que haga el trabajo.
Personalmente, creo que puede avanzar bastante con solo pensar en la temperatura definida por la ecuación en su pregunta: 1/T le dice cuánto aumentaría la entropía si aumentara la energía de (parte de) su sistema en un pequeña cantidad, manteniendo el volumen (y cualquier otra variable macroscópica como la composición química) constante. Pero, por supuesto, también ayuda a comprender la explicación mecánica estadística para esto dada en las otras respuestas.
@Nathaniel: Bueno, 1 T = ( S ( mi , V   ) mi ) V es una definición de mecánica estadística, ¿no le parece?
@NickKidman Supongo que eso depende de si S representa la entropía estadística de una distribución de probabilidad o la entropía fenomenológica de Clausius, Kelvin et al . Esta fórmula definió la temperatura antes de que se inventara la mecánica estadística, pero, por supuesto, funciona de cualquier manera :)

Respuestas (3)

La definición más fundamental de temperatura se deriva de la ley cero de la termodinámica .

La ley cero declara que el equilibrio térmico es una relación de equivalencia y, por lo tanto, podemos etiquetar cada clase de equivalencia con un número que llamamos temperatura. O en un término menos matemático, la temperatura es una cantidad física etiquetada en cada sistema termodinámico de modo que dos sistemas cualesquiera con la misma temperatura permanecerían en equilibrio térmico cuando entren en contacto.

La forma exacta de asignar temperatura a un sistema se llama escala de temperatura. Antes había múltiples escalas, la mayoría basadas en las propiedades térmicas de una sustancia en particular. Luego, Kelvin ideó una escala basada únicamente en principios termodinámicos, a la que llamamos "escala absoluta".

¡Puntos interesantes! Me pregunto si no se puede deducir la ley cero dentro de la termodinámica, ¿sabe (si no) por qué no? Con respecto a su último párrafo, creo que la definición de Kelvin y el absoluto no son necesarios si (a través de la mecánica estadística) puede calcular la entropía absoluta.
@Nick Kidman: La ley cero es "cero" porque se formuló después de la primera y la segunda ley cuando las personas se dieron cuenta de que está implícita en su comprensión, pero es una ley independiente y fundamental. Entonces no, no puedes deducirlo dentro de la termodinámica. En cuanto a "escala absoluta", o escala termodinámica, existen múltiples definiciones, todas equivalentes. Sin embargo, la versión de Kelvin es la primera.

Stat Mech se trata de tomar promedios con la medida adecuada.

La medida más simple es la medida micro-canónica (conjunto), en la que asumes que el sistema tiene una energía dada y que todos los estados en esta capa de energía son igualmente probables. La suposición de que se conoce la energía significa básicamente que el sistema no intercambia energía con un baño.

Una medida mucho más útil es la medida canónica, en la que se supone que se conoce la energía promedio, pero que el sistema puede intercambiar energía con un baño de calor. Se puede demostrar (y se muestra aquí ) que si asume que en cada capa de energía los estados son equiprobables, esta probabilidad es proporcional a mi mi / k b T .

Esto te muestra que T mide el peso que se le da a los estados, según su energía. Cuando T es alto, el peso de un estado con una energía dada se hace más alto, y cuando T es bajo se vuelve más bajo. Fácilmente se ve que para T todos los estados se vuelven equiprobables y para T 0 solo se cuenta(n) el(los) estado(s) fundamental(es).

Entonces podría preguntarse, "¿entonces por qué el sistema no está casi siempre en el estado fundamental? ¡Es el más probable!". Aquí entra en juego la entropía. Por definición de la entropía S ( mi ) , el número de estados con una energía mi es mi S ( mi ) / k b , y es una función rápidamente creciente de mi . Por lo tanto, cuando promedie las energías, debe usar la medida

mi β mi mi S ( mi ) / k b = mi β ( mi T S )
porque las energías más altas tienen un número mucho mayor de estados en el caparazón. Esto es lo que quise decir cuando dije eso T es una medida de "cuánta energía puedo pagar para comprar algo de entropía": los estados de alta entropía son más probables a partir de consideraciones de conteo de estados, pero son menos probables a partir de consideraciones energéticas. T es una medida del equilibrio relativo de estos dos.

Además, su sugerencia de definir funcionalmente T como "lo que es igual para dos sistemas en contacto térmico" es excelente, y en realidad se usa en este libro de texto que ofrece una introducción completa y perspicaz a "qué es la temperatura". Lo recomiendo mucho para principiantes.

Entonces estados mi β mi = energías mi β mi Ω ( mi ) = energías mi β mi mi S = energías mi β F , dónde Ω ( mi ) es el volumen del espacio de fase con energía mi ? veo que mi T S debe minimizarse, pero como no veo el límite inferior de esta expresión sin saber mi o S No sé cómo minimizarlo. Además, si estás tomando el conjunto canónico con un baño real, entonces no puedes simplemente elegir T . En ese caso no hay batalla entre energía y entropía, ya que T simplemente tomará el valor que tiene que tomar del exterior.
El punto es mostrar que acoplar su sistema a un baño externo da como resultado una probabilidad que va como mi β mi , para algunos β . Esta es la definición de T , y es el quid de la cuestión. Hasta que haya demostrado esto, no sabrá que "T simplemente tomará su valor" del baño, porque T ni siquiera está definido.
olvida lo que escribí sobre f. Es confuso y equivocado. En esta formulación la energía libre viene dada por F = k b T registro Z = k b T registro i mi β mi i , y la energía media se calcula promediando mi = Z 1 mi i mi β mi i = β registro ( Z )
No entiendo cómo "esta es la definición de T ". ¿Cómo determinas T de este formalismo, si no se define como la derivada de entropía con respecto a mi ? Y eventualmente estás de acuerdo en que con el baño, T tomará simplemente el valor de la temperatura del baño exterior? Y qué es "confuso e incorrecto", no sé a qué te refieres.
Cuando acopla su sistema a un baño, en realidad permite que intercambie calor con él. El sistema total (su sistema y el baño) estará en el estado más probable, el que tenga la entropía más alta. Dado que la entropía total es la suma de la entropía del baño y del sistema, la entropía total es máxima cuando
S b a t h mi = S s y s t mi metro mi   .
Esta cantidad se define como 1 / T , y la probabilidad de encontrar su sistema en una energía mi va como mi mi / k T , como puede verse tomando una serie de Taylor de primer orden alrededor del máximo.

Su definición es la definición termodinámica de temperatura. La mayoría de las discusiones sobre las transiciones de fase provienen del punto de vista de la mecánica estadística . En este paradigma, la definición de temperatura se deriva de la definición de entropía S = k b registro Ω ( mi )

1 k T = d registro Ω ( mi ) d mi
Dónde Ω ( mi ) es el número de microestados con energía mi .

Wikipedia tiene una buena derivación de la conexión entre estos dos enfoques.

Gracias por el comentario, estoy familiarizado con la definición. Sin embargo, no sé si "el inverso multiplicativo del cambio de volumen del espacio de fase relativo con la energía" es muy útil.