¿Por qué el calor agregado a un sistema a una temperatura más baja causa un mayor aumento de entropía?

La entropía se define en mi libro como Δ   S = Q T Δ S = Q T . Para derivar la fórmula, dice que la entropía debería ser directamente proporcional a la energía térmica, ya que con más energía las partículas volarían por todo el lugar más rápidamente. Esto tiene sentido. Pero luego dice que la entropía debe ser inversamente proporcional a la temperatura a la que se agrega. Para ser preciso

El calor agregado a un sistema a una temperatura más baja causa un mayor aumento de entropía que el calor agregado al mismo sistema a una temperatura más alta.

¿Cómo tiene sentido intuitivo?

EDITAR 1:

Encontré una respuesta aquí . Creo que esto tiene sentido. ¿Alguien puede leerlo y decirme si es correcto o no?

Respuesta intuitiva aproximada:

Agregar calor a un sistema aumenta la energía total del sistema. Esto proporciona más energía cinética para distribuir entre las partículas en el sistema, aumentando el tamaño del espacio de fase del sistema y, por lo tanto, su entropía. Sin embargo, dado que el momento es proporcional a la raíz cuadrada de la energía cinética, está claro que el espacio de fase de momento total no puede crecer exponencialmente a medida que agrega más energía cinética; entonces la tasa de crecimiento de su logaritmo debe disminuir. Dado que la entropía es proporcional al logaritmo del tamaño del espacio de fase, vemos que cada unidad adicional de calor debe aumentar la entropía en cada vez menos.

Ahora, para detalles técnicos. La razón por la cual la relación es precisamente re S = δ q / T re S = δ q / / T en lugar de una relación más complicada que depende de la naturaleza del sistema es que la temperatura se define de manera tal que esto es cierto. ¡Sabemos que durante las transiciones de fase de primer orden, la temperatura en realidad se mantiene constante a medida que agrega calor! Esto corresponde a una región donde agregar calor realmente causa un aumento exponencial en el espacio de fase. Finalmente, tenga en cuenta que algunos sistemas tienen una temperatura negativa, y agregarles más calor hace que la temperatura sea aún más negativa; por lo que agregar calor en realidad disminuye el espacio de fase. Por lo tanto, la respuesta intuitiva en el párrafo anterior no debe tomarse demasiado en serio.

EDIT 2: Además, esta respuesta explica por qué debe haber un factor adicional de temperatura junto con el calor en la definición de entropía para ser coherente con la segunda ley.

Esta es la razón por la cual el calor fluye de objetos calientes a objetos fríos: el cambio de entropía del objeto caliente es negativo, mientras que el del objeto frío es positivo. La magnitud del cambio de entropía para el objeto frío es mayor. Δ S = Q T C - Q T h > 0 Δ S = Q T C - Q T h > 0 0 como T h > T C T h > T C

Tenga en cuenta que la entropía aumenta con la temperatura. Esto se puede entender intuitivamente en la imagen clásica, como usted menciona. Sin embargo, a temperaturas más altas, una cierta cantidad de calor agregado al sistema provoca un cambio menor en la entropía que la misma cantidad de calor a una temperatura más baja.

La formula es Δ S = Q T Δ S = Q T . El cambio en la entropía está relacionado con el calor. Recuerde que el calor es una forma de transferencia de energía, no energía; Podemos hablar sobre el calor solo cuando se produce algún cambio.

Indique si hay algún problema con las respuestas anteriores.

La fórmula que está citando es el cambio de entropía para un proceso reversible en el caso isotérmico, creo. En el caso general hay que integrar Δ S = Q r e v T Δ S = Q r mi v T . Eso es diferente de la entropía total de un sistema, que es una función de la temperatura y otras propiedades intensivas (como la magnetización, etc.).
OP: ¿Estás seguro de que tu libro dice que la entropía debería ser directamente proporcional a la "temperatura"? ¿No debería eso decir "calor" en su lugar?
@BMS Lo siento. Hizo la edición.
Q T = Δ S = Δ ( k ln Ω ) k 1 Ω Δ Ω Δ Ω Ω Q k T Q T = Δ S = Δ ( k En Ω ) k 1 Ω Δ Ω Δ Ω Ω Q k T , es decir, la transferencia de calor a un sistema abre una nueva cantidad de microestados Δ Ω Δ Ω proporcional al número de los existentes y al número de grados de libertad que podemos excitar dado por el calor Q Q dividido por la energía promedio por grado de libertad k T k T ; cf physics.stackexchange.com/questions/33372/…
¿Está pidiendo una respuesta conceptual que se limite a la termodinámica clásica, que solo utiliza variables macro como la temperatura y el volumen (donde la entropía se puede definir de la manera que escribió), o desea una respuesta que comience con la definición más fundamental de entropía en mecánica estadística en términos del número de microestados posibles asociados con un macroestado dado? (que es de donde viene la noción de entropía como 'desorden')

Respuestas (8)

La fórmula está mejor escrita

Δ S = Q T . Δ S = Q T .
Es decir, el cambio en la entropía asociado con el flujo de calor es inversamente proporcional a la temperatura a la que ocurre el flujo de calor. Tenga en cuenta que Q Q ya es un cambio en sí mismo: no es una variable de estado, sino algo más como Δ W Δ W . Físicamente, esto se debe a que agregar calor a un sistema caliente no lo desorganiza tanto como agregar el mismo calor a un sistema frío.

Si T T está cambiando, necesitarías integrar

Δ S = d S = δ Q T . Δ S = re S = δ Q T .

Para un gas ideal a volumen constante y número de partículas, resulta

Δ S log ( T F yo n a l T i n i t i a l ) Δ S Iniciar sesión ( T F yo norte un l T yo norte yo t yo un l ) .
Por lo tanto, duplicar la temperatura conduce a la exponencial de S S duplicando, como era de esperar.

"Físicamente, esto se debe a que agregar calor a un sistema caliente no lo desorganiza tanto como agregar el mismo calor a un sistema frío". Pero no entiendo por qué este es el caso?
@pentane Gran artículo. Pero no responde mi pregunta.

Usted pidió un sentido intuitivo y trataré de proporcionarlo. La formula es:

Δ S = Δ Q T Δ S = Δ Q T

Entonces, puedes tener Δ S 1 = Δ Q T l o w e r Δ S 1 = Δ Q T l o w mi r y Δ S 2 = Δ Q T h i g h e r Δ S 2 = Δ Q T h yo sol h mi r

Asume el Δ Q Δ Q Es lo mismo en cada caso. El denominador controla la "amplitud" de la Δ S Δ S .

Por lo tanto, Δ S 1 > Δ S 2 Δ S 1 > Δ S 2

En cada caso, digamos que tenía X número de átomos de hidrógeno en cada contenedor. La única diferencia era la temperatura de los átomos. El grupo de temperatura más baja está en un estado menos frenético que el grupo de temperatura más alta. Si aumenta la "frenética" de cada grupo en la misma cantidad, el grupo menos frenético notará la diferencia más fácilmente que el grupo más frenético.

Convertir a una multitud tranquila en un motín será mucho más notable que convertir un motín en un motín más frenético. Trate de pensar en el cambio en la entropía como el cambio notable en el comportamiento desenfrenado.

Inquisitivo, ese último párrafo no tiene precio.

El calor agregado a un sistema a una temperatura más baja causa un mayor aumento de entropía que el calor agregado al mismo sistema a una temperatura más alta.

¿Cómo tiene sentido intuitivo?

La fórmula define el cambio de entropía. Como define una nueva palabra no concebida antes y, por lo tanto, carece de sentido, es difícil imaginar que tenga "sentido intuitivo".

Si su pregunta realmente es por qué las personas usan esta definición y no otra, aquí hay una vista posible:

Carnot llegó a la conclusión de que todos los ciclos reversibles que operan entre dos temperaturas T 1 < T 2 T 1 < T 2 (adquiriendo calor Q 1 Q 1 y Q 2 Q 2 ) tienen la misma eficiencia (trabajo dividido por el calor consumido)

W Q 2 = 1 - T 1 T 2 . W Q 2 = 1 - T 1 T 2 .

Hoy, esto se deriva de la primera y segunda ley de la termodinámica en la mayoría de los libros de texto sobre termodinámica. Se hace más fácilmente para el gas ideal, pero el resultado generalmente es válido para cualquier sustancia. Es en este punto donde la división por temperaturas entra en discusión.

Ya que W = Q 1 + Q 2 W = Q 1 + Q 2 , sigue

Q 1 T 1 + Q 2 T 2 = 0. Q 1 T 1 + Q 2 T 2 = 0.

(suma de calores reducidos es igual a cero).

El proceso cíclico general tiene el mismo efecto en el entorno del sistema que muchos ciclos de Carnot que verifican el ciclo original en el diagrama de trabajo, cada uno operando con una cantidad muy pequeña de calor.

Al escribir la ecuación de Carnot para todos ellos y sumar los términos, los términos adyacentes se cancelan entre sí y nos queda la suma de los términos que corresponden a elementos de límite de la curva que representan solo el ciclo general:

s Q s T s s Q s T s

con elementos isotérmicos y adiabáticos s s .

Pasamos de esta suma al ciclo integral en el espacio termodinámico de los estados X X :

Γ J T d X = 0 Γ J T re X = 0 0

dónde J J es tal función de X X y Γ Γ esa integral sobre segmento de Γ Γ (vamos a llamarlo Δ Γ Δ Γ ) Δ Γ J d X Δ Γ J re X es el calor aceptado por el sistema cuando cambia de estado a lo largo de la curva Δ Γ Δ Γ .

La última ecuación se puede expresar en palabras de esta manera: la integral de línea de J / T J / / T a lo largo de la curva cerrada Γ Γ en el espacio de estados de equilibrio termodinámico X X siempre es cero.

Se deduce que la integral

X F X yo J d X X yo X F J re X

(igual al calor aceptado por el sistema) depende de la ruta elegida para conectar los estados de equilibrio termodinámico X yo X yo y X F X F , pero la integral

X F X yo J T d X X yo X F J T re X

no depende de ello; solo depende de esos dos estados. Esto nos permite definir la función en el espacio de estados de equilibrio.

S ( X F ) = S ( X yo ) + X F X yo J d X T , S ( X F ) = S ( X yo ) + X yo X F J re X T ,
dónde S ( X yo ) S ( X yo ) es el valor de la función para el estado de referencia X yo X yo , elegido por convención. No importa qué camino se elija para conectarse X yo X yo y X F X F ; valor de S S solo depende del punto final X F X F .

Esta función se llama entropía. Desafortunadamente, no hay nada intuitivo al respecto en termodinámica; Es solo una definición útil.

La pregunta se basa en el razonamiento de que "S aumenta cuando se agrega Q, y T aumenta cuando se agrega Q, por lo que S debe aumentar si T aumenta". El problema es que T es energía cinética por partícula, mientras que Q es energía interna agregada a todo el sistema menos el trabajo realizado. T es una propiedad intensiva, mientras que S y Q son propiedades extensivas. Es cierto que para cada partícula en un sistema dado S ~ ln (T) + c y que S ~ ln (Q) + c (que muestro a continuación). Creo que el problema central es que la pregunta combina Q en todo el sistema con una T. por partícula

Para ser precisos al explicar cómo T y Q son diferentes cuando se considera un sistema completo: para elevar T sin elevar Q, tendría que reducir el número de partículas que transportan la energía. La energía de las partículas eliminadas se agregaría a las restantes. Esto daría como resultado una entropía más baja porque aunque el número de estados por partícula aumenta, el número de partículas disminuye (el N reducido domina en los gases: S ~ N [a ln (T) + b - c ln (N)]. Pero para aumentar Q sin aumentar T, tendrías que agregar partículas que aumentan la entropía.

Por cierto, la fórmula original debe tener dQ en lugar de Q, por lo que debe tener dS = dQ / T. Pero en cualquier caso, es obvio a partir de la ecuación que a una T más alta habrá un aumento menor de dS para una cantidad dada de Q agregada.

A continuación detallaré la relación entre Q y S, y luego T y S, para un sistema dado, mostrando que tienen el mismo efecto en S para un sistema fijo dado, pero solo si no se mezclan T y Q ". ~ "significará proporcional, no aproximadamente. Mis declaraciones deben ser exactas, pero hay mucho oculto en las proporcionalidades porque aprovecha log (x ^ c) = c log (x).

Al observar la ecuación de Sackur-Tetrode para un gas ideal de partículas de N en un cuadro dado veo:
S ~ ln (estados por partícula) + constante
nota: los "estados por partícula" no cambian de manera simple si N cambia.
estados por partícula ~ momento p por partícula
impulso por partícula ~ SQRT (2 m (KE) por partícula)
KE por partícula ~ Temperatura, energía interna y calor por partícula (por encima del cero absoluto) pero aproximándose a un ideal poco realista de que la capacidad de calor no cambia con la temperatura.
ln (x ^ 0.5) ~ ln (x)

Entonces, para un gas dado en una caja dada
S ~ ln (T) + constante
o
S ~ ln (Q) + constante

Entonces, esto es lo que sucede en una T y una 2 x T:
S ~ ln (Q 0 + Q 1 ) + constante
versos
S ~ ln (2Q 0 + Q 1 ) + constante

Ejemplo: Q 0 = Q 1 = 2
T bajo tiene un aumento fraccional de S con Q 1 agregado de (1.38 + c) / (0.69 + c)
2x T tiene un aumento fraccional de S con Q1 agregado de (1.79 + c) / (1.38 + c)

Podría reemplazar las Q con T, por lo que la pregunta original tiene alguna razón, pero no puedo mezclar y combinar las T y Q como lo hace la pregunta.

Me parece que la pregunta aquí se relaciona directamente con la definición de temperatura, y daré una versión corta de la misma. Para simplificar, consideremos un sistema generado por dos subsistemas, A y B, en contacto térmico (lo que significa que solo intercambian energía en forma de calor).

Déjame decirte eso, porque UN UN y si si en equilibrio térmico, la entropía S UN S UN y S si S si para cada subsistema respectivo depende de la energía exactamente de la misma manera. Esta afirmación solo refleja la condición de equilibrio térmico. Además, considere esta afirmación en términos más matemáticos

d S UN d E = d S si d E re S UN re mi = re S si re mi
es decir, que cuando una cantidad de energía infinitesimal d E re mi se negocia entre subsistemas UN UN y si si tal que S UN S UN cambios, entonces el cambio correspondiente en S si S si compensa exactamente esto. La observación que se debe hacer es que la cantidad d S / d E re S / / re mi nos da una medida de cuán benigno es un sistema para aceptar un cambio de energía por medios térmicos. De esto definimos temperatura como
d S d E 1 T re S re mi 1 T
y podemos ver eso para temperaturas T 1 < T 2 T 1 < T 2 , el cambio en la entropía es mayor cuando se intercambia energía a T 1 T 1 en comparación con T 2 T 2 .

Editar: La intuición está en comprender la definición. Aunque, admitiré que todavía es bastante abstracto, ya que contiene dos conceptos abstractos como energía y entropía. Esto puede afirmarse de manera algo diferente si miramos más de cerca la definición de entropía. Para un sistema dado, la entropía se define como el logaritmo del número de microestados accesibles sol sol con algo de energía mi mi

S ln ( g ( E ) ) S En ( sol ( mi ) )
es decir, sol ( E ) sol ( mi ) cuenta el número de microestados accesibles para una determinada energía E. Esto sol sol puede depender de varios factores, por supuesto (volumen, por ejemplo). Considerando nuevamente la definición y no hablando explícitamente en términos de entropía; démosle energía a un sistema δ mi δ mi a través del contacto térmico y nos damos cuenta de que para una temperatura baja del sistema, el número de estados cuánticos accesibles sol ( E ) sol ( mi ) aumentar en mayor medida que cuando el sistema tiene una temperatura más alta. Como tal, la intuición es que '' desbloqueamos '' más microestados para un sistema a baja temperatura que a una temperatura más alta con cierta cantidad de energía δ mi δ mi . Esto es relativamente hablando, ya que a bajas temperaturas el sistema tiene poca energía y, por lo tanto, pocos microestados accesibles para estar, de modo que una energía δ mi δ mi para el sistema aumentará el número de estados accesibles en mayor medida que a altas temperaturas, es decir, el impacto de δ mi δ mi en sol ( E ) sol ( mi ) depende del número de nuevos estados que pone a disposición en comparación con el número que ya estaba disponible.

Esta es una buena derivación de la definición de temperatura, pero estoy seguro de cómo esto agrega intuición al problema de la disminución de la temperatura. T T llevando a más alto Δ S Δ S .
@KyleKanos Muy bien, tendré que estar de acuerdo. Todo el trato se puede dar más luz. Mira mi edición.

En mi curso de mecánica estadística el año pasado, dedujimos que S 1 T S 1 T de las siguientes consideraciones:

Considere dos cajas (cada una con norte yo norte yo partículas V yo V yo volumen, U yo U yo energía interna, y T yo T yo temperatura, donde i = 1 , 2 yo = 1 , 2 ) separados por una pared a través de la cual pueden intercambiar energía (calor).

Claramente Ω yo U yo Ω yo U yo y Ω yo U - 1 3 - i Ω yo U 3 - yo - 1 cuando la energía total, U 0 0 = U 1 + U 2 U 0 0 = U 1 + U 2 , es fijo, donde Ω yo Ω yo es el número de estados del sistema yo yo .

La primera ley de la termodinámica dice que, en equilibrio, T 1 = T 2 T 1 = T 2 . La segunda ley dice que si T 1 < T 2 T 1 < T 2 , luego el calor pasa del sistema 2 al sistema 1, lo que significa que U 1 < U eq 1 U 1 < U 1 eq , dónde U eq yo U yo eq es la energía interna del sistema yo yo cuando los dos sistemas están en equilibrio entre sí.

En equilibrio, la entropía ( S = k si En Ω S = k si En Ω ) está maximizado.

Expandamos ahora la entropía total de los dos sistemas, S T S T :

S T ( U 1 ) S 1 ( U eq 1 ) + S 1 U 1 U eq 1 ( U 1 - U eq 1 ) + S 2 ( U 0 0 - U eq 1 ) + S 2 U 1 U eq 1 ( U 1 - U eq 1 ) S T ( U 1 ) S 1 ( U 1 eq ) + S 1 U 1 El | U 1 eq ( U 1 - U 1 eq ) + S 2 ( U 0 0 - U 1 eq ) + S 2 U 1 El | U 1 eq ( U 1 - U 1 eq )
S T ( U eq 1 ) + ( S 1 ( U 1 ) U 1 + S 2 ( U 0 0 - U 1 ) U 1 ) U eq 1 ( U 1 - U eq 1 ) S T ( U 1 eq ) + ( S 1 ( U 1 ) U 1 + S 2 ( U 0 0 - U 1 ) U 1 ) El | U 1 eq ( U 1 - U 1 eq )
De la declaración anterior sobre el equilibrio maximizando la entropía,
S T U 1 U eq 1 = 0 = ( S 1 ( U 1 ) U 1 + S 2 ( U 0 0 - U 1 ) U 1 ) U eq 1 S T U 1 El | U 1 eq = 0 0 = ( S 1 ( U 1 ) U 1 + S 2 ( U 0 0 - U 1 ) U 1 ) El | U 1 eq
Considere eso
U 0 0 = U 1 + U 2       0 = d U 1 + d U 2       re U 1 = - d U 2 U 0 0 = U 1 + U 2 0 0 = re U 1 + re U 2 re U 1 = - re U 2
Entonces
0 = re S 1 ( U 1 ) re U 1 U eq 1 - re S 2 ( U 2 ) re U 2 U 0 0 - U eq 1 0 0 = re S 1 ( U 1 ) re U 1 El | U 1 eq - re S 2 ( U 2 ) re U 2 El | U 0 0 - U 1 eq
En este punto, puede parecer razonable suponer que T = d S re U T = re S re U (que no es) Como un cheque, vamos a expandir sobre U ~ 1 < U eq 1 U ~ 1 < U 1 eq :
S T ( U 1 ) S T ( U ~ 1 ) + ( S 1 U 1 + S 2 U 1 ) U ~ 1 ( U 1 - U ~ 1 ) S T ( U 1 ) S T ( U ~ 1 ) + ( S 1 U 1 + S 2 U 1 ) El | U ~ 1 ( U 1 - U ~ 1 )
   re S T re U 1 = re S 1 re U 1 U ~ 1 - re S 2 re U 2 U 0 0 - U ~ 1 > 0 re S T re U 1 = re S 1 re U 1 El | U ~ 1 - re S 2 re U 2 El | U 0 0 - U ~ 1 > 0 0
Pero esto implica que T 1 - T 2 > 0 T 1 - T 2 > 0 0 , y ese calor fluye de frío a calor, en violación de la segunda ley. Para hacer que nuestra definición de temperatura se ajuste a la segunda ley, por lo tanto, necesitamos
1 T = d S re U       re U = T re S 1 T = re S re U re U = T re S

La entropía se define en mi libro como ΔS = Q / T.

Esto ya no es correcto. En general,

δ S δ Q / T . δ S δ Q / / T .

En el caso específico donde el sistema que se está calentando está siempre en equilibrio térmico, entonces

δ S = δ Q / T δ S = δ Q / / T
Entonces, claramente, δ S = δ Q / T δ S = δ Q / / T No se puede tomar como la definición de entropía.

La definición de entropía es [Ver Landau y Lifshitz "Física estadística" (2ª edición) Ecuación 7.7]:

S = log ( Δ Γ ) , S = Iniciar sesión ( Δ Γ ) ,
dónde Δ Γ Δ Γ es el peso estadístico del subsistema, que se define de la siguiente manera: si w norte = w ( E norte ) w norte = w ( mi norte ) es la probabilidad de encontrar el sistema en estado cuántico norte norte luego w ( E ¯ ) Δ Γ 1 w ( mi ¯ ) Δ Γ 1 , dónde mi ¯ mi ¯ es la energía más probable del sistema (que es la misma que la energía interna macroscópica de la termodinámica ya que las fluctuaciones son insignificantes). Para decirlo de otra manera, Δ Γ Δ Γ es el número de estados dentro Δ E Δ mi de mi ¯ mi ¯ (dónde Δ E Δ mi Se define como: Δ E Δ mi veces la distribución de la probabilidad de energía en mi ¯ mi ¯ es igual a 1).

Podemos reescribir la entropía más explícitamente en función de mi ¯ mi ¯ como:

S = - registro ( w ( E ¯ ) ) . S = - Iniciar sesión ( w ( mi ¯ ) ) .

(Como comentario aparte, resulta que el registro de w w tiene que ser lineal en mi mi así que eso

S = - registro ( w ( E ¯ ) ) = - norte w norte Iniciar sesión ( w norte ) , S = - Iniciar sesión ( w ( mi ¯ ) ) = - norte w norte Iniciar sesión ( w norte ) ,
que es otra definición frecuente de entropía).

Pero, de todos modos, desde S S es una función de mi ¯ mi ¯ , podemos tomar la derivada de S S con respecto a mi ¯ mi ¯ . Esta derivada se define como la temperatura inversa:

re S re mi ¯ 1 T re S re mi ¯ 1 T
La derivada anterior se toma a un volumen fijo del sistema, por lo que esto dice que δ S = δ Q / T δ S = δ Q / / T ... puedo explicar eso un poco más abajo:

Una forma de cambiar la energía del sistema es realizar trabajos en el sistema. Por lo general, en termodinámica, esto ocurre al comprimir o expandir el volumen del sistema (aunque no tiene que suceder así). Si el sistema no está aislado térmicamente, hay otra forma de cambiar la energía del sistema, que se llama calor. El calor es una transferencia directa de energía hacia / desde otros sistemas en contacto térmico con el sistema. Calor y trabajo. Trabajo y calor. Así es como cambiamos la energía del sistema. Es decir,

δ mi = δ W + δ Q δ mi = δ W + δ Q
Si el sistema de interés está siempre en equilibrio térmico durante todo el proceso durante el cual la energía es cambiada por el calor y el trabajo, entonces, desde la definición de temperatura, sabemos que
δ mi = δ W + T δ S δ mi = δ W + T δ S
Es decir, δ Q = T δ S δ Q = T δ S sostiene.

De todos modos, hemos llegado a Δ S = Q / T Δ S = Q / / T definiendo T T como

re S re mi ¯ 1 T , re S re mi ¯ 1 T ,
pero ¿por qué definir el lado derecho como el inverso de la temperatura, por qué no definirlo como el inverso del cuadrado de la temperatura? Una respuesta es que si hace alguna otra definición, no terminará con las leyes termodinámicas conocidas habituales, como PAG V = N k T PAG V = norte k T Y qué no. ¿Pero esta definición coincide con mi sentido intuitivo de temperatura? Estoy seguro de que estás preguntando ... Bueno, no, no es así. Para que funcione con tu sentido intuitivo, necesitas la constante de Boltzmann k k y hacer las sustituciones T k T T k T y S S / k S S / / k . ¡¿Entonces ahora jive ?! Bueno, eso depende de cuál fue su sentido intuitivo de temperatura para empezar. Si piensa en esto, probablemente se dará cuenta de que los humanos probablemente comencemos con una sensación intuitiva de calor y frío y la sensación de que el calor fluye de calor a frío (pero no una sensación intuitiva de temperatura ). Más tarde asociamos la temperatura con la expansión de mercurio en termómetros y otras cosas. Y la definición anterior de temperatura describe adecuadamente la expansión del mercurio en los termómetros, así como describe adecuadamente la ley de los gases ideales y así sucesivamente ... Entonces, sí, esta definición coincide con esa simple sensación intuitiva de temperatura, solo que es mucho más nítida Y más útil.

PD La mayoría de las ecuaciones usan la notación de Landau y Lifshitz. Para obtener más información en este sentido, lea los capítulos uno y dos de su "Física estadística".

Una explicación simple: sabemos que el calor viaja desde un cuerpo o sistema que tiene una temperatura más alta a un cuerpo o sistema más frío que tiene una temperatura más baja. Además, la entropía es directamente proporcional al calor. Por lo tanto, la entropía disminuye en el primer cuerpo (cuerpo de temperatura más alta) y aumenta en el último cuerpo (cuerpo de temperatura más baja). Esto explica la siguiente noción: "El calor agregado a un sistema a una temperatura más baja causa un mayor aumento de entropía que el calor agregado al mismo sistema a una temperatura más alta".