¿Por qué la entropía es una cantidad extensiva?

Si tenemos dos sistemas macroscópicos aislados idénticos ambos con energía mi . El número de estados accesibles de cada uno de ellos es Ω ( mi ) y por lo tanto la entropía es en Ω ( mi ) . Ahora bien, si los ponemos en contacto térmico para formar un sistema aislado más grande con energía 2 mi (supongamos que hay interacción débil). Entonces el número de estados accesibles de todo el sistema es

X Ω ( X ) Ω ( 2 mi X )
pero no solo
Ω ( mi ) Ω ( mi )

Entonces la entropía total es

en X Ω ( X ) Ω ( 2 mi X )

pero no solo

en [ Ω ( mi ) Ω ( mi ) ] = en Ω ( mi ) + en Ω ( mi ) = S 1 + S 2
.

Entonces, ¿por qué decimos que la entropía es extensiva?

Ω ( mi ) Ω ( mi ) es el caso cuando los dos sistemas no están interactuando. Piensa en eso.
Como ha descubierto, la entropía NO es extensa en el conjunto microcanónico. Ni siquiera en el caso de no interactuar. Considere que si vuelve a separar los sistemas, tienen incertidumbre en la energía con la que no tenían al principio.
En contraste, la entropía es perfectamente extensiva en un conjunto canónico (en el caso de no interacción) siempre que no permita el intercambio de partículas entre los sistemas. Si lo permite, entonces deberá pasar al gran conjunto canónico para encontrar su extensividad.
¡Buena pregunta! ¡Me parece bastante intensivo!

Respuestas (4)

Creo que hay un malentendido. Tiene toda la razón cuando escribe que la entropía microcanónica total de un sistema combinado será

S conjunto ( 2 mi ) = k B en X Ω ( X ) Ω ( 2 mi X )

La entropía micro canónica debería ser una función solo de la energía total, la cantidad total de materia y el volumen total de un sistema y la fórmula que proporcionó cumple estos requisitos.

También tiene que ser extensivo en el límite termodinámico , lo que significa que tiene que aproximarse a una función Euleriana de grado 1, es decir , tal que para sistemas de gran tamaño tengamos S conjunto ( 2 mi ) 2 S ( mi ) .

Esto se puede demostrar observando que Ω ( X ) = mi S ( X ) / k B . Si además suponemos que S ( X ) norte s ( X ) en el límite termodinámico (donde s ( X ) O ( 1 ) ) entonces:

S conjunto ( 2 mi ) k B en X mi norte s ( X ) / k B mi norte s ( 2 mi X ) / k B
Ahora porque norte virtualmente tiende a infinito, la suma estará abrumadoramente dominada por su valor más probable que llamamos X (en virtud del teorema del punto silla). Si los dos subsistemas son iguales, la única posibilidad es que X = mi y obtenemos:
S conjunto ( 2 mi ) k B en mi norte s ( X ) / k B mi norte s ( 2 mi X ) / k B 2 S ( mi )
Este no es un resultado exacto para cualquier tamaño de sistema finito. Puede verlo como un resultado exacto en el límite termodinámico ideal o como un resultado aproximado para sistemas de tamaños finitos.

Las personas que realizan simulaciones numéricas en mecánica estadística (con un número finito de objetos simulados) tienen que preocuparse por este aspecto todo el tiempo.

Edición importante: en la respuesta de @gatsu, se señala que solo debería importar la cantidad de energía, lo cual es correcto, ya que no existen microestados distinguibles con solo energía reorganizada (piense en cálculos de entropía tipo barras y estrellas). Entonces, eliminé esa parte del primer párrafo y las ecuaciones (en el primer borrador, eliminé esa parte de la ecuación a la mitad sin darme cuenta de que hacerlo invalidaba mi respuesta).

La entropía combinada de sistemas idénticos en contacto térmico viene dada por

X Ω ( X ) Ω ( 2 mi X ) .
Pero, para grandes mi , esto alcanza su punto máximo en X = mi , por lo que los otros términos no importan.
S total = registro X Ω ( X ) Ω ( 2 mi X ) registro Ω ( mi ) Ω ( mi ) = 2 registro Ω ( mi ) = 2 S


Apéndice:

Lo anterior es más una demostración de que la entropía es una propiedad extensiva, no una propiedad aditiva (como se preguntó originalmente). De hecho, si los sistemas A y B no son idénticos, entonces la entropía total será mayor que S A + S B en general debido a la interacción. Esta es otra afirmación de la Segunda Ley de la Termodinámica.


Anexo 2:

Me han pedido que deje de ser tan físico y ponga un poco de rigor en mis matemáticas. Específicamente, es el valor pico de la entropía combinada dada por

X Ω ( X ) Ω ( 2 mi X )
suficientemente prominente como para ignorar todos los demás términos? Dado que cualquier ejemplo no trivial de Ω ( X ) evitaría un resultado analítico, solo consideraré el más fácil
X ( 2 mi X ) = 2 2 mi
(sí, todavía un físico).

Usando la aproximación de Stirling,

registro ( 2 mi mi ) = registro ( 2 mi ) ! ( mi ! ) 2 2 mi registro ( 2 mi ) 2 mi 2 ( mi registro mi mi ) = 2 mi registro 2 + 2 mi registro mi 2 mi 2 mi registro mi + 2 mi = 2 mi registro 2
Y por lo tanto,
( 2 mi mi ) mi 2 mi registro 2 = 2 2 mi
Que es lo que encontramos al principio de este apéndice. Desde Ω ( X ) Ω ( 2 mi X ) tiene un pico similar en X = mi , el resultado aún debería mantenerse.


Anexo 3:

Espera, probemos un ejemplo de entropía algo real: cada sistema está hecho de norte Partículas que comparten X cuantos de energía. La entropía, después del análisis estándar de estrellas y barras, está dada por

S = registro Ω ( X ) = registro ( norte + X 1 ) ! X ! ( norte 1 ) !
La entropía combinada está dada por
S t o t a yo = registro X = 0 2 mi Ω ( X ) Ω ( 2 mi X ) = registro X = 0 2 mi [ ( norte + X 1 ) ! X ! ( norte 1 ) ! ( norte + 2 mi X 1 ) ! ( 2 mi X ) ! ( norte 1 ) ! ] = registro ( 2 mi + 2 norte 1 ) ! ( 2 mi ) ! ( 2 norte 1 ) ! (cortesía de Wolfram Alpha) ( 2 mi + 2 norte 1 ) registro ( 2 mi + 2 norte 1 ) ( 2 mi + 2 norte 1 ) 2 mi registro 2 mi + 2 mi ( 2 norte 1 ) registro ( 2 norte 1 ) + ( 2 norte 1 ) 2 mi registro ( 1 + norte mi ) + 2 norte registro ( 1 + mi norte )

Ahora, el término más grande en esa suma es cuando X = mi :

S t o t a yo registro ( Ω ( mi ) 2 ) = 2 registro ( ( norte + mi 1 ) ! mi ! ( norte 1 ) ! ) = 2 ( ( norte + mi 1 ) registro ( norte + mi 1 ) ( norte + mi 1 ) mi registro mi + mi ( norte 1 ) registro ( norte 1 ) + ( norte 1 ) 2 mi registro ( 1 + norte mi ) + 2 norte registro ( 1 + mi norte )
que es igual a la suma total.

"Para E grande, esto tiene un pico pronunciado en x=E, por lo que los otros términos no importan". ¿Puede proporcionar matemáticas rigurosas?

Entonces, ¿por qué decimos que la entropía es extensiva?

Es una convención que es posible y útil para sistemas que interactúan débilmente. Multiplicidad de estado del sistema formado por dos sistemas del mismo tipo, tamaño y energía. mi es

Ω ( 2 mi ) = Ω ( mi ) Ω ( mi )

con muy buena precisión, los otros términos en la suma sobre X usted indicó puede ser despreciado. La entropía se puede definir como registro Ω y luego es extenso: cuanto más alto, mayor es el número de partículas en el sistema.

Para sistemas que interactúan fuertemente o sistemas con un número muy bajo de partículas, los otros términos en la suma de la multiplicidad total no son despreciables y la física estadística no es aplicable de esta manera.

Argumentos heurísticos adicionales.

En equilibrio térmico, cada subsistema asume un valor que maximiza la probabilidad, digamos con energía tu (con fluctuación que desaparece en el límite termodinámico)

S 1 = en Ω 1 ( tu ) , S 2 = en Ω 2 ( mi tu )

El sistema compuesto es una suma de valores de energía.

S C = en { X = 0 mi Ω 1 ( X ) Ω 2 ( mi X ) }

Esta suma es mayor que su término más grande, pero menor que el término máximo multiplicado por el número de términos (digamos mi / d mi )

Ω 1 ( tu ) Ω 2 ( mi tu ) X = 0 mi Ω 1 ( X ) Ω 2 ( mi X ) mi d mi Ω 1 ( tu ) Ω 2 ( mi tu )

Tomando los logaritmos, tenemos

S 1 + S 2 S C S 1 + S 2 + en mi en d mi

Los dos últimos términos son de orden en norte , donde como otros son de orden norte ; por lo tanto, en el límite termodinámico, tenemos la aditividad estricta de la entropía

S C S 1 + S 2

Véase Silvio Salinas (2001), Introducción a la física estadística .