Si tenemos dos sistemas macroscópicos aislados idénticos ambos con energía . El número de estados accesibles de cada uno de ellos es y por lo tanto la entropía es . Ahora bien, si los ponemos en contacto térmico para formar un sistema aislado más grande con energía 2 (supongamos que hay interacción débil). Entonces el número de estados accesibles de todo el sistema es
Entonces la entropía total es
pero no solo
Entonces, ¿por qué decimos que la entropía es extensiva?
Creo que hay un malentendido. Tiene toda la razón cuando escribe que la entropía microcanónica total de un sistema combinado será
La entropía micro canónica debería ser una función solo de la energía total, la cantidad total de materia y el volumen total de un sistema y la fórmula que proporcionó cumple estos requisitos.
También tiene que ser extensivo en el límite termodinámico , lo que significa que tiene que aproximarse a una función Euleriana de grado 1, es decir , tal que para sistemas de gran tamaño tengamos .
Esto se puede demostrar observando que . Si además suponemos que en el límite termodinámico (donde ) entonces:
Las personas que realizan simulaciones numéricas en mecánica estadística (con un número finito de objetos simulados) tienen que preocuparse por este aspecto todo el tiempo.
Edición importante: en la respuesta de @gatsu, se señala que solo debería importar la cantidad de energía, lo cual es correcto, ya que no existen microestados distinguibles con solo energía reorganizada (piense en cálculos de entropía tipo barras y estrellas). Entonces, eliminé esa parte del primer párrafo y las ecuaciones (en el primer borrador, eliminé esa parte de la ecuación a la mitad sin darme cuenta de que hacerlo invalidaba mi respuesta).
La entropía combinada de sistemas idénticos en contacto térmico viene dada por
Apéndice:
Lo anterior es más una demostración de que la entropía es una propiedad extensiva, no una propiedad aditiva (como se preguntó originalmente). De hecho, si los sistemas y no son idénticos, entonces la entropía total será mayor que en general debido a la interacción. Esta es otra afirmación de la Segunda Ley de la Termodinámica.
Anexo 2:
Me han pedido que deje de ser tan físico y ponga un poco de rigor en mis matemáticas. Específicamente, es el valor pico de la entropía combinada dada por
Usando la aproximación de Stirling,
Anexo 3:
Espera, probemos un ejemplo de entropía algo real: cada sistema está hecho de Partículas que comparten cuantos de energía. La entropía, después del análisis estándar de estrellas y barras, está dada por
Ahora, el término más grande en esa suma es cuando :
Entonces, ¿por qué decimos que la entropía es extensiva?
Es una convención que es posible y útil para sistemas que interactúan débilmente. Multiplicidad de estado del sistema formado por dos sistemas del mismo tipo, tamaño y energía. es
con muy buena precisión, los otros términos en la suma sobre usted indicó puede ser despreciado. La entropía se puede definir como y luego es extenso: cuanto más alto, mayor es el número de partículas en el sistema.
Para sistemas que interactúan fuertemente o sistemas con un número muy bajo de partículas, los otros términos en la suma de la multiplicidad total no son despreciables y la física estadística no es aplicable de esta manera.
Argumentos heurísticos adicionales.
En equilibrio térmico, cada subsistema asume un valor que maximiza la probabilidad, digamos con energía (con fluctuación que desaparece en el límite termodinámico)
El sistema compuesto es una suma de valores de energía.
Esta suma es mayor que su término más grande, pero menor que el término máximo multiplicado por el número de términos (digamos )
Tomando los logaritmos, tenemos
Los dos últimos términos son de orden , donde como otros son de orden ; por lo tanto, en el límite termodinámico, tenemos la aditividad estricta de la entropía
Véase Silvio Salinas (2001), Introducción a la física estadística .
usuario36790
nanito
nanito
Deschele Schilder