¿Por qué S=kBlnWS=kBln⁡WS = k_B \ln W no siempre se aplica?

Durante mucho tiempo pensé que la fórmula de Boltzmann para la entropía, S = k B en W , era una declaración universalmente verdadera, o más bien la definición de entropía desde la perspectiva de la mecánica estadística. Sin embargo, desde entonces he llegado a comprender que solo es aplicable para un sistema aislado (es decir, el conjunto microcanónico) para el cual todos los microestados del sistema son igualmente probables. La declaración más general es la entropía de Gibbs

S = k B i PAGS i en PAGS i .

Sin embargo, he visto una derivación de la fórmula de Boltzmann tal que no puedo ver por qué dicha fórmula no siempre se aplica. Esperaba que alguien pudiera señalar el error en el siguiente razonamiento.

De la termodinámica clásica sabemos que

T = ( tu S ) V .

Ahora consideremos dos sistemas en contacto térmico, a los que se les permite intercambiar energía. Si suponemos que todos los microestados del sistema conjunto son igualmente probables, argumentamos que se alcanzará el equilibrio para una división de energía que maximice el número de posibles microestados correspondientes. Entonces tenemos

d d mi 1 ( W 1 ( mi 1 ) W 2 ( mi 2 ) ) = 0 .

Trabajando con esto, llegamos a la condición de que

d en W 1 ( mi 1 ) mi 1 = d en W 2 ( mi 2 ) mi 2 ,

pero como el equilibrio corresponde a temperaturas iguales, hacemos la definición natural de que

1 k B T = d en W ( mi ) d mi ,
donde elegimos esta forma particular de la expresión de la izquierda ya que da como resultado que la energía fluya en la dirección correcta (caliente a fría) para dos sistemas con temperaturas muy similares.

Poniendo esto junto con el resultado anterior, identificando tu = mi , debemos tener eso

S = k B en W .

Pregunta: ¿En qué parte de este argumento he cometido suposiciones o errores, de modo que esta fórmula se aplica solo a una clase específica de sistemas? ¿Por qué no puedo usar esta fórmula para determinar la entropía de (digamos) uno de los dos sistemas que puse en contacto térmico (en la discusión anterior sobre la temperatura)? ¿Por qué la fórmula de Gibbs es la correcta para los sistemas que pueden intercambiar energía? También usamos, creo, esta definición de temperatura en la derivación de la distribución canónica/Boltzmann (ver, por ejemplo , aquí ), y sin embargo, en este caso, el reservorio no es un sistema aislado, por lo que habría pensado que esta expresión no sería aplicar. Gracias.

Respuestas (3)

El problema con la definición de Boltzmann es, como ha demostrado claramente, que su utilidad depende de la suposición de que su sistema está en equilibrio con su entorno. Sin asumir primero el equilibrio y luego establecer las temperaturas como iguales, no se puede demostrar que la entropía de Boltzmann satisface la Primera Ley y, por lo tanto, definirla significativamente como la entropía. Sin embargo, la entropía de Gibbs todavía proporciona una definición significativa porque, por ejemplo, es posible relacionarla con la función de partición a través de

S k B s PAGS s en PAGS s = k B ( en Z + β en Z β ) = T ( k B T en Z )

y por lo tanto usarlo para calcular otras variables como la energía libre de Helmholtz.

Además, estás asumiendo que W es lo suficientemente grande para aproximarse como una cantidad continua. W es sin embargo un número entero y la cantidad d en W no está bien definido en un sistema con un pequeño número de microestados. Por lo tanto, la justificación que ha proporcionado aquí se rompería. Este problema nunca surge si se parte de la definición de la entropía de Gibbs y se trabaja a partir de ahí.

Pregunta: ¿En qué parte de este argumento he cometido suposiciones o errores, de modo que esta fórmula se aplica solo a una clase específica de sistemas?

La única suposición que se hace es que los dos sistemas conectados interactúan débilmente, de modo que cuando el primer sistema tiene una energía promedio alrededor mi 1 , el macroestado del sistema conjunto tiene volumen de fase W 1 ( mi 1 ) W ( mi mi 1 ) . Creo que esto está justificado para todos los sistemas de la termodinámica clásica. Si los sistemas interactuaron fuertemente y la energía no fue una función homogénea del número de partículas y el volumen, el volumen de la fase puede no estar dado por dicha fórmula.

¿Por qué no puedo usar esta fórmula para determinar la entropía de (digamos) uno de los dos sistemas que puse en contacto térmico (en la discusión anterior sobre la temperatura)?

Puedes; incluso si el subsistema 1 interactúa con 2 y su energía mi 1 varía en principio, para sistemas macroscópicos esta variación es insignificante y solo el valor promedio tu 1 = mi 1 es importante para la entropía. Se puede tratar el subsistema como si fuera un sistema aislado del mismo volumen y energía dado por mi 1 = tu 1 .

¿Por qué la fórmula de Gibbs es la correcta para los sistemas que pueden intercambiar energía?

La fórmula de Gibbs no es la fórmula "correcta" para la entropía. Más bien, el punto de la fórmula de Gibbs es que es un funcional de la distribución de probabilidad pags k , con la importante propiedad de que el valor máximo posible de este funcional para un sistema con energía media prescrita tu 1 da entropía a esta energía media; numéricamente, k B en W 1 ( mi 1 ) y máximo k ϵ k pags k = tu 1 { k B k pags k en pags k } son iguales para sistemas densos de estados contables k ( ϵ k es energía del estado k .)

La entropía definida por Boltzmann se puede aplicar en sistemas con energía fluctuante. El único requisito es la definición precisa de Δ Γ , el número de microestado dentro del macroestado. Cuando el tiempo es muy largo, la distribución de probabilidad en el espacio de fase tiende a ser constante en todos los puntos permitidos. Esto justifica el conjunto microcanónico.

Si la energía fluctúa, necesita una suposición adicional: el sistema debe ser grande y estar lejos de los puntos críticos. Entonces, la fluctuación de una cantidad extensiva como la energía mi va como norte , y la expectativa Δ mi me gusta norte , cuando el número de subsistemas norte es grande. Esto significa que la distribución de probabilidad en energía es muy estrecha ( Δ mi mi ¯ ).

La última suposición significa que la distribución de probabilidad en energía es aproximadamente constante en mi ¯ con ancho Δ mi y luego cero cada were. Entonces, podemos definir Δ Γ como:

Δ Γ = d Γ ( mi ¯ ) d mi Δ mi

dónde Γ ( mi ) es el número de estados por debajo de la energía mi , y \frac{d \Gamma (E)}{dE} la densidad de estados.

Entonces puedes definir la entropía como k B en ( Δ Γ ) . Tenga en cuenta que la entropía no depende de la forma precisa de la distribución de probabilidad. Cuando no puede hacer estas aproximaciones, significa que la entropía depende en gran medida de la forma de la distribución de probabilidad.