Entropía: ¿Desorden o dispersión de energía?

La primera definición de entropía dada por Clausius es Creo que esto

S = q / T
Según entiendo, es un hecho común comprender la entropía y quizás enseñarla a menudo como una medida de desorden a través de la definición estadística de Boltzmann o Gibbs (dependiendo del conjunto)
S = k en Ω
Mi pregunta dependiendo de la entropía, después de algunas búsquedas (mira A MODERN VIEW OF ENTROPY de Frank L. LAMBERT ) es esta:

¿Debe entenderse el significado físico de la entropía sólo en términos estadísticos como desorden debido al cambio en los pesos estadísticos? Ω , o mirando también a la termodinámica, pasar a una definición de entropía como dispersión de energía? En otras palabras, conciba el significado físico de la entropía como una dispersión de la energía dentro (o tal vez en algunos puntos hacia afuera) del sistema bajo consideración, donde la dispersión representa una distribución más amplia a través de las partes interiores del sistema (mecánica clásica o cuántica). ).

¿Puedo publicar una parte de algunos documentos o artículos que he leído para que mi pregunta sea más específica?
Estos son enlaces para obtener más información sobre el enfoque mencionado en la pregunta: esto es para energía como dispersión de energía khimiya.org/volume15/Entropia.pdf entropysite.oxy.edu/jung.pdf
¿Hay algún problema con esta pregunta?
Relacionado '¿El hecho de que haya dos definiciones matemáticas diferentes de entropía implica que hay dos tipos diferentes de entropía?' física.stackexchange.com/questions/519293/…

Respuestas (3)

La entropía termodinámica no es una definición. Contrariamente a las repugnantes numerosas fuentes que afirman que lo es, la entropía NO es desorden. La entropía tampoco es una medida de cuánto sabemos sobre el sistema físico. En una oración, la entropía es una medida del número de microestados de energía distintos consistentes con la energía total y las restricciones físicas del sistema. Esta es una propiedad única de cada sistema que podría importarle menos a quién la mide (de hecho, no se puede medir, solo se pueden medir los cambios de entropía).

"La entropía es una medida del número de microestados de energía distintos consistentes con la energía total y las restricciones físicas del sistema". Eso solo es cierto si la energía es la única cantidad restringida. De manera más general, la entropía es el conjunto de estados consistentes con todas las restricciones impuestas al sistema, incluidas la energía, el volumen, etc. (y la temperatura y la presión son los multiplicadores de Lagrange asociados con esas restricciones).
¿Y está bien definida la idea de un microestado?

S=Q/T y S=klnΩ no se contradicen. Para comprender esto, primero debe comprender que S = Q / T no describe la entropía absoluta. Describe el cambio de entropía. Por ejemplo, cuando se extrae 1J de un bloque de piedra a 300K, la entropía de la piedra se reduce en S = Q/T = 1J/300K. (Estrictamente hablando, deberíamos usar dS = dQ/T, ya que la temperatura de la piedra puede cambiar. Para obtener el cambio total de S, necesitamos integrar todo el proceso de extracción de energía: Δ S = d q / T ).

Ahora, microscópicamente, cuando extraes 1J de la piedra, se enfría un poco (temperatura más baja). A medida que la temperatura cambia la distribución de fonones (vibración de red en la piedra) (una distribución de Bose-Einstein ya que los fonones son bosones), los estados microscópicos disponibles para la vibración de red (Ω) se vuelven menores y la ecuación estadística S = k yo norte Ω le dará el mismo resultado de entropía reducida (o estrictamente, Δ S = d q / T = k en Ω a F t mi r k en Ω b mi F o r mi ).

En conclusión, la clave para reconciliar las dos ecuaciones es comprender el significado microscópico (estadístico) de la temperatura, mientras que clásicamente mide qué tan caliente está un objeto; microscópicamente describe la distribución de probabilidad de partículas (o cuasi-partículas como fonones).

No es un caso de uno u otro; es ambos/y.

Para aclarar, comparemos con otra cantidad: la energía interna. En términos termodinámicos, la energía interna es aquella cantidad que es función del estado y cuyo cambio entre estados (para un sistema cerrado) es igual al trabajo requerido para moverse entre esos estados bajo condiciones de aislamiento térmico. En términos microscópicos, la energía interna es la suma de las energías cinética y de campo de las partes del sistema. Estas dos definiciones no se contradicen entre sí y no ayuda a nuestro entendimiento afirmar que una de ellas es la correcta 'realmente' y la otra un mero parásito. Son declaraciones mutuamente consistentes sobre una propiedad física, las cuales aportan conocimiento e iluminación.

Ahora bien, para la entropía se pueden decir cosas similares. Puede definirlo como una función de estado cuyo cambio entre estados (para un sistema cerrado) es igual a la integral de d q / T si el cambio se logra de manera reversible. También puede definir la entropía como k B i pag i en pag i o como k B en Ω . Las definiciones estadísticas requieren una cierta comprensión de lo que estamos contando por el índice i y las probabilidades pag i , y lo que entendemos por un conjunto de microestados y restricciones. Pero los enunciados estadísticos y termodinámicos no se contradicen entre sí (ni mucho menos), ni uno es el 'realmente' correcto y el otro un mero parásito o un pariente vergonzoso. Son declaraciones mutuamente consistentes sobre una propiedad física, las cuales aportan conocimiento e iluminación.