La primera definición de entropía dada por Clausius es Creo que esto
¿Debe entenderse el significado físico de la entropía sólo en términos estadísticos como desorden debido al cambio en los pesos estadísticos? o mirando también a la termodinámica, pasar a una definición de entropía como dispersión de energía? En otras palabras, conciba el significado físico de la entropía como una dispersión de la energía dentro (o tal vez en algunos puntos hacia afuera) del sistema bajo consideración, donde la dispersión representa una distribución más amplia a través de las partes interiores del sistema (mecánica clásica o cuántica). ).
La entropía termodinámica no es una definición. Contrariamente a las repugnantes numerosas fuentes que afirman que lo es, la entropía NO es desorden. La entropía tampoco es una medida de cuánto sabemos sobre el sistema físico. En una oración, la entropía es una medida del número de microestados de energía distintos consistentes con la energía total y las restricciones físicas del sistema. Esta es una propiedad única de cada sistema que podría importarle menos a quién la mide (de hecho, no se puede medir, solo se pueden medir los cambios de entropía).
S=Q/T y S=klnΩ no se contradicen. Para comprender esto, primero debe comprender que S = Q / T no describe la entropía absoluta. Describe el cambio de entropía. Por ejemplo, cuando se extrae 1J de un bloque de piedra a 300K, la entropía de la piedra se reduce en S = Q/T = 1J/300K. (Estrictamente hablando, deberíamos usar dS = dQ/T, ya que la temperatura de la piedra puede cambiar. Para obtener el cambio total de S, necesitamos integrar todo el proceso de extracción de energía: S = ).
Ahora, microscópicamente, cuando extraes 1J de la piedra, se enfría un poco (temperatura más baja). A medida que la temperatura cambia la distribución de fonones (vibración de red en la piedra) (una distribución de Bose-Einstein ya que los fonones son bosones), los estados microscópicos disponibles para la vibración de red (Ω) se vuelven menores y la ecuación estadística le dará el mismo resultado de entropía reducida (o estrictamente, S = ).
En conclusión, la clave para reconciliar las dos ecuaciones es comprender el significado microscópico (estadístico) de la temperatura, mientras que clásicamente mide qué tan caliente está un objeto; microscópicamente describe la distribución de probabilidad de partículas (o cuasi-partículas como fonones).
No es un caso de uno u otro; es ambos/y.
Para aclarar, comparemos con otra cantidad: la energía interna. En términos termodinámicos, la energía interna es aquella cantidad que es función del estado y cuyo cambio entre estados (para un sistema cerrado) es igual al trabajo requerido para moverse entre esos estados bajo condiciones de aislamiento térmico. En términos microscópicos, la energía interna es la suma de las energías cinética y de campo de las partes del sistema. Estas dos definiciones no se contradicen entre sí y no ayuda a nuestro entendimiento afirmar que una de ellas es la correcta 'realmente' y la otra un mero parásito. Son declaraciones mutuamente consistentes sobre una propiedad física, las cuales aportan conocimiento e iluminación.
Ahora bien, para la entropía se pueden decir cosas similares. Puede definirlo como una función de estado cuyo cambio entre estados (para un sistema cerrado) es igual a la integral de si el cambio se logra de manera reversible. También puede definir la entropía como o como . Las definiciones estadísticas requieren una cierta comprensión de lo que estamos contando por el índice y las probabilidades , y lo que entendemos por un conjunto de microestados y restricciones. Pero los enunciados estadísticos y termodinámicos no se contradicen entre sí (ni mucho menos), ni uno es el 'realmente' correcto y el otro un mero parásito o un pariente vergonzoso. Son declaraciones mutuamente consistentes sobre una propiedad física, las cuales aportan conocimiento e iluminación.
Constantino negro
Constantino negro
Constantino negro
Rococó
señor anderson