Considere cómo se define matemáticamente la entropía en la termodinámica clásica:
en el cual representa un "elemento" de calor, transferido de una fuente clásica a un destino clásico (que son sustancias continuas clásicas ), para la temperatura tanto de la fuente clásica como de la clásica (lo que implica una forma reversible de transferencia de calor), y por el incremento de la variable conjugada a la temperatura . Tenga en cuenta que la fórmula no es una expresión implícita para la entropía.
Por el contrario, la definición matemática de entropía en la mecánica estadística es explícita:
en el cual representa la entropía estadística, es la constante de Bolzmann , y para el número de microestados (o configuraciones microscópicas).
¿Pueden estas dos expresiones estar conectadas de alguna manera matemática? No lo creo (por lo que la entropía clásica no se puede derivar de la entropía estadística) porque si ese fuera el caso, eso significaría que se compararon cantidades incompatibles entre sí, lo que por definición no se puede hacer con tales cantidades (aunque se dice que forma el puente entre los dos enfoques de la termodinámica).
O para decirlo de otra manera, si hay dos definiciones matemáticas diferentes de entropía, ¿no significa eso que hay dos tipos diferentes (con lo cual no me refiero a interpretaciones diferentes) de entropía, incluso si tienen la misma unidad? ¿Y no se puede decir lo mismo de, por ejemplo, las diferentes nociones (definiciones matemáticas) de fuerza gravitacional a la luz newtoniana y einsteiniana? ¿O, aún más general, entre diferentes nociones de cualquier cantidad en cualquiera de los dos enfoques teóricos diferentes de estas cantidades?
Edité debido a algunas adiciones que se hicieron en la respuesta (muy clara) a continuación. Allí se dice que los dos enfoques diferentes son de hecho equivalentes. Pero mi punto es si son realmente iguales.en efecto. Se dice que el enfoque estadístico es más fundamental de lo que se deduce el enfoque estadístico, que solo se puede utilizar en relación con las mediciones. O para decirlo de otra manera, el enfoque clásico es experimental, a partir del cual (haciendo primero postulados) se puede deducir una teoría, mientras que el enfoque estadístico es teórico y puede probarse mediante experimentos. Así que no creo que sean lo único y lo mismo, en concepto. Por supuesto, puede decir que ambos se refieren a la única entropía verdadera, pero prefiero pensar que ambos enfoques (dependen de la teoría) se refieren realmente a dos tipos diferentes de entropía.
Creo que es bastante confuso sin embargo y sin embargo.
¿Alguien tiene una opinión sobre este asunto? Ahora mismo tengo la sensación de que esta pregunta pertenece cada vez más al departamento de ciencia-filosofía y cada vez menos a este...
Un punto importante es que la entropía estadística se define como una función de la energía total del sistema.
Por lo tanto, ambas fórmulas están realmente conectadas.
Un punto sobre la diferencia entre la termodinámica y la mecánica estadística.
La termodinámica se trata de lo que se puede decir sobre el sistema sobre una base exterior, eso significa que el postulado de la termodinámica asume la existencia de algunas funciones (energía interna, entropía,...) y dice que esas funciones son suficientes para describir el intercambio del sistema. con el exterior. Pero la termodinámica nunca proporciona una forma de calcular esas funciones y cantidades asociadas (como la capacidad calorífica).
Sin embargo, la mecánica estadística se ocupa del cálculo de tales cantidades a partir del primer principio (se comienza con el hamiltoniano del sistema).
Entonces, no tenemos incompatibilidades a priori entre la definición de entropía en termodinámica y la mecánica estadística, ya que la termodinámica nunca explica cómo calcular la entropía sin tener que medir cosas. (Si mide la capacidad de calor, debería poder recuperar la entropía, pero tendrá que medir algo)
Cómo considero que las definiciones de entropía están conectadas:
Termodinámica clásica: la entropía es una medida de la cantidad de energía que no está disponible para realizar un trabajo.
Mecánica estadística (entropía de Boltzmann): la entropía es una medida de la cantidad de información que no está disponible sobre el sistema de muchas partículas (es decir, la entropía es una medida de información potencial y Boltzmann = entropía de Shannon cuando los microestados son equiprobables)
Entonces, si esta es la misma entropía, una medida de energía o información no disponible
entonces la energía debe ser proporcional a la información, ¿no?
Claro que lo es: el principio de Landauer, la conexión matemática.
Landó
Deschele Schilder
Landó
knzhou
Deschele Schilder
Deschele Schilder
knzhou
Deschele Schilder
d_b
kyle kanos
\;
que insertó dmckee, es un espacio horizontal