Algunas preguntas tontas sobre la entropía . (Me disculpo si las respuestas ya están disponibles).
Solemos asociar la entropía con el desorden/aleatoriedad de un cuerpo pero no entiendo ¿de qué es ese "orden" del que hablamos? ¿Cuál es este estado ordenado con el que comparamos nuestro sistema y luego decidimos que nuestro sistema tiene más o menos entropía que él?
Además, ¿tiene sentido decir cosas como "este sistema tiene tanta entropía"? ¿No deberíamos estar hablando solo del "cambio" en la entropía de un sistema?
Probablemente, la forma más fácil de entender la entropía es pensar en ella no como una propiedad de un sistema, sino como la propiedad de nuestro conocimiento del estado del sistema, o mejor dicho, la propiedad de la distribución de probabilidad del sistema. sistema sobre diferentes estados internos. Si un sistema puede estar en estados con probabilidades , entonces la entropía generalmente se define (hasta un multiplicador constante) como
Con el tiempo, un sistema, debido al ruido externo y la dinámica interna, se distribuye en todos los estados accesibles dentro de las restricciones impuestas (por ejemplo, el gas debe permanecer en la caja, la energía promedio debe permanecer constante, etc.). Cuantos más estados se distribuye, mayor es la entropía. Cuando un material está en fase gaseosa, cada molécula puede viajar a cualquier lugar y no está restringida por otras, a menos que se acerque mucho a ellas (por lo tanto, la entropía es alta). Por el contrario, cuando un material está en una fase sólida, cada molécula está fuertemente restringida por otras y tiene poco espacio para encajar en la red (produciendo una baja entropía).
"Orden" es una especie de término impreciso. Lo que queremos decir con entropía es "cuántos microestados podrían contribuir a este macroestado".
La forma en que esto se expresa matemáticamente es:
es la entropía del macroestado del sistema, es el número de microestados que podrían producir ese macroestado es la constante de Boltzmann.
Boltzmann en realidad tiene esta ecuación inscrita en su tumba, lo creas o no.
Un ejemplo clásico es lanzar 100 monedas. Un posible macroestado (configuración observable macroscópica del sistema) es 100 caras y sin cruz.
Un posible microestado correspondiente (delineación exhaustiva de cada estado de cara o cruz de cada moneda) es que las monedas del 1 al 100 caigan todas en cara. Este estado tiene solo un microestado , entonces . Es un estado de baja entropía del sistema.
Por otro lado, hay muchísimos microestados que alcanzarían el macroestado de 50 caras y 50 cruces. Podrías tener las monedas pares cara y las otras cruz, podrías tener las primeras 50 caras y las siguientes 50 cruces. Podrías tener las dos primeras caras, luego 50 cruces, luego 48 caras... hay alrededor posibilidades totales, lo creas o no. Entonces, para ese macroestado, debido a que tiene tantas opciones y debido a que cada microestado es igualmente probable, tiene una entropía más alta según la fórmula.
Entonces eso es entropía. El concepto de "orden" aparece cuando, por ejemplo, comienzas con una caja de monedas que son 100 caras y luego sacudes la caja o la perturbas de alguna manera, terminarás con un estado mucho más cercano a las 50 caras. . Se dice que el sistema ha evolucionado desde un estado de baja entropía a un estado de alta entropía , y nunca volverá a evolucionar espontáneamente a una entropía más baja. Y las 50 caras y cruces corresponden aproximadamente a más "desorden" en cierto sentido.
Editar: esta respuesta es básicamente un complemento matemático de las otras dos respuestas proporcionadas, que tienen sentido para mí.
¿Cómo definimos la entropía?
Al integrar esta ecuación con e ignorando la constante aditiva ,
Esto responde a una de tus preguntas:
¿No deberíamos estar hablando solo del "cambio" en la entropía de un sistema?
Si usa la ecuación de entropía de Boltzmann, entonces su valor absoluto tiene sentido, debido a nuestra omisión de esta constante aditiva. Como se señaló en otras respuestas, cuando solo hay un microestado, la entropía de Boltzmann es cero, lo que define claramente el "piso" de la entropía; el sistema más ordenado posible corresponde a la entropía más baja.
pero no entiendo que es ese "orden" del que hablamos?
En términos de la entropía de Boltzmann, este orden se define claramente al contar los microestados y, por lo tanto, la entropía es una medida del desorden de esos microestados.
Considerando un escenario diferente, donde un recipiente de gas está en contacto con un baño de calor. La siguiente distribución de probabilidad de los niveles de energía se puede derivar de varias formas (conjunto canónico):
Descubrimos una nueva ecuación de entropía realizando la siguiente operación (observando que ):
Al reconocer como la Transformada de Legendre de nuestra energía interna , podemos encontrar una nueva forma para la entropía. Es evidente que de , así que mientras mantiene constante, solo necesitamos imaginar una función que transforma la función de energía de ,
Por lo tanto, desde y , y notando como la Energía Libre de Helmholtz,
Esta es la Entropía de Gibbs. También se puede demostrar fácilmente que esta ecuación de entropía más general se reduce a cuando la distribución de probabilidad es simplemente . Existen numerosas formas de validar que la ecuación de entropía de Gibbs es autoconsistente.
pero no entiendo que es ese "orden" del que hablamos?
El problema ahora se ha reformulado en términos de la distribución de probabilidad de los niveles de energía subyacentes. En principio, esto puede ser la "cualquier cosa" subyacente de la que estamos tratando de determinar el desorden. Esta entropía, por lo tanto, determina la "esperanza del logaritmo de la función de probabilidad"; recordando que las probabilidades siempre caen sobre , sabemos que la expectativa del logaritmo de la probabilidad tenderá hacia el infinito negativo a medida que este valor de expectativa caiga a cero. Por lo tanto:
¿Cuál es este estado ordenado con el que comparamos nuestro sistema y luego decidimos que nuestro sistema tiene más o menos entropía que él?
Esta es la famosa "flecha del tiempo" y puede ver una publicación reciente de Physics SE que tiene muchas respuestas discutiéndola y la aparente irreversibilidad de los sistemas con .
Finalmente, está relacionado con la entropía de Shannon por un factor de , que sirve como el factor físico que corrige las unidades en cómo se define termodinámicamente la entropía. Para los sistemas no físicos no hay nada fundamental acerca de este factor, y la entropía bien podría ser,
Esto ayuda a cimentar las ideas de entropía en relación con la probabilidad, como se menciona en mis viñetas anteriores.
shawn_halayka
shawn_halayka