¿Cómo definimos la entropía? [duplicar]

Algunas preguntas tontas sobre la entropía . (Me disculpo si las respuestas ya están disponibles).

Solemos asociar la entropía con el desorden/aleatoriedad de un cuerpo pero no entiendo ¿de qué es ese "orden" del que hablamos? ¿Cuál es este estado ordenado con el que comparamos nuestro sistema y luego decidimos que nuestro sistema tiene más o menos entropía que él?

Además, ¿tiene sentido decir cosas como "este sistema tiene tanta entropía"? ¿No deberíamos estar hablando solo del "cambio" en la entropía de un sistema?

La entropía es la cantidad media de información por dato.
La entropía es también una medida de los grados de libertad en un sistema físico. Imagine una sustancia donde la conectividad es solo con los vecinos más cercanos. El hormigón es un buen ejemplo. El número de grados de libertad por partícula es como n. Ahora imagine una sustancia que ha sido reducida a polvo, exponiendo todas las entrañas. La conectividad es mayor que n, más como n^2.

Respuestas (3)

Probablemente, la forma más fácil de entender la entropía es pensar en ella no como una propiedad de un sistema, sino como la propiedad de nuestro conocimiento del estado del sistema, o mejor dicho, la propiedad de la distribución de probabilidad del sistema. sistema sobre diferentes estados internos. Si un sistema puede estar en estados 1 , 2 , . . . , norte con probabilidades pag 1 , pag 2 , . . . , pag norte , entonces la entropía generalmente se define (hasta un multiplicador constante) como

(1) S = i pag i en pag i .
Puede notar que si el sistema está en un estado definido (es decir, todos pag norte , excepto uno, son cero), la entropía es cero. Además, la entropía S es el más grande cuando todos pag norte son iguales; entonces S = en ( norte ) . La definición se vuelve un poco más complicada cuando tratamos con distribuciones continuas, cambiando la suma a integrales sobre grados de libertad como todas las posiciones y todos los momentos de las partículas.

Con el tiempo, un sistema, debido al ruido externo y la dinámica interna, se distribuye en todos los estados accesibles dentro de las restricciones impuestas (por ejemplo, el gas debe permanecer en la caja, la energía promedio debe permanecer constante, etc.). Cuantos más estados se distribuye, mayor es la entropía. Cuando un material está en fase gaseosa, cada molécula puede viajar a cualquier lugar y no está restringida por otras, a menos que se acerque mucho a ellas (por lo tanto, la entropía es alta). Por el contrario, cuando un material está en una fase sólida, cada molécula está fuertemente restringida por otras y tiene poco espacio para encajar en la red (produciendo una baja entropía).

"Orden" es una especie de término impreciso. Lo que queremos decir con entropía es "cuántos microestados podrían contribuir a este macroestado".

La forma en que esto se expresa matemáticamente es:

S = k yo norte ( W )

S es la entropía del macroestado del sistema, W es el número de microestados que podrían producir ese macroestado k es la constante de Boltzmann.

Boltzmann en realidad tiene esta ecuación inscrita en su tumba, lo creas o no.

Un ejemplo clásico es lanzar 100 monedas. Un posible macroestado (configuración observable macroscópica del sistema) es 100 caras y sin cruz.

Un posible microestado correspondiente (delineación exhaustiva de cada estado de cara o cruz de cada moneda) es que las monedas del 1 al 100 caigan todas en cara. Este estado tiene solo un microestado W , entonces S = 0 . Es un estado de baja entropía del sistema.

Por otro lado, hay muchísimos microestados que alcanzarían el macroestado de 50 caras y 50 cruces. Podrías tener las monedas pares cara y las otras cruz, podrías tener las primeras 50 caras y las siguientes 50 cruces. Podrías tener las dos primeras caras, luego 50 cruces, luego 48 caras... hay alrededor 10 29 posibilidades totales, lo creas o no. Entonces, para ese macroestado, debido a que tiene tantas opciones y debido a que cada microestado es igualmente probable, tiene una entropía más alta según la fórmula.

Entonces eso es entropía. El concepto de "orden" aparece cuando, por ejemplo, comienzas con una caja de monedas que son 100 caras y luego sacudes la caja o la perturbas de alguna manera, terminarás con un estado mucho más cercano a las 50 caras. . Se dice que el sistema ha evolucionado desde un estado de baja entropía a un estado de alta entropía , y nunca volverá a evolucionar espontáneamente a una entropía más baja. Y las 50 caras y cruces corresponden aproximadamente a más "desorden" en cierto sentido.

Editar: esta respuesta es básicamente un complemento matemático de las otras dos respuestas proporcionadas, que tienen sentido para mí.

¿Cómo definimos la entropía?

  1. Termodinámicamente: el estudio de un gas ideal en un ciclo de Carnot llevó a la conclusión de que la relación de la energía absorbida isotérmicamente a cierta temperatura T 1 era igual a la proporción de energía entregada a cierta temperatura T 2 ( 1 ) . Esto eventualmente condujo a la desigualdad de Clausius ( 2 ) y finalmente una definición de entropía ( 3 ) .

(1) Δ q 1 T 1 = Δ q 2 T 2
(2) d q T 0
(3) d S d q T

  1. A través de la mecánica estadística: imagine dos cajas separadas de gases que solo pueden conducir calor, pero no transferir volumen o partículas. Descubrimos que la temperatura termodinámica, β , es constante para los dos sistemas cuando se les permite alcanzar un equilibrio ( 4 ) . Además, conocemos la conservación de la energía. ( 5 ) puede reformularse en términos de la entropía dada en ( 3 ) , suponiendo un sistema reversible. Combinando estos dos hechos e invocando el postulado de Boltzmann de que el número de microestados, Ω , se maximiza en el equilibrio, podemos lograr la entropía de Boltzmann ( 6 ) .

(4) en Ω tu = β
(5) d tu = PAG d V + d q = PAG d V + T d S

S / tu en Ω / tu = 1 β T = k B

Al integrar esta ecuación con d V = 0 e ignorando la constante aditiva ,

(6) S = k B en Ω

Esto responde a una de tus preguntas:

¿No deberíamos estar hablando solo del "cambio" en la entropía de un sistema?

Si usa la ecuación de entropía de Boltzmann, entonces su valor absoluto tiene sentido, debido a nuestra omisión de esta constante aditiva. Como se señaló en otras respuestas, cuando solo hay un microestado, la entropía de Boltzmann es cero, lo que define claramente el "piso" de la entropía; el sistema más ordenado posible corresponde a la entropía más baja.

pero no entiendo que es ese "orden" del que hablamos?

En términos de la entropía de Boltzmann, este orden se define claramente al contar los microestados y, por lo tanto, la entropía es una medida del desorden de esos microestados.

Considerando un escenario diferente, donde un recipiente de gas está en contacto con un baño de calor. La siguiente distribución de probabilidad de los niveles de energía se puede derivar de varias formas (conjunto canónico):

(7) ρ i = Exp ( β ( F mi i ) )

Descubrimos una nueva ecuación de entropía realizando la siguiente operación (observando que tu = mi i ):

(8) k B en ρ i = k B β ( F mi i ) = k B β F + k B β tu = ( tu F ) / T

Al reconocer ( 8 ) como la Transformada de Legendre de nuestra energía interna ( tu ) , podemos encontrar una nueva forma para la entropía. Es evidente que tu tu ( S , V ) de ( 5 ) , así que mientras mantiene V constante, solo necesitamos imaginar una función F F ( T , V ) que transforma la función de energía de S T ,

(9) tu ( S , V ) + ( F ( V , T ) ) = S T

Por lo tanto, desde ( 8 ) y ( 9 ) , y notando F como la Energía Libre de Helmholtz,

(10) S = k B en ρ i = k B i ρ i en ρ i

Esta es la Entropía de Gibbs. También se puede demostrar fácilmente que esta ecuación de entropía más general se reduce a ( 6 ) cuando la distribución de probabilidad es simplemente ρ i = 1 / Ω . Existen numerosas formas de validar que la ecuación de entropía de Gibbs es autoconsistente.

pero no entiendo que es ese "orden" del que hablamos?

El problema ahora se ha reformulado en términos de la distribución de probabilidad de los niveles de energía subyacentes. En principio, esto puede ser la "cualquier cosa" subyacente de la que estamos tratando de determinar el desorden. Esta entropía, por lo tanto, determina la "esperanza del logaritmo de la función de probabilidad"; recordando que las probabilidades siempre caen sobre [ 0 , 1 ] , sabemos que la expectativa del logaritmo de la probabilidad tenderá hacia el infinito negativo a medida que este valor de expectativa caiga a cero. Por lo tanto:

  • Baja probabilidad promedio de que ocurra un estado = alta entropía
  • Mayor probabilidad promedio de que ocurra un estado = baja entropía

¿Cuál es este estado ordenado con el que comparamos nuestro sistema y luego decidimos que nuestro sistema tiene más o menos entropía que él?

Esta es la famosa "flecha del tiempo" y puede ver una publicación reciente de Physics SE que tiene muchas respuestas discutiéndola y la aparente irreversibilidad de los sistemas con norte .

Finalmente, ( 10 ) está relacionado con la entropía de Shannon por un factor de k B , que sirve como el factor físico que corrige las unidades en cómo se define termodinámicamente la entropía. Para los sistemas no físicos no hay nada fundamental acerca de este factor, y la entropía bien podría ser,

S = i ρ i en ρ i

Esto ayuda a cimentar las ideas de entropía en relación con la probabilidad, como se menciona en mis viñetas anteriores.