Confusión con respecto a la entropía, solicitud de artículos de referencia

1.a En el párrafo de Wikipedia/Entropy se afirma:

Esto se debe a que la energía suministrada a alta temperatura (es decir, con baja entropía) tiende a ser más útil que la misma cantidad de energía disponible a temperatura ambiente.

1.b Pero ¿Qué es la Entropía? hay:

Cuanto más alta es la temperatura del gas, más rápido se mueven las partículas del gas en promedio, por lo que más amplio es el rango de velocidades posibles para las partículas del gas y, por lo tanto, más incertidumbre tenemos sobre la velocidad de cualquier partícula en particular. Así, mayor temperatura , así como mayor volumen, significan mayor entropía .

2.a Estaba tratando de obtener información sobre la relación entre la entropía y el trabajo. Básicamente, si un proceso externo modifica un sistema para que su entropía se reduzca, entonces espero que se haya realizado trabajo en el sistema y se le haya aportado energía. Recibí buenas respuestas ( Conexión entre entropía y energía ). Sin embargo, siento que no me entendieron correctamente.

2.b En el artículo de 1953 de L. Brillouin ("El principio de negentropía de la información") escribió lo que básicamente tenía en mente cuando hice la pregunta. No sé si el enfoque es correcto y aceptado.

Un sistema aislado contiene negentropía si revela la posibilidad de realizar un trabajo mecánico o eléctrico. Si el sistema no está a una temperatura uniforme T, sino que consta de diferentes partes a diferentes temperaturas, contiene una cierta cantidad de negentropía. Esta negentropía se puede utilizar para obtener algún trabajo mecánico realizado por el sistema, o simplemente se puede disipar y perder por conducción térmica. Una diferencia de presión entre diferentes partes del sistema es otro caso de negentropía. Una diferencia de potencial eléctrico representa otro ejemplo. Un tanque de gas comprimido en una habitación a presión atmosférica, un tanque de vacío en una habitación similar, una batería cargada, cualquier dispositivo que pueda producir energía de alto grado (trabajo mecánico) o degradarse por algún proceso irreversible (conducción térmica, resistividad eléctrica, fricción,

3.a A menudo hay una intuición contradictoria sobre la entropía de la información. El enfoque de Shannon ve la máxima entropía como la máxima incertidumbre/información.

3.b Joe Rosen en "El principio de simetría" afirma que la máxima entropía es la máxima simetría, lo que significa la máxima redundancia, por lo que la cantidad mínima de información.

4. Termodinámica de no equilibrio: la rama no está madura y no sirve como herramienta para resolver problemas como en 2.a, AFAIK.

Estaba viendo el demonio y la información de La física de Maxwell como una muy buena guía a través de la termodinámica del equilibrio (¿qué pasa con el no equilibrio?), Su conexión con el trabajo y la información. Los autores, sin embargo, cuando elaboraron sobre la entropía de un sistema en opinión de Brillouin, le pusieron un signo igual y la entropía de Shannon, que creo que contradice a Brillouin mismo, quien, como cité en 2.b, afirmó que es desequilibrio que permite que el sistema funcione, es decir, un sistema complejo y rico en información (en otro párrafo también afirma explícitamente que la negentropía es información). Esto se ajusta a Rosen 3.b.

¿Existen otras compilaciones buenas sobre entropía, información, tal vez ciencia de la complejidad? ¿Tales que resuelven las contradicciones, forman un fundamento de no equilibrio compatible?

Solo una nota. Debes tener en mente que puedes ver la entropía del mismo modo que ves la energía potencial. Tiene libre elección para establecer dónde la entropía es cero. Esto podría llevar a diferentes interpretaciones, como entropía mínima y máxima, pero de hecho tendrías el mismo razonamiento.
@Pygmalion Solo clásicamente. En la mecánica cuántica no tienes tanta libertad, véase, por ejemplo, A Wehrl, General properties of entropy, Reviews of Modern Physics, 1978 .
@PiotrMigdal Gracias por tu comentario. Voy a tener ese hecho en mi mente.

Respuestas (3)

Para exposiciones claras sobre la relación entre la entropía y la información, y los fundamentos de la teoría del no equilibrio, vale la pena navegar a través de los artículos de Edwin Jaynes. Puedes encontrar su bibliografía completa aquí . Probablemente sea mejor comenzar con uno de sus últimos artículos, ya que tienen un enfoque más pedagógico. Recomendaría ' La evolución del principio de Carnot ' como punto de partida, y luego quizás ' La paradoja de Gibbs '.

Ahora, para responder a algunos de sus puntos más específicos.

1. La entropía se puede definir, al menos para empezar, diciendo que cuando un cuerpo a una temperatura T gana una cantidad q de calor, su entropía aumenta en q / T . Entonces, para una cantidad dada de calor, una temperatura más alta significa una entropía más baja. Sin embargo, no necesariamente se sigue que los cuerpos (o gases) con una temperatura más alta siempre tengan una entropía más baja que los cuerpos a una temperatura más baja, porque los cuerpos más calientes también tienen más energía. Ambas citas son correctas, porque la primera habla de entropía por unidad de energía y la segunda habla de entropía por unidad de volumen.

Sin embargo, lo realmente importante no es cuánta entropía tiene un cuerpo a una temperatura dada, sino cuánto cambia su entropía si gana o pierde algo de energía. Si tiene un sistema aislado compuesto por un cuerpo caliente (a temperatura T H ) y una fría (en T C ), algo de calor q fluirá del cuerpo caliente al frío. La entropía del cuerpo caliente cambia por q / T H (es decir, su entropía disminuye ), pero la entropía del cuerpo frío aumenta en q / T C , que es más grande porque T H > T C .

El cambio de entropía total en este sistema es q T C q T H . Si las dos temperaturas son iguales, la entropía se maximiza y no puede ocurrir más transferencia de calor.

2.a Una buena manera de pensar en el trabajo es pensar en él como energía sin ninguna entropía asociada. Es como el calor con una temperatura infinita, de modo que q / T va a 0. Digamos que tenemos un cuerpo a cierta temperatura T y queremos quitarle algo de calor y convertirlo en trabajo W . El cambio de entropía de esta transformación es

entropía del trabajo entropía del calor = 0 W / T < 0 ,
lo que significa que es imposible realizar esta transformación a menos que al hacerlo aumentemos la entropía de algún otro sistema en la misma cantidad ( W / T ) o más, de modo que el cambio de entropía total sea mayor que cero.

En particular, si tenemos dos cuerpos a diferentes temperaturas, podemos aumentar la entropía del frío transfiriéndole algo de calor del caliente. Si ponemos una cantidad q en el cuerpo frío debemos tomar una cantidad q + W del caliente. (Esa es la energía que estamos poniendo en el cuerpo frío, más la cantidad que estamos convirtiendo en trabajo). La entropía del cuerpo frío ahora aumenta en q / T C mientras que la entropía del cuerpo caliente disminuye en ( q + W ) / T H . Por lo tanto, el cambio de entropía total es

q T C q + W T H ,
lo cual es positivo siempre que W < q ( 1 T C T H ) , que se llama límite de Carnot.

Para reiterar, el punto es que el trabajo es energía sin entropía asociada, y si desea crearlo a partir del calor, debe hacerlo aumentando la entropía de algún otro sistema para satisfacer la segunda ley.

Pero tenga en cuenta: su intuición sobre la relación entre trabajo y entropía no era del todo correcta. Hacer trabajo en un sistema puede disminuir su entropía (aunque también puede aumentarla al agregar energía), pero hacer trabajo en un sistema no es la única forma de disminuir su entropía . También puede hacer esto eliminando el calor, por ejemplo, como mostré arriba.

2.b Esta cita es correcta. Si un sistema tiene 'neguentropía' (que no es un término de uso muy común, pero es perfectamente razonable), entonces su entropía no está al máximo, lo que significa que es posible aumentar su entropía para convertir algo de calor en trabajar.

3.a Tenga cuidado aquí: parece estar equiparando la incertidumbre con la información, ¡pero en realidad son opuestos! Cuanta menos información tenga sobre algo, más incierto estará al respecto. La entropía es incertidumbre; específicamente, es la cantidad de incertidumbre que tienes sobre el estado microscópico de un sistema si conoces sus propiedades macroscópicas (temperatura, presión, volumen, etc.). Se puede expresar en las mismas unidades que la información (por ejemplo, bits) pero tiene el signo contrario, por lo que un aumento de entropía es una pérdida de información.

3.b No he leído esta fuente, por lo que realmente no puedo comentar sobre la parte de simetría, pero la idea de que la entropía máxima es igual a la información mínima es correcta.

4. La termodinámica de no equilibrio está bastante madura en estos días. La idea básica es que tomas las cosas de las que estaba hablando anteriormente, y en lugar de una cantidad finita de calor q , se considera un flujo de calor d q / d t . Esto conduce a un cambio continuo en la entropía. d S / d t , que debe ser positivo para un sistema aislado. Las matemáticas no son muy diferentes de la termodinámica de equilibrio. Si tiene algunas preguntas específicas al respecto, probablemente pueda ayudarlo a responderlas.

Wow, esta es una excelente respuesta. Siento que mejoró mi comprensión significativamente, y tengo un título en física.

La entropía es un tema amplio y muy importante tanto para la física como para la teoría de la información.

En general, la entropía es una medida de no saber cosas. Entonces, un estado de alta entropía es cuando hay muchas secuencias posibles o muchos microestados posibles de un sistema físico.

En la teoría de la información es

S ( { pag i } i ) = i pag i registro ( pag i ) .
En particular, cuando es alto significa que medir exactamente i da mucha información.

En termodinámica, está relacionado con el volumen del espacio de fases . De hecho, es la misma fórmula que en la teoría de la información, pero se mide la distribución de probabilidad de que las partículas estén en estado ( X 1 , , X norte , pag 1 , , pag norte ) , dónde X i son posiciones y pag i - momentos.

Cuando se trata de entropía-energía, observe la termodinámica. Para un sistema abierto, la entropía puede disminuir con la temperatura a medida que las partículas se van volando.

Posibles lecturas (ya que las preguntas que hizo no se pueden responder en una sola publicación):

Con respecto a los elementos 1, la declaración citada en el elemento 1a es, en el peor de los casos, incorrecta y, en el mejor de los casos, incompleta (si se infiere del término "alta temperatura" que también está presente un disipador de calor de temperatura más baja). La energía de "alta temperatura" solo es útil si está presente un disipador de calor de temperatura más baja, y la entropía total de esos dos depósitos es menor que si se les permitiera equilibrarse a la misma temperatura. Por ejemplo, para dos depósitos de gas ideal con volúmenes iguales V y numero de moleculas norte , uno a temperatura T + Δ T y el otro en T Δ T , la entropía total de los dos es (ref Feynman conferencias vol. 1, conferencia 44):

S = 2 a + norte k [ 2 en ( V ) + 1 γ 1 [ en ( T + Δ T ) + en ( T Δ T ) ] ] = 2 a + norte k [ 2 en ( V ) + 1 γ 1 en ( T 2 Δ T 2 ) ]
por lo que la entropía se maximiza cuando Δ T = 0 (es decir, cuando los dos depósitos están a la misma temperatura).

La declaración en el ítem 1b) es correcta: uno puede aumentar la temperatura de un elemento añadiéndole calor, aumentando así su entropía.

Con respecto a los puntos 2, en el contexto de los mismos dos depósitos de gas ideal, ahora a la misma temperatura, su idea de hacer trabajo para reducir su entropía podría realizarse conectando un motor térmico reversible entre los dos y conduciendo ese motor con trabajo para transferir calor de un depósito a otro, enfriando uno y calentando el otro (es decir, una bomba de calor o un refrigerador). No estoy familiarizado con la negentropía, pero la cita de Brillouin parece estar generalizando la discusión anterior: es necesaria una diferencia entre dos subsecciones del sistema para extraer trabajo.

Con respecto a los elementos 3 y 4, la ecuación de Shannon para la entropía de la información (ver la respuesta de Piotr Migdal) usa esencialmente la misma forma que en la mecánica estadística (razón por la cual Shannon tomó prestado el nombre). Me gusta la cita de "Introducción a la teoría de la información" de Pierce: "Una vez que entendemos a fondo la entropía tal como se usa en la teoría de la comunicación, no hay nada de malo en tratar de relacionarla con la entropía en la física, pero la literatura indica que algunos investigadores nunca se han recuperado de la confusión engendrada por una mezcla temprana de ideas sobre las entropías de la física y la teoría de la comunicación". Aprende uno, luego el otro...

Recomendaría la conferencia de Feynman a la que se hace referencia anteriormente, así como las conferencias posteriores sobre termo en el mismo volumen.