¿Qué es realmente la entropía?

En este sitio , el cambio de entropía se define como la cantidad de energía dispersada dividida por la temperatura absoluta. Pero quiero saber: ¿Cuál es la definición de entropía? Aquí , la entropía se define como la capacidad calorífica promedio promediada sobre la temperatura específica. Pero no pude entender esa definición de entropía: Δ S = S final S inicial . ¿Qué es la entropía inicialmente (hay alguna dispersión de energía inicialmente)? Por favor dé la definición de entropía y no su cambio .

Para aclarar, estoy interesado en la definición de entropía en términos de temperatura, no en términos de microestados, pero agradecería una explicación desde ambas perspectivas.

Respuestas (14)

Hay dos definiciones de entropía, que los físicos creen que son iguales (módulo, la constante de escala dimensional de Boltzman) y un postulado de su similitud hasta ahora ha producido un acuerdo entre lo que se predice teóricamente y lo que se observa experimentalmente. Hay bases teóricas, a saber, la mayor parte del tema de la mecánica estadística, para creer que son lo mismo, pero en última instancia, su similitud es una observación experimental.

  1. (Boltzmann / Shannon): dado un sistema termodinámico con un macroestado conocido, la entropía es el tamaño del documento, en bits, tendría que escribir para especificar el estado cuántico completo del sistema. Dicho de otro modo, es proporcional al logaritmo del número de estados cuánticos completos que podrían prevalecer y ser consistentes con el macroestado observado. Otra versión más: es la entropía de Shannon condicional (negativa) (contenido de información) de la distribución de probabilidad de máxima verosimilitud del microestado del sistema condicionada al conocimiento del macroestado prevaleciente;

  2. (Clausius / Carnot): Sea una cantidad d q de calor sea ingresado a un sistema a temperatura T . Entonces el cambio de entropía del sistema es d q T . Esta definición requiere antecedentes, en particular lo que entendemos por temperatura ; la bien definida definición de la entropía ( es decir , que es una función del estado solo, por lo que los cambios son independientes de la ruta entre los estados finales) se deriva de la definición de temperatura, que se vuelve significativa mediante los siguientes pasos en el razonamiento: (ver mi respuesta aquí para detalles). (1) El teorema de Carnot muestra que todas las máquinas térmicas reversibles que trabajan entre los mismos dos depósitos caliente y frío deben funcionar con la misma eficiencia, ya que una afirmación de lo contrario conduce a una contradicción del postulado de que el calor no puede fluir espontáneamente del depósito frío al caliente. . (2) Dada esta universalidad de los motores reversibles, tenemos una manera de comparar depósitos: tomamos un "depósito estándar" y llamamos unidad de temperatura, por definición. Si tenemos un reservorio más caliente, tal que un motor térmico reversible operando entre los dos rendimientos T unidades si trabajo por cada 1 unidad de calor que vierte al depósito estándar, entonces llamamos a su temperatura T . Si tenemos un depósito más frío y hacemos lo mismo (usando el estándar como depósito caliente) y encontramos que el motor rinde T unidades de trabajo por cada 1 vertido, llamamos a su temperatura T 1 . Solo de estas definiciones se sigue que la cantidad d q T es una diferencial exacta porque a b d q T entre posiciones a y b en el espacio de fase debe ser independiente del camino (de lo contrario, se puede violar la segunda ley). Entonces tenemos esta nueva función de "entropía" de estado definida para aumentar por el diferencial exacto d S = d q / T cuando el sistema a absorbe calor de forma reversible d q .

Como se dijo al principio, es una observación experimental que estas dos definiciones son la misma; necesitamos una constante de escala dimensional para aplicar a la cantidad en la definición 2 para hacer que las dos coincidan, porque la cantidad en la definición 2 depende de qué depósito tomemos como el "estándar". Esta constante de escala es la constante de Boltzmann k .

Cuando se postula que los flujos de calor y las evoluciones permisibles del sistema se rigen por mecanismos probabilísticos y que la evolución de un sistema es la de máxima verosimilitud, es decir , cuando se estudia la mecánica estadística, las ecuaciones de la termodinámica clásica se reproducen con la interpretación correcta de los parámetros estadísticos en términos de variables de estado termodinámicas. Por ejemplo, mediante un simple argumento de máxima verosimilitud, justificado por los temas discutidos en mi publicación aquí, uno puede demostrar que un conjunto de partículas con estados de energía permitidos mi i de degeneración gramo i en el equilibrio (distribución de máxima verosimilitud) tiene la distribución de probabilidad pags i = Z 1 gramo i Exp ( β mi i ) dónde Z = j gramo j Exp ( β mi j ) , dónde β es un multiplicador de Lagrange. La entropía de Shannon de esta distribución es entonces:

(1) S = 1 Z ( β ) i ( ( Iniciar sesión Z ( β ) + β mi i Iniciar sesión gramo i ) gramo i Exp ( β mi i ) )

con energía calorífica por partícula:

(2) q = 1 Z ( β ) i ( mi i gramo i Exp ( β mi i ) )

y:

(3) Z ( β ) = j gramo j Exp ( β mi j )

Ahora agregue una cantidad de calor al sistema para que el calor por partícula aumente en d q y dejar que el sistema vuelva a equilibrarse; de (2) y (3) resuelve el cambio d β en β necesario para hacer esto y sustituir en (1) para encontrar el cambio de entropía que surge de esta adición de calor. Se ha encontrado que:

(4) d S = β d q

y entonces igualamos las dos definiciones de entropía si postulamos que la temperatura está dada por T = β 1 (módulo la constante de Boltzmann).

Por último, es bueno señalar que todavía hay un margen considerable para la ambigüedad en la definición 1 anterior, aparte de los casos simples, por ejemplo , un conjunto de osciladores armónicos cuánticos, donde los estados cuánticos son manifiestamente discretos y fáciles de calcular. A menudo nos vemos obligados a realizar aproximaciones continuas, y entonces uno tiene libertad para definir el tamaño de ganancia grueso , es decir , el tamaño del volumen discretizante en el espacio de fase continua que distingue microestados verdaderamente diferentes, o uno debe contentarse con tratar solo con entropías relativas en un espacio de fase verdaderamente diferente. modelos de distribución de probabilidad continua Por lo tanto, en los análisis mecánicos estadísticos se buscan resultados que dependan débilmente del volumen de granulado grueso exacto utilizado.

En realidad, la entropía tiene sentido incluso fuera de la física. No necesitamos un sistema termodinámico para entender la entropía.
@DanielSank Solía ​​inclinarme a estar de acuerdo con esto; todavía estoy de acuerdo con la segunda oración, dependiendo de la definición de "sistema termodinámico". Pero a la luz del límite de Landauer, incluso la información definida en la teoría de la información abstracta debe, para su realización, codificarse en el estado cuántico de algún sistema físico y, por lo tanto, la entropía siempre, en última instancia, se refiere a un sistema físico.
Mehhhh estoy un poco en desacuerdo. Podemos hablar de manera útil sobre la entropía en discusiones sobre la codificación de datos donde la física subyacente es completamente irrelevante.
Relevante: physics.stackexchange.com/q/263197 (como se explica en mi respuesta allí, creo que la formulación de DanielSank es más útil, pero claramente hay un desacuerdo significativo al respecto).
@WetSavannaAnimalakaRodVance Entiendo de dónde vienes en la discusión con DS, pero puedes calcular la entropía de Shannon de una función de masa de probabilidad (que en realidad no tiene nada que ver con la termodinámica o la física). Gran respuesta.
@innisfree Estoy de acuerdo con el SE de un pdf y la codificación de datos; simplemente me duele el cerebro pensar que la mente que concibe estas cosas es un sistema termodinámico en sí mismo y, por lo tanto, preguntarme si realmente podemos divorciar la deducción abstracta de los sistemas físicos, ya que debemos usar un sistema físico para hacer tal razonamiento abstracto. Recuerdo la primera vez hace muchos años cuando leí sobre el principio de Landauer ampliando la discusión termodinámica del demonio de Maxwell para mostrar que la segunda ley se cumple si uno considera la mente del demonio. Mi primera reacción visceral fue que esto realmente estaba tratando...
...demasiado difícil en formas aparentemente muy artificiales para hacer que la segunda ley encaje. Luego leí un artículo de revisión de Bennett sobre el tema y mi mente cambió radicalmente: la información de estado "olvidada" por el reservorio realmente debe terminar codificada en los estados de los sistemas físicos. Entonces me di cuenta de que realmente creía en la reversibilidad fundamental - evolución unitaria - del Mundo a nivel microscópico. Toda la discusión también me duele un poco, ya que me clasificaría como un gran platónico en lo que respecta a las matemáticas.
@DanielSank Ver también mis comentarios a Innisfree
Hola Rod. Como de costumbre, gran respuesta! Me tomó por sorpresa cuando surgió esta vieja pregunta. Algunas personas se enojaron mucho conmigo por haber proporcionado una heurística visual (suavidad = entropía) que describe la curiosa falta de patrones a gran escala inducida por la codificación máxima de información en la materia. Por ejemplo, una vez descubrí oportunidades para comprimir programas de computadora simplemente buscando patrones a gran escala en sus representaciones binarias. Solo las matrices aleatorias de bits representaban la entropía más alta, o los estados de programas más comprimidos por bit. La termodinámica es en gran medida la misma idea.
@TerryBollinger Parece haber una cierta tendencia a menospreciar las metáforas visuales, especialmente entre los más inclinados a la teoría. Es un poco hipócrita: ¡y estoy seguro de que la reacción de la mayoría de los matemáticos ante un llamado a prescindir de los diagramas conmutativos lo demostraría! Somos una especie muy visual con una gran parte de nuestro cerebro dedicado a la vista, por lo que burlarse de los diagramas es como comprar un Lamborghini y mantenerlo sin conducir en el garaje (no me gusta mucho el automovilismo, pero ese es el metáfora que se me ocurre rápidamente). Esa idea de suavidad es muy parecida a la idea...
... de enseñar la entropía como dispersión de energía: no puedo encontrar al químico académico que haya defendido este enfoque en la educación química en este momento, pero este es bueno. Puede que te guste esta , que es mi explicación profana favorita de la segunda ley, aunque Cox habla de "orden", lo que distrae un poco.
Rod, gracias. Me aseguraré de revisar ese video. Como tipo de IA, me divierte la idea de prescindir del procesamiento visual, ya que el aspecto perceptivo de la inteligencia es el que resulta más difícil en la mayoría de las formas de inteligencia artificial. Las matemáticas, por otro lado, son relativamente compatibles con las computadoras. Sin embargo, aquí quizás haya una pregunta más profunda para usted: ¿Por qué maximizar la densidad de la información crea fluidez?
@TerryBollinger Frank L. Lambert es el químico en el que estoy pensando.
Una objeción: la entropía de Boltzmann difiere de la entropía de Shannon por un factor constante, a saber, la constante de Boltzmann, por lo que la entropía de Shannon no tiene dimensiones, mientras que la entropía de Boltzmann tiene unidades de energía/temperatura.
@WetSavannaAnimalakaRodVance no para vencer a un caballo muerto, pero hace un tiempo hice una pregunta sobre la entropía lambertiana: physics.stackexchange.com/q/219830 . Si crees que es válido (como verás allí, yo no), te animo a que agregues una respuesta.
@WetSavannaAnimal "su similitud es una observación experimental" ... Espera, ¿no hay un ingenioso teorema de singularidad? ¿Hay al menos investigación en esa dirección? (me parece un objetivo digno)

La entropía de un sistema es la cantidad de información necesaria para especificar el estado físico exacto de un sistema dada su especificación macroscópica incompleta. Entonces, si un sistema puede estar en Ω posibles estados con igual probabilidad entonces el número de bits necesarios para especificar exactamente en cuál de estos Ω estados en los que realmente se encuentra el sistema sería Iniciar sesión 2 ( Ω ) . En unidades convencionales expresamos la entropía como S = k B Iniciar sesión ( Ω ) .

Aquí hay una respuesta intencionalmente más conceptual: la entropía es la suavidad de la distribución de energía en alguna región dada del espacio. Para hacerlo más preciso, debe definir la región, el tipo de energía (o masa-energía) considerada suficientemente fluida dentro de esa región para ser relevante, y el espectro de Fourier y las fases de esos tipos de energía en esa región.

El uso de proporciones relativas "elimina" gran parte de este feo desorden centrándose en las diferencias de suavidad entre dos regiones muy similares, por ejemplo, la misma región en dos puntos en el tiempo. Desafortunadamente, esto también enmascara la complejidad de lo que realmente está sucediendo.

Aún así, la suavidad sigue siendo la característica clave que define la mayor entropía en tales comparaciones. Un campo con una fogata rugiente tiene una entropía más baja que un campo con brasas frías porque, con respecto a las formas de energía térmica e infrarroja, la fogata viva crea un pico enorme y muy irregular en el medio del campo.

Esta respuesta parece citarse regularmente dentro de SE, pero nunca he visto algo así en la literatura y no es obvio para mí cómo manejaría problemas como la entropía de la mezcla.
Culpable de los cargos, a veces trato de explicar los conceptos subyacentes en lugar de simplemente citar las ecuaciones o los riffs estándar. Pero les puedo asegurar que en tales casos las explicaciones que doy se basan en una lectura y análisis muy cuidadosos de esas definiciones fundamentales; no son simplemente "analogías" o alguna forma de interpretación vaga.
Con respecto a la entropía de la mezcla, ¡estoy realmente sorprendido por tu sorpresa! ¿Qué podría representar más un cambio hacia la suavidad en el nivel molecular de resolución que la mezcla íntima de dos o más poblaciones de moléculas únicas macroscópicamente segregadas previamente?
Suavizado de algo, seguro, pero no de la distribución de energía, que no necesariamente cambiaría durante la mezcla.
Además, si observamos el intercambio de energía entre partículas con diferentes densidades de estados, es fácil inventar un caso en el que la distribución de energía inicial es uniforme y se vuelve más desigual a medida que las partículas se acercan al equilibrio térmico. Entonces, aunque esta definición funcionará aproximadamente en muchos casos, creo que es engañosa.
Imagen: Caja de pelotas elásticas de masa ligera que rebotan rápidamente junto a una caja de pelotas elásticas más pesadas y de movimiento más lento. Retire la partición entre ellos y permita que interactúen individualmente. Y vaya, acabo de ver tu segundo comentario... Me pondré en contacto más tarde...
¡Gracias por su respuesta! No importa el segundo comentario por ahora, mantengamos las cosas simples. Imagina que tus dos sistemas inicialmente separados son dos nubes de electrones en una caja, cada uno a temperatura T, en un campo magnético uniforme. Una nube está inicialmente polarizada girando hacia arriba y la otra girando hacia abajo. Uno puede aumentar el campo magnético arbitrariamente bajo, por lo que los electrones tienen una diferencia de energía arbitrariamente pequeña entre los estados de espín, pero esto no tiene impacto en el cambio de entropía fijo debido a la mezcla una vez que las nubes se entremezclan. Cambios de entropía sin redistribución de energía.
Esto puede ser similar: imagine dos gases en dos cámaras, ambos tan difusos que existe un 99% de probabilidad de que cualquier molécula cruce el diámetro de su cámara sin encontrar otra molécula. Cuando se elimina una partición entre las cámaras, cada gas alcanza un nuevo equilibrio con el doble de volumen que antes y, por lo tanto, una entropía más alta. Pero este aumento inicial de entropía es un efecto de volumen que se logra sin ninguna interacción significativa entre los dos gases. La suavidad, por supuesto, también aumenta, lo que refleja tanto el aumento de los volúmenes de los gases como la mezcla íntima de los dos.
Bueno. Está bien que diga que el aumento de la entropía está en un sentido cualitativo confuso relacionado con la suavidad, pero no está claro exactamente lo que eso significa, y ciertamente no es la densidad de energía como dice su respuesta principal. Votado a la baja por ahora, estaré feliz de reconsiderarlo si tiene más argumentos.
Lo que sea. Honestamente, no me di cuenta hasta ahora de que su principal preocupación era la parte de la "densidad de energía". Por cierto, ¿estás completamente seguro de que tu ejemplo no implica una pérdida de energía extraíble? Se parece a lo contrario del enfriamiento criogénico extremo que usa campos magnéticos para alinear los espines.
Sí, disculpas si no quedó claro. Verá en los comentarios anteriores que ese es el punto al que seguí regresando. Re: mi ejemplo, no me imagino cambiando dinámicamente el campo magnético durante el equilibrio, sino simplemente preparando el mismo experimento en diferentes campos iniciales. Así que la extracción de energía no es un problema.
Realmente creo que necesitas analizar tu propio ejemplo un poco más de cerca. No se pueden mezclar estados de espín hacia arriba y hacia abajo a niveles moleculares, incluso con átomos neutros, sin incurrir en implicaciones de redistribución de energía. Su ejemplo específico de electrones arriba y abajo es en realidad un ejemplo particularmente malo, ya que cada una de las dos poblaciones estaría nominalmente internamente en exclusión total de Pauli debido a sus espines compartidos. Permitir que se mezclen daría como resultado un emparejamiento inmediato de electrones arriba y abajo y una liberación bastante considerable de energía del mismo orden que una reacción de enlace químico fuerte.
Me imagino una configuración idéntica a la paradoja estándar de Gibbs ( en.wikipedia.org/wiki/Gibbs_paradox ), pero con conjuntos de electrones en lugar de átomos. Como es habitual en este tipo de experimentos, estoy tomando un límite clásico diluido, por lo que las estadísticas cuánticas son irrelevantes. Como sugirió anteriormente, esto es similar a su ejemplo de un gas neutro muy diluido, pero con la diferencia de que, dado que estamos hablando de partículas fundamentales indistinguibles, podemos imaginar con bastante precisión que no hay una diferencia de energía relevante entre las poblaciones.
Para cualquier persona interesada, hice una pregunta de seguimiento para resolver este problema: physics.stackexchange.com/questions/219830/…
@TerryBollinger Eres un genio y un valiente por atreverte a dar esta respuesta. A diferencia de los defectos que viven a mi alrededor que piensan que la entropía se trata de desorden. Sí, cuanto más desordenado, mayor es la entropía, pero el verdadero problema es la distribución uniforme del posible estado de codificación en una celda de codificación definida. El valor final depende de cuán fino sea su estado de codificación y cuán pequeña sea su celda de codificación.

En términos de la temperatura, la entropía se puede definir como

(1) Δ S = d q T
lo cual, como notarás, es realmente un cambio de entropía y no la entropía misma. Por lo tanto, podemos escribir (1) como
(2) S ( X , T ) S ( X , T 0 ) = d q ( X , T ) T
Pero, somos libres de establecer el punto cero de la entropía en lo que queramos (para que sea conveniente) 1 , por lo que podemos usar
S ( X , T 0 ) = 0
para obtener
(3) S ( X , T ) = d q ( X , T ) T
Si suponemos que el calor sube d q se determina a partir de la capacidad calorífica, C , entonces (3) se convierte en
(4) S ( X , T ) = C ( X , T ) T   d T


1 Esto se debe al pedido perfecto esperado en T = 0 , eso es, S ( T = 0 ) = 0 , según la tercera ley de la termodinámica.

Señor, ¿entonces toda la entropía inicial es 0 o no?
@ user36790: puede convertirlo en cero, pero eso no significa que tenga que ser cero.
Señor, ¿puede darme un ejemplo donde inicial S no es 0?
No fuera de mi cabeza, pero creo que hay algunos.
@ user36790 Si en el estado de energía más bajo puede tener muchas configuraciones (es decir, es degenerado), como sería el caso, por ejemplo, del modelo Ising (el modelo más simple de cómo ocurren las transiciones de fase en los imanes). Este punto es bastante importante si tuviera que calcular las energías libres (o, de manera más general, las densidades de los estados) de algunos modelos computacionales utilizando, por ejemplo, el algoritmo de Wang-Landau. Sin embargo, normalmente nunca estaría interesado en los valores absolutos de estas cantidades, sino más bien en cómo cambian.
@ user36790 no puede medir el valor absoluto de la energía, el potencial ni la entropía. En estos casos, generalmente definimos un caso simple como 0, pero eso es solo conveniencia. Nada cambia si decides tu entropía en T 0 es 15400.
Es X la ubicación en el medio?
@ChaseRyanTaylor sí, esa parece ser mi intención.

Puede configurar la entropía de su sistema bajo temperatura cero a cero de acuerdo con la definición estadística S = k B en Ω . Entonces el S bajo otra temperatura debe ser S = 0 T d q T .

Su segunda ecuación es más una definición de la temperatura en el conjunto microcanónico.
¡No puedo creer que una respuesta como esta obtenga más apoyo!

En la termodinámica clásica sólo importa el cambio de entropía, Δ S = d q T . A qué temperatura se pone cero es arbitrario.

Tienes una situación similar con la energía potencial. Uno tiene que fijar arbitrariamente algún punto donde la energía potencial se ponga a cero. Esto se debe a que en los cálculos mecánicos solo importan las diferencias de energía potencial.

El concepto de entropía es muy abstracto en termodinámica. Tienes que aceptar las limitaciones de la teoría a la que quieres ceñirte.

Al ir a la mecánica estadística, se obtendrá una imagen menos abstracta de la entropía en términos del número de estados disponibles. ρ en algún pequeño intervalo de energía, S = k en ( ρ ) . Todavía aquí todavía tenemos el tamaño arbitrario del pequeño intervalo de energía,

S = k en ( ρ ) = k en ( Ω mi Δ mi ) = k en ( Ω mi ) + k en ( Δ mi )
Aquí Ω ( mi )  es el número de estados cuánticos del sistema con energía menor que mi . El último término es algo arbitrario.

Entonces, señor, ¿puedo tomar la entropía inicial siempre como 0?
@ user36790 Sí, siempre que sea consistente en su elección de qué estado tiene S = 0, puede hacer lo que quiera.

La definición de un concepto físico puede ser una forma diferencial pero no puede ser la diferencia de funciones. Δ S = S final S inicial es una ecuación pero no la definición de entropía. La termodinámica en sí misma ahora difícilmente puede explicar "cuál es realmente la entropía", la razón por favor vea a continuación.

1.Definición de Clausius

d S = ( d q T ) Rvdo

Preguntas: 1) Desde d q / T 0 , S no se puede demostrar que sea una función de estado en matemáticas, solo puede depender del ciclo reversible de la máquina térmica, esto no parece una base perfecta en el sentido habitual, y es una única excepción como la definición de la función de estado tanto en matemáticas y física. Como principio fundamental, los cambios de función de estado deben ser independientes del camino tomado, ¿por qué la definición de la entropía es una excepción? 2) La definición de Clausius no puede explicar el significado físico de la entropía.

  1. La ecuación fundamental de la termodinámica.

d S = d tu T Y   d X T j m j   d norte j T + pags   d V T .

Preguntas: 1) La ecuación incluye la diferencia de funciones, ¿cuál es esta diferencia? 2) La ecuación no puede explicar el significado físico de la entropía.

3) Entropía de Boltzmann

S = k en Ω .

Pregunta 1) Ω dependen del postulado de igual probabilidad a priori, pero este postulado no necesita ser considerado en termodinámica. En general, el postulado de la misma probabilidad a priori no puede cumplirse para la energía potencial mecánica y la energía libre de Gibbs, una reacción química proviene del gradiente de potenciales químicos Δ m pero no la probabilidad igual a priori. El postulado se puede aplicar para describir el movimiento térmico, pero no es adecuado para las interacciones.

+1 por mencionar la relación termodinámica fundamental (en su forma más general), que es realmente la forma más precisa de definir cambios en la entropía en términos de cambios en otras variables termodinámicas, si uno no quiere entrar en la mecánica estadística significado de entropía.

Primero, debe comprender que Rudolf Clausius reunió sus ideas sobre la entropía para dar cuenta de las pérdidas de energía que eran evidentes en la aplicación práctica de la máquina de vapor. En ese momento, no tenía la capacidad real de explicar o calcular la entropía, aparte de mostrar cómo cambiaba. Esta es la razón por la que estamos atascados con mucha teoría en la que observamos deltas, el cálculo fue la única maquinaria matemática para desarrollar la teoría.

Ludwig Boltzmann fue el primero en dar realmente a la entropía una base firme más allá de simples deltas a través del desarrollo de la mecánica estadística. Esencialmente, fue el primero en comprender realmente el concepto de un microestado, que era un vector en un espacio multidimensional (por ejemplo, uno con dimensiones potencialmente infinitas) que codificaba toda la información de posición y momento de las partículas compuestas subyacentes. Dado que se desconocía la información real sobre esas partículas, el microestado real podría ser uno de los muchos vectores potenciales. La entropía es simplemente una estimación de la cantidad de vectores posibles que realmente podrían codificar la información sobre las posiciones y los momentos de las partículas (recuerde, cada vector individual codifica la información sobre todas las partículas).

Es este último uso de la entropía para medir nuestro nivel de conocimiento lo que llevó a Claude Shannon a utilizar la maquinaria de la entropía en la mecánica estadística para desarrollar la teoría de la información. En ese marco, la entropía es una medida de las posibles permutaciones y combinaciones que podría tomar una cadena de letras. Comprender la entropía de la información es muy importante para comprender la eficacia de varios esquemas de cifrado.

En cuanto a definir la temperatura en términos de entropía. En general, se consideran medidas distintas pero relacionadas del macroestado de un sistema. Los diagramas de temperatura-entropía se utilizan para comprender la transferencia de calor de un sistema. En mecánica estadística, la función de partición se utiliza para codificar la relación de temperatura y entropía.

Sitios web útiles

Este sitio web es muy útil; consulte la ecuación 420, la temperatura está incrustada en la definición de beta. Este sitio web explica la definición de entropía de Rudolf Clausius. Este sitio web habla sobre Claude Shannon y sus contribuciones a la teoría de la información. Este sitio web explica la historia de la entropía y algunas de las diferentes definiciones. Este sitio web habla sobre la vida y la definición de entropía de Ludwig Boltzmann. Este sitio web explica con más detalle la relación entre la temperatura y la entropía.

Se puede alcanzar un estado de equilibrio de mayor entropía desde el estado de menor entropía mediante un proceso irreversible pero puramente adiabático. Lo contrario no es cierto, nunca se puede alcanzar adiabáticamente un estado de menor entropía desde un estado de mayor entropía. En un nivel puramente fenomenológico, la diferencia de entropía entre dos estados de equilibrio, por lo tanto, le dice cuán "lejos" están de ser alcanzables el estado de menor entropía desde el de mayor entropía por medios puramente adiabáticos. Así como la temperatura es una escala que describe la posibilidad de flujo de calor entre cuerpos de diferentes temperaturas que interactúan, la entropía es una escala que describe los estados de un cuerpo en cuanto a qué tan cerca o lejos están esos estados en el sentido de un proceso adiabático.

Como regla general, la física se vuelve más fácil cuando las matemáticas se vuelven más difíciles. Por ejemplo, la física basada en el álgebra comprende un montón de fórmulas aparentemente no relacionadas, todas y cada una de las cuales deben memorizarse por separado. Agrega cálculo y ¡guau! Muchos de esos temas supuestamente dispares colapsan en uno solo. Agregue matemáticas más allá del nivel introductorio de cálculo y la física se vuelve aún más fácil. Las reformulaciones lagrangianas y hamiltonianas de la mecánica newtoniana son mucho más fáciles de comprender, siempre y cuando puedas comprender las matemáticas.

Lo mismo se aplica a la termodinámica, con creces. Solía ​​haber un sitio web que proporcionaba más de 100 declaraciones de las leyes de la termodinámica, la gran mayoría de las cuales abordaban la segunda y la tercera ley de la termodinámica. Las diversas descripciones cualitativas fueron bastante hilarantes. La mayoría de esas dificultades que tiran de los pelos desaparecen cuando se utilizan las matemáticas más avanzadas de la mecánica estadística en lugar de las matemáticas de la termodinámica de nivel de segundo año.

Por ejemplo, considere dos objetos a dos temperaturas diferentes en contacto entre sí. Las leyes de la termodinámica dictan que los dos objetos se moverán hacia una temperatura común. ¿Pero por qué? Desde la perspectiva de la termodinámica, es "¡porque yo lo digo!" Desde la perspectiva de la mecánica estadística, es porque esa temperatura común es la temperatura que maximiza el número de estados disponibles.

Esta es una observación correcta y útil, y es algo que probablemente deberían escuchar muchos usuarios de este sitio. Pero... en realidad no aborda la cuestión; en cambio, explica por qué no va a responder la pregunta.

Ya que mi aporte no es valorado y apreciado. Esta será mi última publicación aquí.

  • ¿Qué es realmente la entropía? Respuesta: Información o más precisamente lo contrario de información.
  • ¿Cuál es una característica principal de la entropía? Respuesta: Cuanto más uniforme, mayor entropía (menor información).

Ahora, vayamos a la parte rigurosa. Esta definición de entropía unificará ambas definiciones de la respuesta más votada anterior.

  • Dada una codificación fija (descripción básica, bloque axiomático) de un sistema, el inverso de la entropía (es decir, información) es la longitud mínima de lo que puede crear para describir completamente el sistema.

En el mundo de la física, describimos un sistema como un área del espacio con contenido en él. Arreglemos la codificación de la descripción teniendo los siguientes bloques:

  1. Las partículas básicas en el espacio.
  2. Las formas básicas: líneas, superficies, etc... (que son ecuaciones matemáticas)
  3. El sistema de coordenadas (cómo se define el espacio en celdas)

Si el espacio es completamente uniforme, lo que significa que simplemente podemos describir el espacio diciendo: Así es como se ve una celda en este espacio y es así en cualquier otro lugar del espacio. Esta es una descripción breve (est) del espacio, lo que significa que este espacio distribuido uniformemente tiene poca información (se puede describir con una cadena breve y sencilla). Y poca información significa alta entropía. Un ejemplo es un libro cuyo contenido contiene solo la letra 'b'. Podemos describir el libro con sólo ( b × 10 , 000 ) veces, es una descripción corta ya que los libros tienen poca información y alta entropía. Si sabes un poco de informática, entonces reconocerás la 10 , 000 veces es una compresión y la fuente de eso en parte en la fórmula de la entropía

Cuando el espacio está distribuido de manera menos uniforme, aún podemos describir el espacio con una breve descripción como: así es como se ve el contenido de una celda típica. Se ve así en todas partes excepto en las celdas con las siguientes coordenadas [...] La parte de excepción también puede usar las formas básicas de la codificación como: A lo largo de esta línea, en esta superficie las celdas tienen este tipo de contenido. La idea principal aquí es que la descripción se hace cada vez más larga. Esto significa que el espacio tiene más información y menor entropía. Por supuesto, hay muchas formas de describir el mismo espacio complicado, pero la longitud de la descripción más corta es el número para definir la información y la entropía del espacio.

Ahora deberíamos ser conscientes de un espacio con poca información, pero descrito por una cadena larga. Esto no significa que el espacio tenga baja entropía (alta información). Un ejemplo de este tipo de espacio y descripción es un espacio distribuido uniformemente con la letra b y la descripción del espacio es "bbbbbbbbbbb..." repetido muchas veces, lo que lleva a una descripción larga e innecesaria/sin comprimir.

Ahora extendamos esto a la temperatura en la física. Dado que la temperatura va de la mano con el movimiento de partículas en el espacio. Tenemos que extender el sistema de coordenadas para tener en cuenta el tiempo (ya que sin tiempo, no podemos describir el movimiento y el movimiento). Esto significa agregar otra dimensión al sistema de coordenadas.

Lo mismo sucede con la característica de distribución uniforme. A baja temperatura, donde las partículas no se mueven, podemos describir el espacio en un momento dado y decir Es así también en todos los demás momentos . Una vez más, la descripción es breve. Este espacio tiene poca información y alta entropía. Cuando hay movimientos, debe agregar más descripción, como: "las partículas se mueven con este patrón matemático en el espacio descrito por esta ecuación". La longitud mínima de la descripción aumenta y el nivel de información aumenta con movimientos más difíciles de describir. Tienes que usar más combinación de ecuaciones matemáticas básicas para describir el movimiento.

La mayor cantidad de información proviene del espacio que no puede ser descrito por la codificación dada al principio. Tienes que describirlo uno por uno para cada celda en cada momento en el tiempo.

Mi nota final es que: el espacio cerrado no tiene interacción exterior. Este espacio no tiene cambios en la información y la entropía. Los patrones de movimiento (si hay movimiento) son cíclicos. Puedes describirlo en cada momento del ciclo y decir luego se repite . Una descripción del espacio puede no ser perfecta, pero si es la parte central de la descripción más corta, aún puede describir el espacio de manera imperfecta pero precisa. Con más agregado, se vuelve "más perfecto".

La entropía juega un "papel complementario" a lo que hace la energía interna. La energía interna -o más bien su cambio- mide la cantidad de energía que posee un sistema termodinámico. La entropía -o más bien su cambio- mide -en cierto sentido- la calidad de esta energía. Cuanto menor sea la entropía, mayor será la calidad.

Hay una distinción molecular entre la transferencia de energía como trabajo y calor. La transferencia de energía como trabajo se realiza de forma ordenada. Durante el levantamiento de un peso, las moléculas se mueven uniformemente hacia arriba. Por otro lado, el calor es la transferencia de energía a través de las colisiones aleatorias de moléculas. Por eso una fórmula como

d S = d q T ,
tiene sentido. Si queremos que el cambio de entropía nos sirva como medida de desorden, debe ser proporcional al desorden introducido en el sistema, la transferencia de energía desordenada (también conocida como calor) d q . Además, si el sistema ya está muy desordenado (alta temperatura), el aumento relativo del desorden es pequeño. Esto explica por qué la temperatura debe estar en el denominador (la potencia correcta se determina solo de forma técnica). Hay una bonita analogía donde d q está representado por un estornudo y T se relaciona con el desorden de algún ambiente. Si estamos en una biblioteca tranquila, el desorden es pequeño y un estornudo perturbará tanto el sistema que el desorden aumentará mucho. En cambio si estamos en una calle muy transitada, muy desordenada, al mismo estornudo le corresponderá un incremento de desorden bastante pequeño.

Como ejemplo concreto de calidad , consideremos una máquina térmica que opera entre dos depósitos térmicos de temperatura caliente y fría, T h y T C , respectivamente. La energía total que ingresa al motor es | q h | , el calor procedente de la fuente caliente. El trabajo entregado es

W = | q h | | q C | ,
dónde | q C | es el calor cedido a la fuente fría. Después de un ciclo completo del motor, el cambio de entropía del sistema (motor+fuentes) es solo el cambio de entropía de las fuentes, es decir
Δ S = | q h | T h + | q C | T C .
Por la segunda ley de la termodinámica este cambio no puede ser negativo por lo que
| q C | T C T h | q h | .
Reemplazando esto en la expresión del trabajo entregado por nuestro motor obtenemos
W | q h | ( 1 T C T h ) ,
es decir, el trabajo máximo se entrega cuando desaparece el cambio de entropía. Eso es lo que quise decir con calidad de la energía.

La entropía es simplemente la cantidad de desorden. Olvídese de las ideas de temperatura, porque el espacio no estructurado (como antes del Big Bang) tiene un desorden completo donde hay casi 0 temperatura (clásica). Digo "clásico" porque decir que hay una "temperatura" ya es imponerle un orden.

¿Qué es el orden, entonces? La cantidad de conexión. Esto es lo que debería ser medible con algún especificador o unidad como referencia de estado base (en el sentido griego: indivisible) y luego la entropía (o la cantidad de información que estaba contenida dentro de la masa, digamos) sería su inversa .

Apenas hay información en el aire, por ejemplo, por lo que tiene una alta entropía. Por otro lado, hay mucha información en una masa de plomo (en relación con el resto del universo multidimensional, en algún lugar del orden de m*c 2 , supongo), por lo que tiene una entropía baja.

¿Qué es realmente la entropía ?

Quiero responder (!) a esta pregunta desde un punto de vista diferente.

En primer lugar, me concentro en su título y la frase "realmente". No sabemos qué es realmente la entropía. Tampoco sabemos qué es realmente la energía, y cualquier otra cosa o concepto también. La entropía, como todos los demás conceptos creados por los humanos, es una convención entre algunas personas para referirse al mismo (!) pensamiento o sentido .

Quiero mencionar un ejemplo aquí. Quiero preguntar "¿Qué es realmente el color verde?" La respuesta es la misma: “No lo sabemos”. Pero generalmente hablamos de eso con otras personas y si nadie sabe qué es el verde, ¿cómo pueden entender sus objetivos? ¿Cómo se ha creado esta concordancia (o sincronía (lo siento por el mal inglés)) entre los pensamientos o sentidos de los humanos? La respuesta es “El paso del tiempo crea esa concordancia”. ¡El paso del tiempo nos ayuda a entendernos sin saber cómo nos entendemos!

Creo que otro ejemplo intuitivo puede ayudar. Quiero referirme a la educación ordinaria de los niños. Ningún niño sabe por qué 1 + 1 = 2 o 1 más 1 es igual a 2 (Honestamente, tampoco lo sé, ¡incluso ahora!). Solo ven (!) algunas formas como 1 , 1 , + , = y 2 , y los más avispados esos pueden analizar más que sus compañeros, dicen consigo mismos “Cuando veo estas formas 1 + 1 = , debo dibujar esta forma 2 después de la = .” De hecho, no piensan en “Qué son esas formas” y lo que es importante y maravilloso aquí es que después de un período (el paso del tiempo) y la repetición creen que han aprendido a sumar y ¡fue tan simple! Este proceso también está ocurriendo en niveles y edades elevados. Uno de mis profesores decía (no sé si es cierto o no, solo cito): “Si le preguntas a un ingeniero japonés qué es el estrés, él/ella no puede responderte pero construyen buenos puentes, máquinas, etc. .” Creo que si no pueden hablar de la realidad del estrés, es porque han pasado por el mismo proceso de educación. Cuando los estudiantes de ingeniería ven la fórmula del estrés σ = F A , es extraño para ellos. Cuando ellos mismos escriben esa fórmula, su extrañeza se reduce un poco. Y después de algún tiempo y repetición, piensan que el estrés nunca ha sido extraño para ellos mientras que no saben qué es el estrés incluso después del paso del tiempo y la repetición.

Tal vez digas que has visto a algunas personas que son capaces de hablar sobre el estrés durante horas. Tienes razón, pero incluso esas personas no saben lo que es el estrés. Porque para definir el estrés se ayudan de otros conceptos o cosas y como mencioné antes, no conocemos todos los conceptos y cosas. Su explicación es demasiado útil para disminuir el tiempo necesario para crear el pensamiento o sentido común , pero no elimina la ignorancia.

Entonces, si no puedes entender la entropía, debería decir: “No te preocupes. Lo entenderás sin que sepas cómo lo has entendido si tienes paciencia y repites. ¡El paso del tiempo hará bien su trabajo!”

No sé por qué esto es rechazado. ¿Es por mi pobre inglés? Por cierto, creo que esta es la única publicación que responde la pregunta. No puedo ver ninguna realidad en otras respuestas.
Todas las palabras humanas son "convenciones entre personas para referirse a un mismo pensamiento o sentido", lo que hace que esto como una explicación de lo que denota una palabra específica sea singularmente inútil. Y sí, 1 y + y 2 también son tales convenciones, pero una vez que haya definido 1,+,= y 2 por separado, 1+1=2 se convierte en una declaración no trivial (a menos que haya definido 2 por eso). Del mismo modo, una vez que hemos establecido un diccionario fundamental de mecánica estadística, la noción de entropía y las afirmaciones sobre ella también se vuelven no triviales.