¿Cómo se conectan entre sí las diferentes definiciones de entropía?

En muchos lugares a través de Internet, he tratado de entender la entropía.

Se presentan muchas definiciones, entre las cuales puedo formular tres (corríjame si alguna definición es incorrecta):

  1. Entropía = desorden, y los sistemas tienden al mayor desorden posible
  2. Entropía = distribución de energía, y los sistemas tienden a la distribución de energía más posible
  3. Entropía = información necesaria para describir el sistema, y ​​los sistemas tienden a describirse en menos líneas
  4. Entropía = modo estadístico, y el sistema tiende a pasar a un estado microscópico que es uno de los estados más abundantes que puede poseer.

Ahora, tengo estos ejemplos contrarios en mi mente:

  1. Desorden => ¿qué tal un copo de nieve? ¿Qué es el desorden? ¿Cómo nos ponemos de acuerdo sobre lo que está ordenado y lo que está desordenado? Porque para mí un copo de nieve es un ejemplo perfecto de orden.
  2. Distribución de energía => entonces, ¿por qué ocurrió el Big Bang? Como dicen, el universo era un pequeño punto de energía distribuida por igual. Ahora el universo es una repetición de densidad de energía y vacío.
  3. Información => podemos describir el universo antes del Big Bang en una oración simple: un punto de energía, X grados Kelvin . Pero necesitamos billones de billones de líneas de descripciones para poder describir el universo.
  4. Modo => Nuevamente, antes del Big Bang, o incluso en épocas tempranas del universo, teníamos estados uniformes que eran los estados más abundantes posibles.

Estoy atascado en esta definición filosófica muy fundamental.

Puedo entender el ejemplo de la "taza de café", por supuesto, o el ejemplo de "tu habitación se desordena con el tiempo". Esos son ejemplos muy claros. Pero estoy atascado en estos ejemplos. ¿Puedes aclararme esto por favor?

Está tratando de cubrir la aplicación de la entropía a demasiadas áreas, desde la cosmología hasta la teoría de la información. Te sugiero que te concentres en uno o dos.
@BobD ¿No se supone que las leyes físicas abarcan todo? Quizás no entendí tu comentario.
@BobD, creo que este es uno de los raros casos en los que no es posible concentrarse en una sola aplicación, ya que la pregunta está básicamente relacionada con las definiciones aparentemente excesivas. Esa es una pregunta razonable y buena.
Se olvidó de mencionar la definición original de entropía de Clausius/termodinámica, cuando se inventó literalmente la palabra "entropía". Quizás sea menos esclarecedor, pero es la entropía real en la que se inspiran todas las explicaciones estadísticas.
physics.stackexchange.com/q/244621 responderá algunas de sus preguntas sobre la entropía en el universo primitivo.
@SaeedNeamati: Independientemente de que las leyes físicas abarquen todo o no, eso no significa que una ley sobre X se aplique inherentemente a todos los significados posibles de la palabra X. Más ingeniosamente, la teoría de la gravedad no explica de ninguna manera la gravedad de la situación política actual en los EE. "Gravedad" tiene diferentes significados, cada uno de los cuales se refiere a un concepto completamente diferente, aunque figurativamente vinculado por ser "pesado".
"Desorden => ¿Qué tal un copo de nieve? ¿Qué es el desorden?" La pregunta no es cómo se desordena un copo de nieve, sino que si dejo caer desordenadamente un montón de palos en el suelo, es astronómicamente poco probable que tomen la forma de un copo de nieve (o cualquier otra forma simétrica).
Me gustaría agregar a la confusión con este enlace: phfaist.com/entropyzoo . Hay muchas definiciones interrelacionadas de entropía.
Un copo de nieve no es un sistema cerrado. Si todas las partes de un sistema tuvieran que tender hacia la entropía, no habría copos de nieve ni vida.
La descripción sucinta menos mala que conozco es simplemente "falta de información".
Definiría la entropía en general como "una medida estadística de la improbabilidad de un determinado arreglo y, por lo tanto, una medida de la cantidad de orden que contiene" . Esta definición no requiere energía, ni nada físico.
Las leyes físicas lo abarcan todo solamente en este universo. El Big Bang es anterior al universo. Estas leyes físicas que conocemos no se mantuvieron ni siquiera poco tiempo después del Big Bang. Es raro que nadie hable de eso. ¿Me equivoco?
"¿Porque para mí un copo de nieve es un ejemplo perfecto de orden?" Un copo de nieve es literalmente una metáfora bien conocida de desorden/singularidad. Los copos de nieve siguen reglas cuando crecen (ángulos de 120 grados, etc.), esto da ciertos "patrones". Sin embargo, el número de permutaciones y combinaciones de estos patrones es astronómico.
Para un ejemplo más simple. Los lanzamientos de monedas al azar resultan en cara o cruz. Un lanzamiento de moneda rara vez resulta en Banana Split Sundae, por ejemplo. Esto no hace que los lanzamientos de monedas sean un ejemplo perfecto de orden.
En primer lugar, debe comprender que todas las diferentes interpretaciones que mencionó representan la historia de la entropía. Surgió de una investigación sobre la eficiencia del motor térmico en el siglo XVIII, pero a medida que la ciencia progresó, la forma en que se vio e interpretó cambió. Primero vino la distribución de energía, luego con Boltzmann vinieron las estadísticas y el caos (para explicar la no reversibilidad de los fenómenos físicos), luego vino la información (cuando la física cuántica tomó prestada de la teoría de la información), pero la última interpretación es todavía un trabajo en progreso.
Tu número 3 está al revés: la entropía es la falta de información. Los sistemas que tienden a una mayor entropía se pueden describir como "los sistemas tienden a ser desordenados y necesitan muchas líneas para describirlos", si lo desea.
Honestamente, esta pregunta parece demasiado amplia (sé que ya hay algunas buenas respuestas, así que no quiero marcar ...): responder al OP lo suficiente parecería requerir escribir un libro.

Respuestas (8)

Su preocupación por las demasiadas definiciones de entropía está bien fundada. Desafortunadamente, existe una confusión vergonzosa, incluso en la literatura científica sobre este tema. Las respuestas que puede encontrar incluso en los sitios de SE simplemente reflejan este estado de cosas.

La respuesta corta es que no hay nada como un concepto único de entropía . Hay muchos conceptos diferentes pero correlacionados, que podrían haber sido nombrados de otra manera. Tienen alguna relación directa o indirecta con la entropía termodinámica, aunque no suelen coincidir con ella sin supuestos adicionales.

Solo una lista parcial de diferentes conceptos, todos los nombres de entropía contienen

  1. Entropía termodinámica.
  2. Entropía del sistema dinámico.
  3. Entropía de la mecánica estadística.
  4. Entropía de la teoría de la información.
  5. Entropía algorítmica.
  6. Mecánica cuántica (von Neumann) entropía.
  7. Entropía gravitacional (y de agujeros negros).

Aunque todas estas cantidades se denominan entropía , no son del todo equivalentes. Una lista esquemática de la gama de sistemas que se pueden aplicar y alguna relación mutua podría ayudar a organizar un mapa mental en un panorama conceptual tan confuso.

Permítanme agregar un descargo de responsabilidad preliminar. No voy a escribir un tratado completo sobre cada entropía posible. La lista pretende ser un mapa aproximado. Sin embargo, incluso si me estoy perdiendo alguna relación importante (¡no pretendo ser un experto en todas las formas de entropía!), la imagen general debería ser correcta. Debería dar una idea sobre la no equivalencia genérica entre diferentes entropías.

1. Entropía termodinámica

Se puede aplicar a sistemas macroscópicos en equilibrio termodinámico o incluso a sistemas que no están en equilibrio, siempre que se pueda justificar algún tipo de equilibrio termodinámico local (LTE) para pequeñas regiones del sistema. LTE requiere que cada subregión sea lo suficientemente grande como para despreciar el efecto de las fluctuaciones relativas (las cantidades termodinámicas locales deben estar bien definidas), y los tiempos de relajación son más rápidos que los tiempos típicos de evolución dinámica. La termodinámica habitual requiere la posibilidad de controlar el trabajo y el calor intercambiado por el sistema y depende de manera crucial de algunas dinámicas microscópicas subyacentes capaces de conducir el sistema hacia el equilibrio.

2. Entropía del sistema dinámico

El presente y otros elementos deben contener sublistas. Bajo este nombre, se pueden encontrar entropías para sistemas dinámicos abstractos (por ejemplo, la entropía métrica introducida por Kolmogorov y Sinai ) y sistemas dinámicos caóticos continuos. Aquí, la entropía correspondiente no requiere un estado de equilibrio, y las propuestas recientes para entropías de no equilibrio (un ejemplo está aquí ) se pueden clasificar bajo este título.

3. Entropías de la mecánica estadística

Inicialmente, se introdujeron en cada conjunto de mecánica estadística para proporcionar una conexión con el concepto de termodinámica. En principio, hay una entropía diferente para cada conjunto. Expresiones tan diferentes coinciden para una amplia clase de hamiltonianos solo en el llamado límite termodinámico(TL), es decir, para sistemas con un número macroscópicamente grande de grados de libertad. Tenga en cuenta que los hamiltonianos tienen que satisfacer algunas condiciones para que TL pueda existir. Además de la coincidencia de entropías en diferentes conjuntos, también se requiere TL para garantizar que las entropías de la mecánica estadística satisfagan algunas propiedades clave de la entropía termodinámica, como las propiedades de convexidad o extensiva. Por lo tanto, se podría decir que la entropía de la mecánica estadística es una generalización de la entropía termodinámica, más que equivalente.

3. Entropía de la teoría de la información

Esta entropía es la conocida fórmula de Shannon

S i norte F o = i pag i registro pag i
dónde pag i son las probabilidades de un conjunto completo de eventos.

Está claro que S i norte F o requiere sólo una descripción probabilística del sistema. No se requiere ningún equilibrio termodinámico, la energía de un estado, y no existe conexión con el trabajo y el calor, en general. S i norte F o podría considerarse una generalización de la entropía mecánica estadística, coincidiendo con ésta sólo en el caso de una función de distribución de probabilidad de equilibrio de variables termodinámicas. Sin embargo, S i norte F o se puede definir incluso para sistemas sin ninguna dinámica intrínseca.

4. Entropía algorítmica

En la lista actual, es la única entropía que se puede asignar a una configuración individual (microscópica). Su definición no requiere grandes sistemas, distribución de probabilidad, dinámica intrínseca o equilibrio. Es una medida de la complejidad de una configuración , expresada por la longitud de su descripción más corta.

La relación de la entropía algorítmica y la entropía de la información es que si hay un conjunto de configuraciones, el valor promedio (en el conjunto) de la entropía algorítmica proporciona una buena estimación de la entropía de la información. Sin embargo, hay que tener en cuenta que la entropía algorítmica es una función no computable.

6. Mecánica cuántica (von Neumann) entropía

Aunque diferente desde el punto de vista formal puede considerarse una generalización de las ideas de Shannon para describir un sistema cuántico. Sin embargo, conceptos como equilibrio térmico o calor no juegan ningún papel en este caso.

7. Entropías gravitatorias (y de agujeros negros)

Se puede pensar en un conjunto de estrellas en una galaxia como sistemas, al menos en LTE. Sin embargo, su termodinámica es bastante peculiar. En primer lugar, no es extensivo (la energía crece más rápido que el volumen). La equivalencia de los conjuntos no se sostiene y es bien sabido que el calor específico microcanónico es negativo. Un comportamiento similar pero no exactamente igual se encuentra para la entropía del Agujero Negro propuesta por Beckenstein. En este caso, la cantidad que hace el papel de entropía es el área del horizonte de eventos del Agujero Negro. Aunque se ha demostrado que esta entropía comparte muchas propiedades de la entropía termodinámica y puede evaluarse dentro de la teoría de cuerdas contando la degeneración de los estados adecuados, queda por establecer su conexión con la entropía termodinámica.

¿Qué pasa con el desorden?

Queda por discutir la relación entre entropías (plural) y desorden.

Es posible asociar a cada entropía un concepto específico de desorden . Pero es fácil adivinar que, en general, no será igual para todos.

El único desorden asociado con la entropía termodinámica es el desorden relacionado con cómo se almacenan cantidades extensas en diferentes subsistemas del mismo estado macroscópico. Dentro de la termodinámica, un estado macroscópico bien ordenado es un estado donde las cantidades extensas se concentran espacialmente. El máximo desorden coincide con una dispersión de las extensas variables de estado para asegurar la misma temperatura, presión y potencial químico en cada subvolumen.

Dentro de la mecánica estadística clásica, se puede asociar el desorden al número de microestados disponibles en el espacio de fase. Nótese sin embargo, que este desorden , en general, no tiene nada que ver con la definición usual de orden espacial. La razón está relacionada con el papel no intuitivo de las interacciones entre partículas y el hecho de que la entropía mecánica estadística está relacionada con contar el número de microestados.

Probablemente, la entropía con mayor conexión con el significado habitual de desorden es la entropía algorítmica. Pero eso también es lo más difícil de evaluar y lo más alejado de la entropía termodinámica.


Una pequeña posdata

Una ilustración pedagógica del desacoplamiento completo entre el orden configuracional y la entropía proviene de la fórmula de Sackur-Tetrode para la entropía del gas ideal clásico . Muestra que la entropía es directamente proporcional a la masa de los átomos, mientras que el espacio de configuración accesible y la probabilidad de cada configuración espacial son los mismos.

"desorden" (¿también?) tiene que ver con la información: un arreglo aleatorio necesita más información para describirlo completamente que uno que está más "ordenado".
@kutschkem, seguro. La entropía algorítmica se puede conectar directamente a la información. Sin embargo, para evitar ambigüedades, se debe definir con precisión qué significa información, azar y desorden. Desafortunadamente, en la vida cotidiana, usamos esos términos de manera bastante vaga. La lección aprendida de las entropías es que si queremos usar estos términos en oraciones científicas debemos especificar claramente qué definición estamos usando.
Para ampliar la lista de diferentes definiciones de entropía y sus relaciones: phfaist.com/entropyzoo .
Vi una conferencia en línea de Hamming, y creo que dijo: llamar dos cosas iguales no significa que estén relacionadas de ninguna manera (refiriéndose a la entropía de la información)
Siento que esta respuesta bien intencionada solo aumenta la confusión. Muchos de sus ejemplos son simplemente casos especiales de otros, no definiciones independientes. Tal vez los matemáticos y los informáticos tengan sus propias cosas no relacionadas llamadas "entropía", pero en física en realidad solo hay una definición.
El problema es que popsci describe esa definición de muchas maneras diferentes (básicamente como "desorden", "caos", "dispersión", "ignorancia" o "energía térmica"), las cuales no brindan la totalidad foto sin mas contexto. Pero la definición en sí es inequívoca.
@knzhou, lo siento, pero no estoy de acuerdo. ¿Dónde ve un caso especial cuando tiene una entropía BH que es una función convexa de una variable extensiva mientras que la entropía termodinámica es una función cóncava de sus variables naturales? Sólo dos ejemplos de Física. ¿Existe realmente una sola definición?
@knzhou, de hecho, hay un concepto común subyacente detrás de cada cantidad llamada entropía. Pero esto no implica que podamos mezclar libremente aplicaciones de una misma idea general. También el sistema dinámico es un concepto unificador general. ¿Sumamos el vector de posición del centro de masa de un planeta a una solución de ecuación de onda? ¿No decimos que son sistemas dinámicos diferentes? Lo mismo para la entropía. Incluso si hay una idea común subyacente, seguimos hablando de entropías y, en general, no se nos permite combinarlas.
La entropía del agujero negro es exactamente el mismo tipo de entropía que la entropía termodinámica ordinaria... si un agujero negro tiene entropía S , y se evapora, y capturas toda la radiación de Hawking en una caja, las cosas en la caja tendrán entropía termodinámica S . El hecho de que un agujero negro tenga menos variables extensivas no importa, y de todos modos ni siquiera es cierto, ya que pueden transportar carga y momento angular.
De manera similar, la entropía de un sistema cuántico es, en todos los sentidos, el mismo tipo de cosa que la entropía termodinámica; puede intercambiar uno por el otro en motores térmicos que involucran sistemas cuánticos. Si realmente fueran totalmente diferentes, los físicos no les habrían dado los mismos nombres.
@knzhou. Nunca escribí que las entropías son totalmente diferentes. Solo subrayé que no coinciden [...] sin suposiciones adicionales . Creo que es una declaración justa consistente con los hechos sobre el estado conceptual de los diferentes conceptos denominados "entropía". Seguramente sabes que las fórmulas denominadas "entropía" en diferentes conjuntos son compatibles entre sí y con la termodinámica, solo bajo la condición adicional del límite termodinámico.

La razón por la que Entropy tiene tantas descripciones no es porque haya sido diseñada para ello. Nadie empezó con todas esas cosas llamadas Entropía.

Entropy comenzó con una cosa. Y luego se descubrió que un montón de otras cosas estaban relacionadas, tanto matemática como físicamente, con esa única cosa.

Tiempo atrás se observó que toda la energía útil acaba convirtiéndose en calor inútil y difuso. Este proceso se llamó Entropía. Sabían que sucedió. No sabían por qué.

Así que ese es el comienzo. Entropía, cuando se nombró originalmente, era solo una descripción de algo que sucede cada vez que hurgas en el universo y miras lo que sucede. Esa energía se convierte en calor residual inútil.

Cualquier otra definición de Entropía se debe a que era una forma de describir por qué o cómo sucede eso, o porque las matemáticas se alinearon con otras matemáticas de Entropía. Y, sorprendentemente, a menudo ese alineamiento de las matemáticas en realidad termina teniendo un significado físico.

Esto se conoce como la irrazonable eficacia de las matemáticas en las ciencias naturales ; los patrones matemáticos continúan explicando cosas sobre el universo, y esto es ingenuamente muy sorprendente e irrazonable.


Entonces, volviendo a Entropy. Empezamos con la ciencia observacional. Esa cosa del calor residual:

Se observó que el calor fluye de las cosas calientes a las cosas frías. Esto fue modelado matemáticamente con valores como la temperatura y el flujo de calor. Esta es una ley de la entropía, que la energía térmica fluye de las cosas calientes a las cosas frías y no al revés. A partir de él puedes generar una increíble cantidad de poder descriptivo sobre el universo.

Luego viene Boltzman, quien toma ese "flujo de calor" y lo describe de manera más abstracta. Describe "macroestados"; algo que podemos describir en nuestra escala elegida. Divide su descripción de lo que podría suceder en un montón de macroestados (tantos o tan pocos como desee).

En cada macroestado hay muchísimos "microestados" indistinguibles (a nuestra escala) que producen el "mismo" macroestado.

Un microestado es un microestado porque, si bien es diferente de otros microestados, no nos importa cuando describimos originalmente nuestros macroestados.

Por ejemplo, "hay una mesa en la habitación" es un macroestado. Los rasguños en la mesa, la ubicación exacta de la termita en ella, la velocidad actual del átomo de carbono en el centro geométrico de la mesa, todo eso no está descrito por mi macroestado. Entonces, llamamos microestados a todos los estados físicos reales que agrupamos en ese macroestado.

Si cuenta esos microestados en cada macroestado, encontrará que un sistema cerrado casi siempre se mueve hacia los "macroestados" más comunes desde los más raros. Y esto es suficiente para describir la transferencia de energía de los objetos calientes a los fríos; el número de microestados en dos objetos tibios es increíblemente mayor que el número de microestados que describen un objeto caliente y otro frío.

Esto es extraño. Pero resulta que cuando vamos y contamos cuántos estados tiene un macroestado dado, en lugar de obtener "la mesa en la habitación tiene 10 mil millones de estados" y "los escombros de la mesa tienen 15 mil millones de estados", es decir, los dos los números son relativamente similares, obtenemos algo loco como "caso de escombros tiene 10 1000000 veces más microestados que la tabla". (El número exacto no es exacto, el punto es que es un factor ridículamente enorme, no uno pequeño)

Esto es tan cierto que terminamos midiendo el número de microestados tomando el logaritmo. Entonces obtenemos que la mesa tiene X Entropía, y los escombros tienen X+1000000 Entropía. Sólo un millón más de unidades de entropía; pero debido a que esto está en una escala exponencial, eso es en realidad 10 1000000 veces más estados.

Esta descripción estadística de la entropía coincide con la anterior: explica por qué la energía térmica fluye de los objetos calientes a los fríos y por qué la energía útil termina emitiéndose como calor residual difuso "inútil".

Extraño. Pero no lo suficientemente extraño. Ahora las cosas se ponen extrañas.

Muy lejos en matemáticas, alguien estaba trabajando en un tema llamado Teoría de la Información. Esto es útil para hacer cosas como descubrir cómo pasar más información a través de un cable o una señal de radio; cuanto puedes enviar ¿Puedes mejorar este protocolo con uno que envíe más? ¿Cómo se solucionan los errores causados ​​por el ruido aleatorio? Dada una oración en inglés, una pieza musical o una imagen, ¿cuánto se puede comprimir y recuperar el original después?

Shannon generó una medida de información en un sistema. Y, sorprendentemente, termina funcionando como lo hace la Entropía física; las mismas ecuaciones matemáticas gobiernan ambos. Y, con trabajo, puede conectar la entropía de la información de Shannon con la entropía estadística de Boltzman de manera física.

A partir de ahí obtienes más abstracciones y remezclas. Las cosas que "se comportan como" Entropía en un nuevo dominio se llaman Entropía . Y, a menudo, cuando se conecta de nuevo con la física macroscópica y la transferencia de calor, se trata del mismo fenómeno y se deduce que "la energía tiende a volverse inútil, calor difuso".


Ahora, parte de su confusión es que está mirando hacia atrás al Big Bang y diciendo "¡pero ese fue un estado de entropía realmente baja!".

Y sí, lo fue. Vamos a tener una entropía mucho más baja que la que tenía el universo cuando ocurrió el Big Bang.

¿Por qué ocurrió el Big Bang? Eso no lo explica la Entropía. La entropía nos dice por qué el Big Bang nos lleva y por qué el Big Bang debe ser un punto de entropía extremadamente baja. No todas las partes de la realidad se explican con todas las partes de la teoría científica. Para investigar los "orígenes" del Big Bang tendrás que usar más que las leyes de la Entropía.

La entropía se aplica a un sistema cerrado; partes de ese sistema pueden tener Entropía reducida, pero solo a costa de aumentar más la Entropía en otras partes del sistema. Los copos de nieve o los humanos no son contradicciones de las leyes de la entropía, porque en ambos casos se formaron como parte de un sistema más grande.

Además, la descripción de su información está al revés. La entropía es una medida de la cantidad de información que se requeriría para describir completamente un sistema, y ​​nunca disminuye. Esto significa que el Big Bang, como estado de baja entropía, es la fase del universo más simple de describir completamente.

Ahora, esta "descripción completa" tiende a ser extremadamente aburrida. Estás haciendo algo como describir la ubicación y el movimiento de cada partícula, individualmente (estoy ignorando QM aquí; tiene su propia definición de entropía que es consistente, pero no es algo en lo que voy a entrar aquí). Cuando tienes una habitación llena de gas rebotando al azar, eso es más difícil de describir que el mismo número de partículas dispuestas en una cuadrícula regular.

Supongamos que tomamos la habitación llena de gas, la congelamos y tallamos una escultura elegante del cristal resultante. Para nosotros, la forma que adopta el cristal es más interesante que la aburrida "habitación llena de gas". Pero describir completamente esa estatua de cristal resulta ser increíblemente más fácil; las partículas están más restringidas en posición y velocidad, forman una cuadrícula regular en lugar de un gas caótico. La forma exacta del cristal no requiere tanta información, pero limita la cantidad de estados en los que los átomos pueden estar en una gran cantidad. Es un estado de muy baja entropía, cuando describe todo completamente.

Simplemente nos aburre la sala de gas, pero nos interesa la estatua de cristal, así que hablamos más de la estatua que de la sala de gas.

A los humanos a menudo les gustan las cosas de baja entropía. Nuestros cerebros combinan patrones, y las cosas de baja entropía tienen muchos patrones. Las cosas de alta entropía tienden a ser manchas "aburridas", ya que restringir las cosas a un patrón es una reducción masiva en las posiciones en las que pueden estar las partículas de escala atómica.


Seamos concretos.

Entonces, ¿por qué no podemos romper un huevo?

El truco "macro/macroestado" es un poco divertido. En contra de nuestra intuición, los macroestados de alta entropía tienen un número increíblemente grande de microestados en comparación con los estados de baja entropía. Cuando convertimos la entropía en un número, tomamos el logaritmo del número de microestados. Entonces, cada 'unidad' de entropía es un aumento exponencial en el número de microestados.

Una situación de entropía 'alta' podría tener una entropía miles o millones de unidades mayor; ahora tómalo ey elévalo a una potencia de un millón. Así de veces mayor es el número de microestados que tiene el macroestado de alta entropía.

Si pasar de un estado a otro es casi uniforme, pasar de un macroestado con X veces 10 1000000 más estados de vuelta a un estado con X estados va a ser, bueno, no muy probable . Y eso es lo que pasa cuando quieres deshacer un huevo. Hay un número simplemente ridículo de estados de "huevo roto" y muy pocos estados de "huevo intacto". La caída del huevo al suelo interrumpe el macroestado algo estable de "huevo intacto" y lo mueve a un estado aleatorio en el estado combinado (huevo roto + huevo intacto).

Pasar del estado combinado (huevo intacto + huevo roto) de regreso a un huevo intacto requiere que alcancemos uno de esos X estados entre las X veces 10 1000000 estados combinados rotos e ininterrumpidos.

Así que ahora le das el huevo roto a una gallina (bueno, muchos huevos rotos). Y sale un solo huevo intacto. ¿Cómo?

El pollo toma las moléculas aún de baja entropía en el huevo roto y usa su energía "ordenada" para ordenar otras moléculas dentro de sí mismo. Este motor emite calor (energía de alta entropía) y concentra algunos materiales de baja entropía dentro del pollo. Esos materiales de baja entropía se convierten a su vez en desechos de alta entropía y se usan para construir otros materiales de baja entropía (nuevas células, crean membranas que concentran calcio, hacen que la sangre que transporta azúcares y oxígeno vaya a una célula que se convertirá en un huevo, transcribe ADN en ARN y ARN en proteínas, etc.).

Después de consumir una pila de materia de baja entropía y convertirla en calor de mayor entropía y materia de desecho (¡caca!), toma algo de materia y la organiza en un huevo.

Este proceso no es 100% eficiente. Ese pollo produjo más entropía en los productos de desecho que la diferencia entre las materias primas y el huevo terminado. Un sistema cerrado con una gallina, que pone un huevo, luego le devuelves el huevo a la gallina, no puede producir nuevos huevos sin que el motor biológico de la gallina se dañe.

Por lo general, la entrada a este proceso es a través de la alimentación de los materiales vegetales de pollo, que a su vez convirtió el CO2 en el aire en materia vegetal de baja entropía al absorber la luz solar de baja entropía.

El sol, a su vez, produce luz al tomar hidrógeno de baja entropía y fusionarlo en helio de mayor entropía. La presión para hacer eso fue alimentada por el colapso gravitatorio, donde una falta de uniformidad en el gas interestelar hizo que algunos se acumularan, irradiaran calor a medida que caía (ese calor es energía de alta entropía), atrajeron más gas y crecieron hasta el centro. estaba lo suficientemente caliente y presurizado para iniciar la fusión.

El combustible de hidrógeno para el sol fue un remanente del big bang de baja entropía. Al principio del Big Bang hacía demasiado calor para que los neutrones y los protones permanecieran pegados. A medida que se enfriaba, comenzaron a fusionarse, pero la velocidad de enfriamiento fue tan rápida que no todo el hidrógeno se convirtió en helio, y no hubo suficiente tiempo a la presión y temperatura requeridas para fusionar todo en hierro (la disposición del núcleo atómico de mayor entropía). de neutrones y protones).


Imagina el mundo como una pendiente extremadamente empinada que también es extremadamente, extremadamente larga.

Rebotando por la pendiente hay rocas. Estas rocas rebotan en el suelo y pierden energía. Al hacerlo, pierden impulso hacia adelante.

Pero están en una pendiente, por lo que también se caen. Esto los mantiene en marcha.

Intentar que una roca ruede cuesta arriba en medio de esta avalancha es increíblemente difícil. Hacer que ruede cuesta abajo es muy fácil.

Ahora, incluso podrías usar las rocas para construir un patrón, pero ese patrón también tiene que rodar cuesta abajo; no puede permanecer estacionario. La pendiente es demasiado empinada.

El universo, por lo que podemos decir, tiene una pendiente de entropía extremadamente empinada desde el big bang. Recogemos restos de materia de baja entropía, principalmente hidrógeno, del Big Bang, lo convertimos en luz de baja entropía, lo convertimos en plantas de carbón, lo enterramos todo y hacemos que se descomponga en hidrocarburo, quemamos esos hidrocarburos para hacer funcionar nuestras plantas de carbón, haz que vibren electrones para producir energía eléctrica, utilízalo para convertir el mineral de aluminio en metal puro y haz funcionar máquinas que estampan latas, luego abre la lata y bebe un poco de agua limpia de ella.

Cada una de esas cosechas es como usar la energía de una de esas rocas que caen (como nosotros mismos también estamos cayendo) para hacer las cosas.

La expresión general para la entropía de un sistema que está en un macroestado particular en términos de Ω , el número de microestados asociados con ese macroestado.

S = k B en Ω
Suponemos que el sistema se encuentra en un macroestado particular con energía fija.


¡Lo anterior funcionará para todos los casos!

Debes hacer diferentes preguntas para todas las dudas. Lo siguiente podría ser útil

Solo por curiosidad y para futuras investigaciones, ¿qué es Ω ¿aquí?
El número de microestados asociados con ese macroestado.
@Saeed: esta es la mejor respuesta a su confusión. Esta es probablemente la definición central de entropía para la mayoría de los físicos. Ω es el número de formas en que la energía del objeto se puede distribuir entre los bits que forman el objeto. O, si se quiere, Ω es el número de microestados del objeto compatibles con su macroestado (es decir, la energía del objeto).
Tenga en cuenta también: hay una definición alternativa utilizada por algunos autores (Landau y Lifshitz, por ejemplo), en la que la constante k de Boltzmann no aparece en la definición de entropía S. Es solo una cuestión de gusto. La única restricción es que (temperatura * entropía) debe tener la unidad de energía.... Cuando k no se usa en la definición de S, entonces S es un número puro, sin dimensión/unidad.

De hecho, un copo de nieve es bastante ordenado. Hay menos formas en las que un montón de moléculas de agua pueden formar un copo de nieve que formas en las que pueden formar una gota de agua, con todas ellas moviéndose por todas partes.

Pero eso solo significa que el copo de nieve se forma en un proceso que hace que la entropía aumente en otro lugar. El agua que se congela emite calor, ese calor aumenta la entropía de su entorno. Lo mismo es cierto para los organismos vivos: son materia muy ordenada, pero al precio de comer, y por tanto desbaratar, mayores cantidades de materia.

Además de aumentar la entropía al convertir "grandes cantidades de materia" en productos de desecho moleculares más pequeños, los organismos vivos también emiten mucho calor, lo que aumenta la entropía del entorno.

tl;dr La ignorancia de la entropía. Eso es todo. Las otras descripciones son aproximaciones y/o casos especiales. Esta respuesta parcial señala que la entropía es subjetiva, en lugar de independiente del contexto, para ayudar a abordar un punto común de confusión.


La entropía no es real.

La entropía es modelo-subjetivo, incluyendo contexto/observador-subjetivo. No es un valor real y universal; no existe independientemente del contexto. Comprender esto ayudará a evitar mucha confusión sobre las aparentes contradicciones.

Experimento mental que comúnmente se malinterpreta.

Experimento mental:

  1. Considere un gas ideal en un frasco de vidrio. En un momento inicial, un lado tiene helio, el otro tiene neón.

  2. A medida que comienza el tiempo, tendemos a esperar que los gases se mezclen en una mezcla bastante uniforme, lo que a menudo se describe como un estado de alta entropía.

  3. A veces, el gas se desmezclará espontáneamente, con el helio y el neón nuevamente separados, por ejemplo, como en el tiempo inicial.

  4. ¿La entropía volvió a su valor inicial?

Aquí está la cosa: la entropía no es real. Pertenece al modelo, no al sistema físico real. Entonces, lo que hace un sistema físico real no importa porque, en primer lugar, la entropía nunca se trató de ese sistema físico real.

Más bien, lo que la entropía nos diría es que, después de un tiempo arbitrario, se puede predecir que el sistema se seleccionará de manera justa del conjunto de posibles estados alcanzables, la gran mayoría de los cuales no están separados. Esto no es violado por una desmezcla del sistema ya que predice la desmezcla como un estado posible (aunque raro).

Si un experimentador observa un sistema que ha considerado que tiene la entropía máxima y lo encuentra desmezclado, entonces puede volver a considerar ese sistema físico en la entropía baja. Esto, nuevamente, no es una contradicción: simplemente han construido un nuevo modelo, informado por la observación física. El viejo modelo que predice la máxima entropía al mismo tiempo sigue siendo igualmente válido. Estos modelos pueden existir simultáneamente sin contradicción (aunque, obviamente, tenderemos a preferir un modelo más informado).

Conclusión: La entropía es subjetiva, no real.

La entropía es un tema enorme que está involucrado en muchas cosas. En última instancia, es una calificación de ignorancia, que se puede definir formalmente, aunque se envuelve con una gran cantidad de mecanismos específicos de casos que hacen que la palabra "entropía" implique cosas adicionales en diferentes contextos.

La sugerencia de esta respuesta es mantener un enfoque en su subjetividad: que siempre se trata del modelo dependiente del contexto del observador, no de los sistemas del mundo real. No olvide que el gas desmezclado puede considerarse de máxima o mínima entropía, según el marco contextual del observador, sin contradicción.


Relacionado: La probabilidad no es real.

Las probabilidades tampoco son reales, lo que podría ser un mejor punto de partida que la entropía (ya que la probabilidad es un poco más simple).

Una pregunta bastante graciosa fue

en el que el niño del OP pensó que ganar la lotería tenía un 50% de probabilidades. Lo curioso es que, por extraño que parezca, ¡el niño tenía razón! No es que recomiende a nadie que compre boletos de lotería, sino que el niño aplicó correctamente la razón estadística de la manera normal, llegando a un resultado defendible (aunque gracioso).

La crítica de la evaluación de " probabilidades del 50% " no sería que esté mal , en un sentido técnico, sino que está mal informada. Es como la evaluación del " gas ideal desmezclado en la entropía máxima ": es correcta, solo que está mal informada de la observación de que el gas se desmezcló.

En resumen, sugeriría pensar en cómo funcionan las probabilidades y por qué son inherentemente subjetivas. Esto puede conectarse bien con averiguar la entropía.


Experimento mental: El problema de Monty Hall.

El problema de Monty Hall es un divertido experimento mental de la cultura pop que también demuestra la probabilidad subjetiva.

Básicamente:

  1. Hay un programa de juegos con 3 puertas, con un premio detrás de una.

  2. Un concursante elige una puerta, luego el anfitrión quita una de las otras puertas que no tenían el premio detrás.

  3. El concursante puede cambiar de su selección actual a la otra puerta restante. ¿Deberían ellos?

Al parecer, algunas personas no cambian. Piensan que la probabilidad es real (independiente del contexto), y dado que la puerta restante era tan probable como su selección inicial, las probabilidades no mejorarían al cambiar.

Por supuesto, les falta una observación importante: las otras dos puertas, juntas, tenían 2 de 3 probabilidades de ser correctas, y dado que se eliminó una incorrecta, el concursante puede obtener esa probabilidad de 2 en 3 seleccionando la puerta restante. Por el contrario, su puerta actual todavía tiene probabilidades de 1 en 3.

La lección en la que hay que centrarse aquí es que la probabilidad/entropía/etc. no pertenecen al sistema físico actual, sino a modelos del mismo.

¿Qué modelo subyace a la definición termodinámica introducida por Clausius?
@GiorgioP: Esa es una gran pregunta (especialmente porque toca la implicación más sorprendente, acerca de que los valores aparentemente empíricos son subjetivos en lugar de reales incluso en contextos clásicos), pero en resumen, el marco de Clausius fue en gran medida mecánico en el seguimiento de causa/efecto a través del calor/ trabajo, describiendo procesos reversibles que tenían cero entropía. Pero en la práctica, estos modelos ideales eran abstracciones de las que se retiraría, ya que los ideales se violaron de maneras que eran difíciles de capturar explícitamente. Entonces, los retiros se cuantificarían ampliamente como entropía.
@GiorgioP: Clausius analiza su versión de " La teoría mecánica del calor " (1879, ( PDF )), en el Capítulo 10, PDF-página 226 (página impresa 212). " Así, en lugar del principio anterior, que la suma de todas las transformaciones debe ser cero, debemos establecer nuestro principio de la siguiente manera, para incluir variaciones irreversibles: - La suma algebraica de todas las transformaciones que ocurren en un El proceso cíclico debe ser siempre positivo, o en el límite igual a cero .
@GiorgioP: En resumen, idealmente no necesitaríamos entropía, sino cantidad, por ejemplo, pérdidas por fricción no como fugas arbitrarias, sino como interacciones mecánicas explícitas. La ignorancia de la entropía sobre exactamente dónde se podría entender que existen esas pequeñas interacciones mecánicas explícitas que idealmente querríamos modelar.
Esta es una respuesta absolutamente brillante Nat. Siempre se debe enfatizar que cada principio matemático que se aplica para describir un sistema físico es simplemente un modelo, ya sea una ecuación diferencial o una optimización en 10 6 variables en el entrenamiento de una red neuronal. La gente trata de prescribir un significado filosófico profundo a algo que, en última instancia, es solo práctico, es una fusión muy común porque las cosas útiles siempre se mantienen más cerca del corazón humano: seguimos siendo solo monos emocionados por nuestra propia capacidad de iniciar un incendio.
Entonces, la complejidad de Kolmogorov, también conocida como entropía algorítmica, solo depende del modelo hasta una constante. Dados dos modelos, puede calcular una constante C tal que los dos modelos coincidan en el valor de entropía que asignan a un grupo de datos por una diferencia de C como máximo; podemos limitar la cantidad de dependencia del modelo en Entropía.

Creo que la gran cantidad de respuestas a esta pregunta te dice que no es una pregunta fácil. Si bien puede ser una locura agregar (otra) respuesta a la pila, quería dar (otra) perspectiva ligeramente diferente.

Creo que el problema no es que la entropía esté mal definida o sea ambigua . La entropía tiene una definición clara y precisa. Dada una función de densidad de probabilidad pag ( X ) eso depende de algunas variables X , la entropía es

S d X pag ( X ) registro pag ( X )

Sin embargo, la forma típica en que calculamos y usamos la entropía requiere que tomemos más decisiones, y uno tomará decisiones diferentes en diferentes aplicaciones.

  • Primero, para calcular la entropía para una distribución dada (en otras palabras, para hacer la integral anterior), necesitamos especificar el espacio de estados posibles (necesitamos conocer todos los valores posibles de X ), y necesitamos una medida d X en este espacio. Para definir este espacio, es posible que debamos considerar restricciones para determinar si un estado dado se considera o no "posible".

  • En segundo lugar, por lo general no estamos interesados ​​en la entropía per se. Estamos interesados ​​en encontrar la función de densidad de probabilidad que maximiza la entropía. Para maximizar la entropía necesitamos especificar cuál es el espacio de funciones de densidad de probabilidad sobre el que vamos a maximizar.

En física (específicamente en termodinámica/mecánica estadística), normalmente nos interesan las distribuciones de probabilidad sobre el espacio de microestados de un sistema. Por ejemplo, para un gas, definiríamos una distribución de probabilidad sobre cada configuración posible del gas, cada posición e impulso posibles para cada molécula de gas.

Como se mencionó anteriormente, tenemos que considerar las restricciones impuestas al sistema. Podemos considerar que el sistema tiene una energía total fija y un número de partículas. Entonces las distribuciones de probabilidad solo serán funciones de microestados que tengan la energía y el número de partículas prescritos. La distribución de probabilidad resultante que maximiza la entropía bajo esta restricción se denomina conjunto microcanónico. También podemos considerar que la energía del sistema puede variar pero el número de partículas es fijo (el conjunto canónico ), o que la energía y el número de partículas pueden variar (el gran-canónicoconjunto). Dependiendo del espacio de microestados permitidos, la distribución de probabilidad que maximiza la entropía será diferente. Esto no es sorprendente: a medida que cambia el espacio de las distribuciones "permitidas", no es sorprendente que encuentre que los máximos del "paisaje" de entropía cambian; sin embargo, puede ser confuso porque a menudo la notación y el lenguaje ocultan el hecho. que la entropía depende de información adicional más allá de las que aparecen explícitamente en la fórmula anterior.

Alejándose de un gas, uno puede calcular la entropía para muchos tipos diferentes de sistemas físicos, incluido el Universo primitivo. Sin embargo, será necesario pensar en el espacio de fase apropiado y, en particular, en la medida apropiada utilizada para contar los microestados (este es un desafío particular en la física del Universo primitivo). También debe quedar claro que la entropía se puede aplicar en contextos no físicos; por ejemplo, calcular la entropía de un archivo de texto equivale a evaluar distribuciones de probabilidad sobre ciertas combinaciones de letras. La noción de entropía dependerá de cómo defina el espacio de letras y palabras "permitidas".

Otra fuente potencial de confusión es que en física, hay ciertas simplificaciones o límites que se hacen a menudo, que son completamente correctos en el contexto. Pero, si un libro los usa como punto de partida (lo que suele ser una buena idea desde el punto de vista pedagógico), la conexión con la definición anterior puede no ser clara. En aplicaciones de física, la distribución de probabilidad que maximiza la entropía asigna el mismo peso a todos los microestados. En este caso, pag ( X ) = pag es una constante independiente de X . De hecho podemos escribir pag = 1 / Ω , dónde Ω es el número total de microestados. En este caso, la integral de entropía se reduce a la forma habitual de "Boltzmann"

S = registro ( 1 / Ω ) Ω d X = registro Ω Ω Ω = registro Ω
desde d X 1 es solo el número total de microestados.

Una vez que tenga esto, puede usar la mecánica estadística para derivar las reglas típicas que obedece la variable de estado llamada entropía en la termodinámica clásica.

Las definiciones citadas en su pregunta en realidad se centran en la evolución de la entropía a lo largo del tiempo, no en lo que es la entropía en sí. Menciono esto porque es importante que mantengamos estas cosas separadas en la discusión.

Probablemente cualquiera que desee comprender el concepto de entropía, en lugar de simplemente memorizar las fórmulas, se enfrenta al sentimiento que usted expresa: las definiciones comúnmente ofrecidas lo dejan a uno inquieto, carente de intuición.

Me estremezco cada vez que escucho a alguien usar la definición de entropía del desorden popular . Como dices, esta definición solo deja a uno insatisfecho con las preguntas necesarias "¿Qué es el orden ?" y "¿Qué es el desorden ?" ¡Son tortugas hasta el fondo! ¿Es una habitación desordenada realmente menos ordenada que una habitación que sentimos que está ordenada? Cuando las personas usan esta descripción, en realidad intentan describir lo que le sucede a la entropía con el tiempo en un sistema cerrado, no qué es la entropía . es decir, hay muchas más formas de que una habitación se considere "desordenada" que ordenada. Por lo tanto, una habitación desordenada tiene una probabilidad significativamente mayor y, naturalmente, se volverá más desordenada con el tiempo sin intervención.

Ofrezco dos referencias que, en combinación, darán respuestas abundantemente satisfactorias a todas sus preguntas sobre la entropía.

  1. Termodinámica de Enrico Fermi (muy disponible)
  2. Charles Kittel & Herbert Kroemer's Thermal Physics 2nd Edition, WH Freeman and Company, 1980

La Termodinámica de Fermi contiene una derivación maravillosamente concisa pero completa del concepto clásico de entropía, junto con relaciones derivadas entre varias formas de energía. Menciona brevemente la derivación de Boltzmann de S = k   yo o gramo ( π ) donde k es la constante de Boltzmann, y π es proporcional a la probabilidad de ocupar un estado particular. Sin la derivación de este último, esto todavía deja a uno sin intuición de lo que es la entropía.

Para comprender qué es la entropía, basta la primera (!) página, segundo párrafo de la Referencia 2, con una descripción perfectamente sucinta de la entropía: "La entropía mide el número de estados cuánticos accesibles a un sistema".

Continúa diciendo:

Un sistema cerrado podría estar en cualquiera de estos estados cuánticos y (suponemos) con igual probabilidad. El elemento estadístico fundamental, la suposición lógica fundamental, es que los estados cuánticos son accesibles o inaccesibles para el sistema, y ​​es igualmente probable que el sistema se encuentre en cualquier estado accesible como en cualquier otro estado accesible. Dados g estados accesibles, la entropía se define como σ = yo o gramo   gramo . La entropía así definida será función de la energía tu , el número de partículas norte , y el volumen V del sistema, porque estos parámetros entran en la determinación de gramo ; también pueden entrar otros parámetros. El uso del logaritmo es una conveniencia matemática: es más fácil escribir 10 20 que mi X pag ( 10 20 ) , y es más natural que dos sistemas hablen de σ 1 + σ 2 que gramo 1 gramo 2 .

Cuando dos sistemas, cada uno de energía específica, se ponen en contacto térmico, pueden transferir energía; su energía total permanece constante, pero se eliminan las restricciones sobre sus energías individuales. Una transferencia de energía en una dirección, o quizás en la otra, puede aumentar el producto gramo 1 gramo 2 que mide el número de estados accesibles de los sistemas combinados. La suposición fundamental sesga el resultado a favor de la asignación de la energía total que maximiza el número de estados accesibles: más es mejor y más probable . Esta afirmación es el núcleo de la ley del aumento de la entropía, que es la expresión general de la segunda ley de la termodinámica.

Ahora bien, ¿cómo obtenemos, en principio, el número de estados cuánticos? Contando, por supuesto.

Menciono una tercera referencia.

  1. Fundamentos de física estadística y térmica de F. Reif

con el propósito de capturar técnicas de conteo en los primeros dos capítulos, y el teorema H derivado en el Apéndice que describe en términos de probabilidad la evolución de la entropía a lo largo del tiempo, junto con la derivación rigurosa de conceptos fundamentales en física estadística.

En esencia, la entropía es una medida del número relativo de posibles estados de un sistema. Este es el hilo común que une todos los ejemplos que cita. Que la entropía debe aumentar se deduce de la definición de probabilidad: cuanto más probable es algo (cuantos más estados representen ese algo ), más a menudo ese algo ocurrirá en un sistema dinámico (a medida que el sistema evoluciona a lo largo del tiempo); es decir, algo ocurrirá en proporción directa a algoprobabilidad de - la evolución de la entropía en el tiempo es simplemente una reformulación de la definición de probabilidad. Para disminuir la entropía, se requiere una intervención, específicamente diseñada para lograr un estado con menor probabilidad. Sin embargo, el agente que interviene (no es necesario que sea un ser sensible) debe ganar más entropía (o produce, a través del calor) de la que extrae.

FYI: Landau/Lifshitz no está de acuerdo con la cita de Kittel/Kroemer con respecto a que el registro es solo una conveniencia. La lógica de Landau se basa explícitamente en vincular la naturaleza aditiva del logaritmo con las integrales aditivas del movimiento (energía).

Dado que las respuestas anteriores explican bastante bien el concepto, intentaré hacer lo mismo, aunque en términos sencillos:
digresión (puede omitir esta parte si está familiarizado con el concepto de 'estados cuánticos accesibles' en Física estadística) - En la página No. 10 de An Introduction to Thermodynamics and Statistical Mechanics de Keith Stowe , el número total de estados accesibles en un espacio de fase clásico viene dado por la expresión muy intuitiva de -
Ω = V r V pag 3 , dónde - V r = volumen disponible en el espacio de coordenadas, V pag = volumen disponible en el espacio de cantidad de movimiento & = constante de Planck reducida (por cierto, así es como la incertidumbre cuántica encuentra naturalmente su camino hacia la física estadística).
Volviendo a la pregunta principal, en la página no. 331, el autor define el número total de estados cuánticos accesibles como -
Ω = Exp S R / k S R = k ( yo norte Ω ) ( 1 )
dónde - S R = entropía del sistema & k = Constante de Boltzmann.
Hablando libremente de la ecuación (1), la entropía de un sistema es proporcional al número de estados cuánticos accesibles (¡esto es la entropía!) cuanto mayor sea la cantidad de espacio (coordenada/momento) disponible, mayor la entropía, mayor el desorden (porque habrá más opciones disponibles para que una partícula en particular se asiente; por lo tanto, "orden" no significa un bien organizado / apariencia externa ordenada, sino que se refiere al número de estados cuánticos accesibles en V r & V pag ), es decir, con solo mirar un sistema desde el exterior, no podemos saber si tiene una entropía más baja o más alta que antes porque es un concepto muy microscópico (el número de estados accesibles es un concepto microscópico) .
De la discusión anterior , incluso si tiene un volumen espacial disponible muy restringido, su entropía aún podría considerarse alta si tiene muchos estados de impulso/energía vacantes (en comparación con un sistema idéntico pero con la mayoría de sus estados de impulso/energía ya lleno). Además, existe una ley comprobada de que la entropía siempre debe aumentar (una propiedad que comparte con el 'tiempo' que también se mueve en una sola dirección).
Para su pregunta sobre Big Bang (puntos n. ° 2 y 3) , el Big Bang no viola la ley de entropía como el espacio de volumen (coordinado) ( V r ) del Universo desde (el Big Bang) solo ha aumentado.
Para los copos de nieve dices Porque para mí un copo de nieve es un ejemplo perfecto de orden. - "orden" (como se mencionó anteriormente) no significa una apariencia exterior bien organizada/ordenada, sino que se refiere al número de estados cuánticos accesibles en V r & V pag . En un copo de nieve, la entropía del hielo es en realidad más alta porque hay muchas formas diferentes de ordenar los protones (átomos de hidrógeno), si conocemos la cantidad de átomos de oxígeno en la red , por lo tanto, un copo de nieve tiene un mayor desorden (o entropía) en comparación al agua por las bajas temperaturas en las que se produce la formación de copos de nieve, y por el Punto núm. 4 sobre "Modos" , ¿qué quiere decir con estados uniformes que fueron los estados más abundantes posibles? ¿Cómo sabe que eran más abundantes y qué significa "uniforme" aquí? Por favor, aclare.
Vayamos a las definiciones de entropía como se menciona en su pregunta una por una :

  • Entropía = desorden, y los sistemas tienden al desorden más posible , explicado anteriormente en la respuesta.
  • Entropía = distribución de energía, y los sistemas tienden a la distribución de energía más posible ; esto significa esencialmente que una partícula en particular tiene una mayor probabilidad de ocupar ese estado que tiene una frecuencia de ocurrencia más alta = p. si un sistema tiene más spin-up ( | ) estados disponibles que estados spin down ( | ), entonces la partícula tiene mayor probabilidad de girar hacia arriba que de girar hacia abajo.
  • Entropía = información necesaria para describir el sistema, y ​​los sistemas tienden a describirse en menos líneas = esta oración parece un poco incompleta pero básicamente se interpretaría como más número de estados se necesita más información para describir un sistema (se necesitarían las líneas anteriores y posteriores para comprender correctamente esta afirmación).
  • Entropía = modo estadístico, y el sistema tiende a pasar a un estado microscópico que es uno de los estados más abundantes que puede poseer. = esto es lo mismo que se describe en el 2 norte d punto de arriba.

PD: por un estado cuántico , nos referimos a su volumen ( V r = d X d y d z & V pag = d pag X d pag y d pag z ) no puede ser conocido más allá de la precisión de 3 .