La entropía es... ¿desorden?

Como leí en alguna parte, decía que el universo se dirige hacia el desorden, también conocido como aumento de la entropía.

Ahora, por lo que sé, la segunda ley de la termodinámica establece que la entropía está aumentando y, al final, la entropía del universo será máxima, por lo que todo evolucionará hacia el equilibrio termodinámico (por ejemplo, la misma temperatura en todo el universo).

Entonces mi pregunta es: ¿el equilibrio no es orden? ¿Por qué se llama a la entropía una medida de desorden si más entropía significa más orden?

¿Por qué crees que equilibrio significa ordenado?
y al final...etc no es del principio.
¿Quieres decir que no de la segunda ley?
sí, es un atajo. Más entropía es más "mayor o igual variedad" que "más o igual desorden". El primero es fáctico, el segundo subjetivo.
@igael Para mí, el segundo es menos que subjetivo... no tiene sentido. Al menos para mí lo es. Nunca he sido capaz de darle ningún sentido. Me gusta tu frase.
@OP: tenga en cuenta que el equilibrio térmico y mecánico son dos cosas diferentes. Este último suele estar asociado con algún ordenamiento (espacial)
Wow, gran pregunta para despertar y tener largas discusiones :-)
si, me di cuenta de eso :D
La entropía se define como el número de microestados y no creo que el equilibrio sea un término equivalente para "orden".
Esencial: Entropía desmitificada: la segunda ley reducida al puro sentido común por Arieh Ben-Naim.
También: Entropía: orden o información ( pubs.acs.org/doi/pdf/10.1021/ed100922x ).

Respuestas (9)

Personalmente encuentro los términos consistentes. Piense en la entropía como propone Boltzman: S = k en W Lo que significa que los estados de alta entropía se pueden realizar a través de muchas configuraciones diferentes. El estado verdaderamente ordenado (suponga que organiza una escultura a partir de átomos) se puede realizar a través de un número mucho menor de estados microscópicos. De nuevo, el equilibrio no es orden, es un caos.

equilibrium is not order - it is a messPodría citarte por esto algún día. +1
Esto no es cierto: una red sólida es una configuración muy ordenada, y es la más probable cuando se enfría un gas o líquido. También diferentes estados de la materia pueden coexistir en ciertas condiciones triviales y en un estado muy estable (es decir, agua en el punto triple).
@rmhleo: procesos como la cristalización tienen lugar porque Δ GRAMO = Δ H T Δ S < 0 y se libera mucha energía reticular.
@Steeven: Me gusta "Todo siempre termina mal" de Peter Atkins. .
El problema de usar "desorden" es que asume una visión microscópica. Los sistemas de equilibrio son complicados a nivel microscópico, pero simples a nivel macroscópico. De hecho, esa es una de las formas en que la termodinámica clásica define el equilibrio "descrito adecuadamente por un pequeño número de variables de estado".

Lo que te falta es la definición microscópica de entropía, una vez que sepas eso, entenderás por qué la gente dice que la entropía es desorden.

El equilibrio como orden

Primero, abordemos su intuición válida de que el equilibrio es una forma de orden. De hecho, si todo está en equilibrio térmico, solo necesita medir la temperatura en algún lugar y luego sabrá la temperatura de todo. En nuestro fuera de equilibrio, mi cuerpo, mi computadora portátil, la habitación, el espacio exterior, todos tienen temperaturas diferentes, y necesito más información para saber el estado de todo, y siento que esto está menos "ordenado" que el caso del equilibrio térmico.

Lo que sucede es que menos información necesaria corresponde a un mayor grado de orden. Bueno, tengamos eso en mente para lo siguiente.

La entropía es un desorden microscópico.

En Física sabemos que las propiedades de los objetos macroscópicos están determinadas por los movimientos de las partículas que los componen. En particular, la temperatura de un gas es el movimiento desorganizado de los átomos que lo componen.

A medida que aumenta la temperatura, los átomos se moverán cada vez más erráticamente y tendrán diversas velocidades en un momento dado.
A medida que lo enfríes, las partículas se moverán cada vez más lentamente, hasta que tal vez se congelen en su lugar, formando un sólido.

¿Cuál de los dos, el retículo inmóvil y regular del sólido o la conmoción zumbante de las partículas que forman un gas, le parece más desordenado ? Definitivamente el segundo. Sabes por la termodinámica que el gas tiene mayor entropía que el sólido. De hecho, existe una fórmula precisa que vincula la variable de estado macroscópica S , la entropía y la concepción microscópica del desorden que describí.

Conclusión: las dos ideas son reconciliables

En la "muerte térmica" proyectada del universo, en todas partes hay temperatura y densidad constantes. En ese sentido, el universo es homogéneo y por lo tanto ordenado. Pero microscópicamente, en los movimientos de las partículas, ese es el estado en el que hay menos orden: sin estructura alguna, solo una gran sopa de partículas zumbantes.

Hmm... realmente interesante, pensé que en el escenario de "muerte por calor" las partículas realmente no se moverán porque la energía no se puede mover en el caso eventual de equilibrio térmico.
Así es: no hay un movimiento coherente de energía de una región del espacio a otra porque todo está en equilibrio térmico. Pero a nivel microscópico, hay movimiento . Recuerde que la temperatura es el movimiento de las partículas: ningún movimiento significaría una temperatura cero absoluta. Las partículas individuales en sí mismas no tienen temperatura: solo posición y velocidad. Se mueven como bolas de billar, chocando e intercambiando energía. El equilibrio térmico significa que las colisiones no tienen el efecto de transportar energía.
Entonces, ¿por qué tenemos más orden ahora, en el momento actual del universo, que en un posible equilibrio térmico? ¿No siguen zumbando las partículas?
De hecho, como la entropía aumenta constantemente, el universo debe haber comenzado con una entropía sorprendentemente baja. El por qué de esto sigue siendo un misterio sin resolver. Para la segunda pregunta: la entropía tiene una definición técnica y se puede calcular con precisión para varias configuraciones macroscópicas. Tal vez pueda comenzar desde aquí en.wikipedia.org/wiki/Entropy_(order_and_disorder) aunque definitivamente este no es el mejor recurso. La charla de Penrose vinculada por @rmhleo también es un muy buen lugar para obtener más.
@griffinwish Porque aparentemente el universo comenzó desde un estado muy ordenado. No creo que se sepa por qué sucedió eso. ( Cualquier estado conduce a uno con la máxima entropía; tenemos una entropía inferior a la máxima, por lo que debemos haber comenzado desde un estado con aún menos)
Exactamente, y finalmente creo que entendí mejor esto. El desorden tiende a aumentar porque hay muchos más estados desordenados que ordenados entonces es más probable que una cosa esté desordenada, ¿no? Al igual que los cubitos de hielo en un vaso y el agua líquida, esta última tiene más entropía porque las moléculas de agua están volando por dentro y no se quedan quietas como en los cubitos de hielo, por lo que hay muchas más formas de organizar esas moléculas en un estado desordenado aumentando así la entropía

En primer lugar, como afirma Madan Ivan: el equilibrio no es orden. Pero puede obtener ciertos sistemas que se encuentran en un equilibrio "local" metaestable (lo que significa que necesita algo de energía para moverlo desde allí), por ejemplo, un cristal. Estos pueden ser muy ordenados.

Intuitivamente: si golpeas el cristal con un martillo, se rompe en pedazos. Esto te acerca al equilibrio global. En el universo como un todo hay intercambio de energía entre dichos subsistemas y la segunda ley de la termodinámica establece que el orden general disminuye por estos procesos.

Así que creo que su problema son los dos usos de la palabra equilibrio. Los equilibrios metaestables pueden ser de orden mientras que el que se utiliza en la segunda ley es el mínimo global.

Un comentario sobre la entropía en general: no hay una sola, hay muchas. En termodinámica solo hay 3 distintos. Los nombres que uso a continuación no son oficiales, ya que la literatura en su mayoría no los distingue.

  1. La entropía de Gibbs :
    S GRAMO = k norte d τ norte pags norte Iniciar sesión ( pags norte )
    donde la suma es sobre todos los estados del sistema y pags norte es la probabilidad de ello. Resulta que esta es una constante de las ecuaciones de movimiento.
  2. La entropía de Boltzmann :
    S B = k 1 d τ 1 pags 1 Iniciar sesión ( pags 1 )
    dónde pags 1 es ahora la distribución de una partícula. Esta entropía es simplemente incorrecta, pero se usa mucho.
  3. Entropía experimental :
    Δ S mi = d q / T
    Este es el que aumenta.

Se puede demostrar que tanto 1. como 3. son cantidades importantes, pero la segunda ley se aplica a la 3. una.

Referencias: Lamentablemente, solo puedo vincular a este http://www.oxfordmartin.ox.ac.uk/event/1348 , que es de donde obtuve la información.

No es de extrañar que no hayas encontrado referencias, porque esto está mal. En particular , la entropía de Gibbs es igual a la entropía termodinámica . La entropía de Gibbs nunca disminuye y no es una "constante de las ecuaciones de movimiento", excepto en el equilibrio, por supuesto.
El artículo de Jayne, al que se hace referencia en el artículo de wikipedia que publicó, se puede encontrar aquí: bayes.wustl.edu/etj/articles/gibbs.vs.boltzmann.pdf Cito del resumen: "(5) la invariancia dinámica del Gibbs H da una prueba simple de la segunda ley para fuerzas arbitrarias entre partículas". Entonces, de hecho, afirma (en la forma oscurecida de H) que la entropía de Gibbs es invariante. Sin embargo, lo que también muestra es que la entropía experimental y la de Gibbs son iguales PARA EL CONJUNTO CANÓNICO. Para una distribución general obtiene entonces que S_E >= S_Gibbs, que es la segunda ley.
Gracias por el enlace. En este artículo, se afirma que la entropía de Gibbs es constante solo en una transformación especial: "Obligue ahora al sistema a llevar a cabo un cambio de estado adiabático (es decir, uno que no involucre flujo de calor hacia o desde su entorno), aplicando algún tiempo- término dependiente en el hamiltoniano (como mover un pistón o variar un campo magnético)." Esta transformación es tanto adiabática como reversible (y, por tanto, isentrópica), por lo que la entropía de Gibbs, como la termodinámica, es constante. Para otras transformaciones la entropía de Gibbs puede variar (como la termodinámica).
Lo que dices ahora es absolutamente correcto. La entropía de Gibbs de un SUBSISTEMA puede variar. Pero el universo como un todo siempre experimenta un cambio adiabático. Acerca de la suposición reversible: creo que todavía es seguro decir que la entropía de Gibbs es una constante de las ecuaciones de movimiento mecánicas cuánticas completas (es decir, la ecuación de Schrödinger), lo que no parece probarse en este artículo. Los procesos termodinámicamente irreversibles eliminan las correlaciones cuánticas, pero aún son microscópicamente reversibles. Intentaré encontrar una referencia para esto.
1) La entropía de un sistema aislado (como el universo) puede aumentar, incluso si las ecuaciones microscópicas de movimiento son reversibles. ¿Realmente no estás de acuerdo con eso? 2) No, en general, la entropía de Gibbs no es una "constante de las ecuaciones de movimiento mecánicas cuánticas completas". Excepto en algunos casos, por ejemplo, un sistema aislado que sufre una transformación reversible . 3) ¿Realmente asumes que el universo está siguiendo una transformación reversible?
En respuesta a sus puntos: 1) No estoy en desacuerdo con que la entropía experimental aumente. Esa es la segunda ley de la termodinámica y es consistente con que la entropía de Gibbs sea constante (ver el artículo de Jayne como se indicó anteriormente). 2) No estoy de acuerdo. 3) Lo único que debes asumir es que sigue las leyes de la Mecánica Cuántica (Ecuación de Schrödinger de Partículas Múltiples, si quieres llevar esto a QFT me voy...)
Vuelva a leer mis comentarios o proporcione más referencias, porque a partir de mi lectura en profundidad del artículo de Jayne, no respalda su afirmación de que la entropía de Gibbs es una "constante de las ecuaciones de movimiento mecánicas cuánticas completas". ¿Quizás te estás perdiendo el punto planteado en mi segundo comentario (usar un cambio continuo de H(t) para un sistema aislado, inicialmente en equilibrio, equivale a tener una transformación adiabática y reversible)? Incluso si asume que el hamiltoniano del universo no es discontinuo en el tiempo, ¿piensa que el universo está en equilibrio?

La entropía no es desorden; es falta de información.

Considere la fórmula de la entropía S = k b Iniciar sesión Ω . Aquí, Ω es el número de microestados (conjuntos de posiciones/momentos de partículas) correspondientes a un macroestado observado (algo macroscópico que podemos observar, como 'el gas tiene volumen V y presión PAGS ). Lo que significa esta fórmula es que la entropía es proporcional a la cantidad de información que nos falta: la cantidad de bits adicionales que necesitaríamos saber, además de conocer el macroestado, para especificar completamente el microestado.

Por ejemplo, considere la transferencia de calor q y trabajo W . Aunque ambos intercambian energía, solo el primero aumenta la entropía. Eso tiene sentido, porque la única diferencia entre la transferencia de calor y el trabajo es que la transferencia de calor se realiza de forma desordenada. No sabemos exactamente cómo sucedió, por lo que nuestra falta de información aumenta.

Dado que la transferencia de calor aumenta la entropía, la máxima entropía se alcanza en el equilibrio térmico. En ese momento, básicamente no sabemos nada en absoluto.

pero ¿no significaría el equilibrio térmico que no existe transferencia de calor en todo el universo? Entonces, básicamente, ¿no sabríamos que no hay nada que saber, por lo tanto, no hay entropía?
No sabrás exactamente dónde está toda la energía. En equilibrio térmico, ¿puede decirme dónde está la molécula #1375039 y qué tan rápido se mueve?
@griffinwish Sin embargo, tenga en cuenta que es poco probable que sea un estado estable: una vez que alcance la entropía máxima, las acciones aleatorias darán como resultado una entropía decreciente . Hay una pequeña idea clara de que eso es lo que es nuestro universo: una mancha de baja entropía que se formó espontáneamente en un "superuniverso" de máxima entropía. La energía y la información se conservan, solo obtiene mínimos locales todo el tiempo, hasta que la burbuja de baja entropía alcanza nuevamente la entropía máxima en unos pocos (cientos) de miles de millones de años. Hay muchos problemas con esa idea, pero... es bastante buena :)
wow.. teoría increíble. Entonces, después de alcanzar la entropía máxima, crearemos otra burbuja de baja entropía. Jaja eso es interesante

No, en realidad este es un mito perpetuado sobre la entropía que incluso los propios científicos (y los planes de estudios escolares) propagan.

Para responder a esto y disipar el mito, haga esta simple pregunta: ¿ desorden con respecto a qué exactamente ?

¿Por qué un gas uniforme está más desordenado que un gas con dos fases?

Por supuesto, un gas uniforme tiene más (otra) simetría, de hecho adquiere las simetrías del entorno subyacente. Pero también el gas bifásico, tiene una cierta simetría (y no otras) derivada del proceso ambiental subyacente. Hasta aquí todo bien. ¿Dónde está exactamente el " desorden " y con respecto a qué y para quién es éste un " desorden "? Creo que entiendes el punto que se quiere decir aquí.

Claramente, aquí se usa un concepto muy subjetivo (por mencionar lo mínimo) de desorden que no se explica en ninguna parte. Sólo se declara como un hecho lo que no lo es.

Algunos toman esto aún más equiparando la entropía con la muerte frente a la vida, lo cual es aún más absurdo. Uno puede tener una serie de jaulas perfectamente ordenadas, pero no tendrá vida en ellas.

Considere esto antes de aceptar cualquier cosa que le arrojen que suene científico (aunque no lo sea)

PD

Si desea la versión científica completa de esta respuesta, consulte (especialmente) los trabajos de I. Prigogine sobre entropía, sistemas dinámicos complejos y sistemas biológicos. ej ., "Del ser al devenir: tiempo y complejidad en las ciencias físicas"

Otras escuelas de termodinámica también tienen enfoques similares y hechos difíciles a considerar. Para una revisión de exposición popular, pero algo completa, por ejemplo: "La flecha del tiempo: un viaje a través de la ciencia para resolver el misterio más grande del tiempo"

Resumir:

entropía

  1. NO es desorden (enfoque mecanicista)
  2. NO es falta de información (enfoque bayesiano/subjetivista),
  3. NO es contrario a la evolución (enfoque de diseño inteligente)
  4. NO es simplemente un efecto estadístico (enfoque cuántico-mecánico/estadístico)
  5. NO está relacionado únicamente con procesos de equilibrio lineal y (estático), de hecho, la entropía y (sí) la segunda ley se han generalizado (diría simplemente aclarado ) para procesos (dinámicos) de no equilibrio / no lineales

Consulte "¿Qué es la segunda ley de la termodinámica y existen límites para su validez?"

resumen

En la literatura científica y de ingeniería, la segunda ley de la termodinámica se expresa en términos del comportamiento de la entropía en procesos reversibles e irreversibles. De acuerdo con la interpretación predominante de la mecánica estadística, la entropía se considera un atributo estadístico no físico, una medida del desorden en un sistema, de la falta de información sobre el sistema o del borrado de la información recopilada sobre el sistema, y ​​se utilizan una plétora de expresiones analíticas. propuestas para las distintas medidas. En este artículo, presentamos dos exposiciones de la termodinámica (ambas 'revolucionarias' en el sentido de Thomas Kuhn con respecto a la mecánica estadística convencional y las exposiciones tradicionales de la termodinámica) que se aplican a todos los sistemas (tanto macroscópicos como microscópicos, incluidos los de una sola partícula o de un solo espín). sistemas), ya todos los estados (equilibrio termodinámico o estable, no equilibrio y otros estados). .. Aquí la entropía emerge como una propiedad microscópica no estadística de la materia.

La entropía es uno de los hechos más básicos (y menos comprendidos, analizados) relacionados directamente con la causalidad, la flecha del tiempo, la mecánica cuántica y la evolución.

De hecho, la mayoría (si no todas) las ecuaciones reversibles en el tiempo son incorrectas (o al menos aproximaciones crudas) en lugar de la entropía y la flecha del tiempo en sí.

Para citar al cosmólogo Arthur Eddington :

La ley de que la entropía siempre aumenta ocupa, creo, la posición suprema entre las leyes de la Naturaleza. Si alguien le señala que su teoría favorita del universo no está de acuerdo con las ecuaciones de Maxwell, entonces tanto peor para las ecuaciones de Maxwell. Si se descubre que la observación lo contradice, bueno, estos experimentadores a veces cometen errores. Pero si se encuentra que su teoría está en contra de la Segunda Ley de la Termodinámica, no puedo darle ninguna esperanza; no le queda más remedio que derrumbarse en la más profunda humillación.

Las referencias dadas arriba disipan todos estos conceptos erróneos.

Esta es la única respuesta válida.

La entropía es un concepto engañoso y difícil de entender. Personalmente tiendo a evitar hablar de sistemas y fenómenos en términos de entropía y/o temperatura porque dicen muy poco de la dinámica, y creo que las leyes dinámicas son las que impulsan el universo.

Cuando escuchamos que los sistemas tienden a aumentar la entropía, decimos que hay leyes dinámicas que los conducen hacia estados de mayor entropía. Pero esto proviene de nuestro conocimiento de que para sistemas simples con comportamiento microscópico elemental (como gases ideales o líquidos ideales) al comparar dos estados de equilibrio, el que tiene mayor entropía es más estable.

Esto podría malinterpretarse como una evidencia de que los sistemas en general evolucionan al aumentar la entropía, lo que puede demostrarse incorrecto. De hecho el universo evoluciona de tal manera que en vez de tender a ser homogéneo, está altamente organizado (galaxias, estrellas, planetas, seres vivos).

Mi enfoque a esto sería doble: primero, la dinámica microscópica no es elemental, lo que significa que las moléculas tienen más grados de libertad de los que concebimos cuando tendemos a pensar solo en términos de entropía para predecir el comportamiento del sistema. Esta es la misma idea de Gibbs cuando amplió la termodinámica clásica al permitir que cambiara el número de moléculas, lo que explica los sistemas en los que pueden ocurrir reacciones. Pero podemos pensar en otros tipos de "cambios cualitativos" (como me gusta llamarlos), como lo hizo Terrell Hill en su concepción de la Termodinámica de Pequeños Sistemas.

En segundo lugar, creo que no debemos olvidar que la dinámica de evolución del sistema físico es fundamentalmente diferente de lo que esperamos al decir que los sistemas tienden a aumentar su entropía, esto simplemente no se verifica y, en mi opinión, es engañoso.

Una nota final al decir que la temperatura, como entropía, se refiere a estados equilibrados y también se cree erróneamente que se comporta de la misma manera que lo hace la energía. Pero no es así: la dinámica de los sistemas no depende de la temperatura, sino de las energías relativas de las partes involucradas. Microscópicamente hablando, la dinámica de la colisión depende de las energías o momentos relativos, más que de su promedio. También en un sistema no equilibrado, la temperatura (entendida como energía cinética media) fluctuará en gran medida espacialmente antes de que todo el sistema alcance el equilibrio.

PD: Sir Roger Penrose tiene argumentos muy interesantes sobre el concepto de Entropía y evolución del Universo en esta charla .

Es engañoso mencionar galaxias y seres vivos como ejemplos de casos donde la entropía no aumenta. Los seres vivos subsisten solo porque comen alimentos de baja entropía, organizados y excretan materia de alta entropía. La segunda ley establece que la entropía de un sistema aislado siempre aumenta. Enfáticamente, un ser vivo no es un sistema aislado: está firmemente incrustado en la Tierra. La Tierra misma se las arregla para mantener una entropía relativamente estable porque absorbe luz de baja entropía del Sol y emite infrarrojos de alta entropía. El propio Penrose lo señala en su charla.
Creo que esos ejemplos muestran cómo la realidad evoluciona de tal manera que da lugar a sistemas altamente ordenados. Esto refuta la idea de que el crecimiento de la entropía es la dirección de evolución de los sistemas. Estoy de acuerdo en que dejar sistemas no es un buen ejemplo de uno físico, ya que los organismos altamente evolucionados pueden actuar activamente contra los procesos físicos. Pero de nuevo, este no es el punto para mencionarlos. Además, una estrella y los planetas son formas más organizadas en comparación con la materia que se unta de manera homogénea.
Quise decir "vivir" en lugar de "dejar" arriba.
Los seres vivos son sistemas físicos y no actúan contra los procesos físicos. Simplemente no son sistemas físicos cerrados . Es cierto que su entropía no aumenta, pero eso es solo porque aumentan la entropía del entorno.
Las estrellas y los planetas son formas de materia más organizadas, en el mismo sentido que una pelota estacionaria en el fondo de un pozo está más organizada que una que rebota frenéticamente. Pero nuevamente, ¡ambos procesos involucraron el aumento de entropía en el universo como un todo! La 2ª ley no es incompatible con la creación de estructura.
Además, permítanme mencionar que estoy de acuerdo en que la segunda ley no es una "ley", al igual que una ley dinámica como F = metro a . Aún así, es un fenómeno muy bien establecido, y algunas personas lo encuentran más fundamental que cualquier "teoría" del movimiento. Además, en cuanto a la vida y la entropía, hace un año salió esto, y creo que os puede resultar interesante. quantamagazine.org/20140122-una-nueva-física-teoría-de-la-vida
No estoy de acuerdo en que todos los sistemas organizados subsisten desorganizando otros sistemas. Y ese argumento no se puede probar, porque el universo observable tiene un comportamiento bastante similar donde la materia forma cúmulos por la acción de la gravedad. Si este sistema solar desorganiza el universo en su proceso de organización, ¿por qué no se aplica lo contrario? ¿Por qué la organización observada de estrellas y galaxias no afecta nuestra evolución?
“No estoy de acuerdo en que todos los sistemas organizados subsisten desorganizando otros sistemas”. Depende de lo que entiendas por sistemas. Una nube de gas homogénea que colapsa bajo la atracción gravitacional en una estrella concentrada y planetas en órbita lo hace mientras aumenta la entropía del universo. De hecho, la estrella está irradiando calor a su alrededor, esparciendo innumerables fotones en el universo. Es posible que la radiación no altere otros "sistemas" (como en otras estrellas y planetas, por ejemplo), pero sigue aumentando la entropía del universo en su conjunto. No hay discusión con esto.

La ley de entropía puede reinterpretarse (cómicamente) como "el equilibrio es un estado de máximo desorden posible bajo restricciones físicas dadas". Entonces... las cosas siguen empeorando hasta que es tan malo como puede llegar a ser. Intuitivamente, una gran entropía significa que las cosas se ven más o menos iguales (macroscópicamente) para muchas realizaciones microscópicas diferentes. Cuando el sistema evoluciona, es estadísticamente fácil encontrarse en uno de los muchos estados de alta entropía, pero muy rara vez puede tropezar con un estado ordenado al azar. Imagina tratar de sacudir una caja de monedas: ¿cuál es la probabilidad de que te salga cruz? El estado de equilibrio (sigues agitando la caja - simulación de movimiento térmico) será alrededor de mitad cruz mitad cara, más menos la desviación estándar, típica para este sistema (después de la distribución binomial). Entonces... desorden. En otra comparación, los padres de todo el mundo saben que la habitación solo se vuelve más desordenada y llega a un estado de caos (siendo este el estado de equilibrio). Debes ponerte manos a la obra para volver a ponerlo en orden, y no permanece así por mucho tiempo.

Estoy dando una ilustración de sentido común porque la física ya ha sido cubierta por otras publicaciones. La gente sigue diciendo que la entropía es un concepto difícil de entender, pero eso es solo si no lo explicas bien.

Así que corrígeme si me equivoco, la entropía del universo está aumentando porque las partículas siempre se están moviendo hacia un estado desordenado porque hay muchos más estados desordenados que ordenados, por lo que estadísticamente es más probable que un sistema termine desordenado que ordenado. . Otra pregunta: ¿por qué cuando hago ejercicio aumento la entropía del universo? Entiendo que libero más energía en el entorno, pero ¿qué tiene eso que ver con aumentar el desorden?
Si eso es correcto. Hagas lo que hagas que no es reversible, aumenta la entropía del universo. Para hacer trabajo, aprovechas algún orden (diferencia de temperatura, compuestos químicos en forma de no equilibrio [volátil], energía potencial...) y lo desordenas en el proceso. Al hacer trabajo, tiene un efecto secundario de calor residual (el calor es la forma de energía más desordenada y de alta entropía que ya no se puede usar para trabajar). Los motores térmicos, por ejemplo, funcionan con la diferencia de temperatura, produciendo trabajo, pero calientan el depósito frío, arruinando la diferencia de temperatura.

La entropía tiene que ver con el procesamiento de la energía, y decimos que la entropía aumenta cuando la energía se convierte en una forma menos útil: la propagación de la energía. En el máximo estado de desorden es imposible extraer energía para realizar trabajo.

Las razones fundamentales para que aumente la entropía son las fluctuaciones cuánticas aleatorias que estimulan las transiciones de estado de energía que, a su vez, disipan energía en el medio ambiente. Por ejemplo, una tunelización cuántica es estimulada por fluctuaciones cuánticas aleatorias y, después de la tunelización, una parte de la energía se disipa en el entorno (y la entropía del sistema cerrado aumenta). También tenemos el fenómeno del salto cuántico en el que las fluctuaciones cuánticas estimulan a los electrones a pasar de un estado de energía estacionario a un estado más bajo y, durante el proceso, una parte de la energía se disipa en el medio ambiente en forma de fotón.

Lenta pero seguramente, las fluctuaciones cuánticas aleatorias descomponen todas las concentraciones de energía. Es decir, en un futuro lejano, el orden del Universo se ha desvanecido y solo prevalece el desorden aleatorio.

Los términos son convenciones. Con un punto de vista de los humanos somos el orden. Coleccionar algo y ordenarlo en conchas es orden. Pero estoy de acuerdo contigo en que para ordenar algo se necesita energía y esto llevó al desorden y esto también podría ser una posible convención. Pero no lo es.