En muchos lugares a través de Internet, he tratado de entender la entropía.
Se presentan muchas definiciones, entre las cuales puedo formular tres (corríjame si alguna definición es incorrecta):
Ahora, tengo estos ejemplos contrarios en mi mente:
Estoy atascado en esta definición filosófica muy fundamental.
Puedo entender el ejemplo de la "taza de café", por supuesto, o el ejemplo de "tu habitación se desordena con el tiempo". Esos son ejemplos muy claros. Pero estoy atascado en estos ejemplos. ¿Puedes aclararme esto por favor?
Su preocupación por las demasiadas definiciones de entropía está bien fundada. Desafortunadamente, existe una confusión vergonzosa, incluso en la literatura científica sobre este tema. Las respuestas que puede encontrar incluso en los sitios de SE simplemente reflejan este estado de cosas.
La respuesta corta es que no hay nada como un concepto único de entropía . Hay muchos conceptos diferentes pero correlacionados, que podrían haber sido nombrados de otra manera. Tienen alguna relación directa o indirecta con la entropía termodinámica, aunque no suelen coincidir con ella sin supuestos adicionales.
Solo una lista parcial de diferentes conceptos, todos los nombres de entropía contienen
Aunque todas estas cantidades se denominan entropía , no son del todo equivalentes. Una lista esquemática de la gama de sistemas que se pueden aplicar y alguna relación mutua podría ayudar a organizar un mapa mental en un panorama conceptual tan confuso.
Permítanme agregar un descargo de responsabilidad preliminar. No voy a escribir un tratado completo sobre cada entropía posible. La lista pretende ser un mapa aproximado. Sin embargo, incluso si me estoy perdiendo alguna relación importante (¡no pretendo ser un experto en todas las formas de entropía!), la imagen general debería ser correcta. Debería dar una idea sobre la no equivalencia genérica entre diferentes entropías.
1. Entropía termodinámica
Se puede aplicar a sistemas macroscópicos en equilibrio termodinámico o incluso a sistemas que no están en equilibrio, siempre que se pueda justificar algún tipo de equilibrio termodinámico local (LTE) para pequeñas regiones del sistema. LTE requiere que cada subregión sea lo suficientemente grande como para despreciar el efecto de las fluctuaciones relativas (las cantidades termodinámicas locales deben estar bien definidas), y los tiempos de relajación son más rápidos que los tiempos típicos de evolución dinámica. La termodinámica habitual requiere la posibilidad de controlar el trabajo y el calor intercambiado por el sistema y depende de manera crucial de algunas dinámicas microscópicas subyacentes capaces de conducir el sistema hacia el equilibrio.
2. Entropía del sistema dinámico
El presente y otros elementos deben contener sublistas. Bajo este nombre, se pueden encontrar entropías para sistemas dinámicos abstractos (por ejemplo, la entropía métrica introducida por Kolmogorov y Sinai ) y sistemas dinámicos caóticos continuos. Aquí, la entropía correspondiente no requiere un estado de equilibrio, y las propuestas recientes para entropías de no equilibrio (un ejemplo está aquí ) se pueden clasificar bajo este título.
3. Entropías de la mecánica estadística
Inicialmente, se introdujeron en cada conjunto de mecánica estadística para proporcionar una conexión con el concepto de termodinámica. En principio, hay una entropía diferente para cada conjunto. Expresiones tan diferentes coinciden para una amplia clase de hamiltonianos solo en el llamado límite termodinámico(TL), es decir, para sistemas con un número macroscópicamente grande de grados de libertad. Tenga en cuenta que los hamiltonianos tienen que satisfacer algunas condiciones para que TL pueda existir. Además de la coincidencia de entropías en diferentes conjuntos, también se requiere TL para garantizar que las entropías de la mecánica estadística satisfagan algunas propiedades clave de la entropía termodinámica, como las propiedades de convexidad o extensiva. Por lo tanto, se podría decir que la entropía de la mecánica estadística es una generalización de la entropía termodinámica, más que equivalente.
3. Entropía de la teoría de la información
Esta entropía es la conocida fórmula de Shannon
Está claro que requiere sólo una descripción probabilística del sistema. No se requiere ningún equilibrio termodinámico, la energía de un estado, y no existe conexión con el trabajo y el calor, en general. podría considerarse una generalización de la entropía mecánica estadística, coincidiendo con ésta sólo en el caso de una función de distribución de probabilidad de equilibrio de variables termodinámicas. Sin embargo, se puede definir incluso para sistemas sin ninguna dinámica intrínseca.
4. Entropía algorítmica
En la lista actual, es la única entropía que se puede asignar a una configuración individual (microscópica). Su definición no requiere grandes sistemas, distribución de probabilidad, dinámica intrínseca o equilibrio. Es una medida de la complejidad de una configuración , expresada por la longitud de su descripción más corta.
La relación de la entropía algorítmica y la entropía de la información es que si hay un conjunto de configuraciones, el valor promedio (en el conjunto) de la entropía algorítmica proporciona una buena estimación de la entropía de la información. Sin embargo, hay que tener en cuenta que la entropía algorítmica es una función no computable.
6. Mecánica cuántica (von Neumann) entropía
Aunque diferente desde el punto de vista formal puede considerarse una generalización de las ideas de Shannon para describir un sistema cuántico. Sin embargo, conceptos como equilibrio térmico o calor no juegan ningún papel en este caso.
7. Entropías gravitatorias (y de agujeros negros)
Se puede pensar en un conjunto de estrellas en una galaxia como sistemas, al menos en LTE. Sin embargo, su termodinámica es bastante peculiar. En primer lugar, no es extensivo (la energía crece más rápido que el volumen). La equivalencia de los conjuntos no se sostiene y es bien sabido que el calor específico microcanónico es negativo. Un comportamiento similar pero no exactamente igual se encuentra para la entropía del Agujero Negro propuesta por Beckenstein. En este caso, la cantidad que hace el papel de entropía es el área del horizonte de eventos del Agujero Negro. Aunque se ha demostrado que esta entropía comparte muchas propiedades de la entropía termodinámica y puede evaluarse dentro de la teoría de cuerdas contando la degeneración de los estados adecuados, queda por establecer su conexión con la entropía termodinámica.
¿Qué pasa con el desorden?
Queda por discutir la relación entre entropías (plural) y desorden.
Es posible asociar a cada entropía un concepto específico de desorden . Pero es fácil adivinar que, en general, no será igual para todos.
El único desorden asociado con la entropía termodinámica es el desorden relacionado con cómo se almacenan cantidades extensas en diferentes subsistemas del mismo estado macroscópico. Dentro de la termodinámica, un estado macroscópico bien ordenado es un estado donde las cantidades extensas se concentran espacialmente. El máximo desorden coincide con una dispersión de las extensas variables de estado para asegurar la misma temperatura, presión y potencial químico en cada subvolumen.
Dentro de la mecánica estadística clásica, se puede asociar el desorden al número de microestados disponibles en el espacio de fase. Nótese sin embargo, que este desorden , en general, no tiene nada que ver con la definición usual de orden espacial. La razón está relacionada con el papel no intuitivo de las interacciones entre partículas y el hecho de que la entropía mecánica estadística está relacionada con contar el número de microestados.
Probablemente, la entropía con mayor conexión con el significado habitual de desorden es la entropía algorítmica. Pero eso también es lo más difícil de evaluar y lo más alejado de la entropía termodinámica.
Una pequeña posdata
Una ilustración pedagógica del desacoplamiento completo entre el orden configuracional y la entropía proviene de la fórmula de Sackur-Tetrode para la entropía del gas ideal clásico . Muestra que la entropía es directamente proporcional a la masa de los átomos, mientras que el espacio de configuración accesible y la probabilidad de cada configuración espacial son los mismos.
La razón por la que Entropy tiene tantas descripciones no es porque haya sido diseñada para ello. Nadie empezó con todas esas cosas llamadas Entropía.
Entropy comenzó con una cosa. Y luego se descubrió que un montón de otras cosas estaban relacionadas, tanto matemática como físicamente, con esa única cosa.
Tiempo atrás se observó que toda la energía útil acaba convirtiéndose en calor inútil y difuso. Este proceso se llamó Entropía. Sabían que sucedió. No sabían por qué.
Así que ese es el comienzo. Entropía, cuando se nombró originalmente, era solo una descripción de algo que sucede cada vez que hurgas en el universo y miras lo que sucede. Esa energía se convierte en calor residual inútil.
Cualquier otra definición de Entropía se debe a que era una forma de describir por qué o cómo sucede eso, o porque las matemáticas se alinearon con otras matemáticas de Entropía. Y, sorprendentemente, a menudo ese alineamiento de las matemáticas en realidad termina teniendo un significado físico.
Esto se conoce como la irrazonable eficacia de las matemáticas en las ciencias naturales ; los patrones matemáticos continúan explicando cosas sobre el universo, y esto es ingenuamente muy sorprendente e irrazonable.
Entonces, volviendo a Entropy. Empezamos con la ciencia observacional. Esa cosa del calor residual:
Se observó que el calor fluye de las cosas calientes a las cosas frías. Esto fue modelado matemáticamente con valores como la temperatura y el flujo de calor. Esta es una ley de la entropía, que la energía térmica fluye de las cosas calientes a las cosas frías y no al revés. A partir de él puedes generar una increíble cantidad de poder descriptivo sobre el universo.
Luego viene Boltzman, quien toma ese "flujo de calor" y lo describe de manera más abstracta. Describe "macroestados"; algo que podemos describir en nuestra escala elegida. Divide su descripción de lo que podría suceder en un montón de macroestados (tantos o tan pocos como desee).
En cada macroestado hay muchísimos "microestados" indistinguibles (a nuestra escala) que producen el "mismo" macroestado.
Un microestado es un microestado porque, si bien es diferente de otros microestados, no nos importa cuando describimos originalmente nuestros macroestados.
Por ejemplo, "hay una mesa en la habitación" es un macroestado. Los rasguños en la mesa, la ubicación exacta de la termita en ella, la velocidad actual del átomo de carbono en el centro geométrico de la mesa, todo eso no está descrito por mi macroestado. Entonces, llamamos microestados a todos los estados físicos reales que agrupamos en ese macroestado.
Si cuenta esos microestados en cada macroestado, encontrará que un sistema cerrado casi siempre se mueve hacia los "macroestados" más comunes desde los más raros. Y esto es suficiente para describir la transferencia de energía de los objetos calientes a los fríos; el número de microestados en dos objetos tibios es increíblemente mayor que el número de microestados que describen un objeto caliente y otro frío.
Esto es extraño. Pero resulta que cuando vamos y contamos cuántos estados tiene un macroestado dado, en lugar de obtener "la mesa en la habitación tiene 10 mil millones de estados" y "los escombros de la mesa tienen 15 mil millones de estados", es decir, los dos los números son relativamente similares, obtenemos algo loco como "caso de escombros tiene veces más microestados que la tabla". (El número exacto no es exacto, el punto es que es un factor ridículamente enorme, no uno pequeño)
Esto es tan cierto que terminamos midiendo el número de microestados tomando el logaritmo. Entonces obtenemos que la mesa tiene X Entropía, y los escombros tienen X+1000000 Entropía. Sólo un millón más de unidades de entropía; pero debido a que esto está en una escala exponencial, eso es en realidad veces más estados.
Esta descripción estadística de la entropía coincide con la anterior: explica por qué la energía térmica fluye de los objetos calientes a los fríos y por qué la energía útil termina emitiéndose como calor residual difuso "inútil".
Extraño. Pero no lo suficientemente extraño. Ahora las cosas se ponen extrañas.
Muy lejos en matemáticas, alguien estaba trabajando en un tema llamado Teoría de la Información. Esto es útil para hacer cosas como descubrir cómo pasar más información a través de un cable o una señal de radio; cuanto puedes enviar ¿Puedes mejorar este protocolo con uno que envíe más? ¿Cómo se solucionan los errores causados por el ruido aleatorio? Dada una oración en inglés, una pieza musical o una imagen, ¿cuánto se puede comprimir y recuperar el original después?
Shannon generó una medida de información en un sistema. Y, sorprendentemente, termina funcionando como lo hace la Entropía física; las mismas ecuaciones matemáticas gobiernan ambos. Y, con trabajo, puede conectar la entropía de la información de Shannon con la entropía estadística de Boltzman de manera física.
A partir de ahí obtienes más abstracciones y remezclas. Las cosas que "se comportan como" Entropía en un nuevo dominio se llaman Entropía . Y, a menudo, cuando se conecta de nuevo con la física macroscópica y la transferencia de calor, se trata del mismo fenómeno y se deduce que "la energía tiende a volverse inútil, calor difuso".
Ahora, parte de su confusión es que está mirando hacia atrás al Big Bang y diciendo "¡pero ese fue un estado de entropía realmente baja!".
Y sí, lo fue. Vamos a tener una entropía mucho más baja que la que tenía el universo cuando ocurrió el Big Bang.
¿Por qué ocurrió el Big Bang? Eso no lo explica la Entropía. La entropía nos dice por qué el Big Bang nos lleva y por qué el Big Bang debe ser un punto de entropía extremadamente baja. No todas las partes de la realidad se explican con todas las partes de la teoría científica. Para investigar los "orígenes" del Big Bang tendrás que usar más que las leyes de la Entropía.
La entropía se aplica a un sistema cerrado; partes de ese sistema pueden tener Entropía reducida, pero solo a costa de aumentar más la Entropía en otras partes del sistema. Los copos de nieve o los humanos no son contradicciones de las leyes de la entropía, porque en ambos casos se formaron como parte de un sistema más grande.
Además, la descripción de su información está al revés. La entropía es una medida de la cantidad de información que se requeriría para describir completamente un sistema, y nunca disminuye. Esto significa que el Big Bang, como estado de baja entropía, es la fase del universo más simple de describir completamente.
Ahora, esta "descripción completa" tiende a ser extremadamente aburrida. Estás haciendo algo como describir la ubicación y el movimiento de cada partícula, individualmente (estoy ignorando QM aquí; tiene su propia definición de entropía que es consistente, pero no es algo en lo que voy a entrar aquí). Cuando tienes una habitación llena de gas rebotando al azar, eso es más difícil de describir que el mismo número de partículas dispuestas en una cuadrícula regular.
Supongamos que tomamos la habitación llena de gas, la congelamos y tallamos una escultura elegante del cristal resultante. Para nosotros, la forma que adopta el cristal es más interesante que la aburrida "habitación llena de gas". Pero describir completamente esa estatua de cristal resulta ser increíblemente más fácil; las partículas están más restringidas en posición y velocidad, forman una cuadrícula regular en lugar de un gas caótico. La forma exacta del cristal no requiere tanta información, pero limita la cantidad de estados en los que los átomos pueden estar en una gran cantidad. Es un estado de muy baja entropía, cuando describe todo completamente.
Simplemente nos aburre la sala de gas, pero nos interesa la estatua de cristal, así que hablamos más de la estatua que de la sala de gas.
A los humanos a menudo les gustan las cosas de baja entropía. Nuestros cerebros combinan patrones, y las cosas de baja entropía tienen muchos patrones. Las cosas de alta entropía tienden a ser manchas "aburridas", ya que restringir las cosas a un patrón es una reducción masiva en las posiciones en las que pueden estar las partículas de escala atómica.
Seamos concretos.
Entonces, ¿por qué no podemos romper un huevo?
El truco "macro/macroestado" es un poco divertido. En contra de nuestra intuición, los macroestados de alta entropía tienen un número increíblemente grande de microestados en comparación con los estados de baja entropía. Cuando convertimos la entropía en un número, tomamos el logaritmo del número de microestados. Entonces, cada 'unidad' de entropía es un aumento exponencial en el número de microestados.
Una situación de entropía 'alta' podría tener una entropía miles o millones de unidades mayor; ahora tómalo e
y elévalo a una potencia de un millón. Así de veces mayor es el número de microestados que tiene el macroestado de alta entropía.
Si pasar de un estado a otro es casi uniforme, pasar de un macroestado con X veces más estados de vuelta a un estado con X estados va a ser, bueno, no muy probable . Y eso es lo que pasa cuando quieres deshacer un huevo. Hay un número simplemente ridículo de estados de "huevo roto" y muy pocos estados de "huevo intacto". La caída del huevo al suelo interrumpe el macroestado algo estable de "huevo intacto" y lo mueve a un estado aleatorio en el estado combinado (huevo roto + huevo intacto).
Pasar del estado combinado (huevo intacto + huevo roto) de regreso a un huevo intacto requiere que alcancemos uno de esos X estados entre las X veces estados combinados rotos e ininterrumpidos.
Así que ahora le das el huevo roto a una gallina (bueno, muchos huevos rotos). Y sale un solo huevo intacto. ¿Cómo?
El pollo toma las moléculas aún de baja entropía en el huevo roto y usa su energía "ordenada" para ordenar otras moléculas dentro de sí mismo. Este motor emite calor (energía de alta entropía) y concentra algunos materiales de baja entropía dentro del pollo. Esos materiales de baja entropía se convierten a su vez en desechos de alta entropía y se usan para construir otros materiales de baja entropía (nuevas células, crean membranas que concentran calcio, hacen que la sangre que transporta azúcares y oxígeno vaya a una célula que se convertirá en un huevo, transcribe ADN en ARN y ARN en proteínas, etc.).
Después de consumir una pila de materia de baja entropía y convertirla en calor de mayor entropía y materia de desecho (¡caca!), toma algo de materia y la organiza en un huevo.
Este proceso no es 100% eficiente. Ese pollo produjo más entropía en los productos de desecho que la diferencia entre las materias primas y el huevo terminado. Un sistema cerrado con una gallina, que pone un huevo, luego le devuelves el huevo a la gallina, no puede producir nuevos huevos sin que el motor biológico de la gallina se dañe.
Por lo general, la entrada a este proceso es a través de la alimentación de los materiales vegetales de pollo, que a su vez convirtió el CO2 en el aire en materia vegetal de baja entropía al absorber la luz solar de baja entropía.
El sol, a su vez, produce luz al tomar hidrógeno de baja entropía y fusionarlo en helio de mayor entropía. La presión para hacer eso fue alimentada por el colapso gravitatorio, donde una falta de uniformidad en el gas interestelar hizo que algunos se acumularan, irradiaran calor a medida que caía (ese calor es energía de alta entropía), atrajeron más gas y crecieron hasta el centro. estaba lo suficientemente caliente y presurizado para iniciar la fusión.
El combustible de hidrógeno para el sol fue un remanente del big bang de baja entropía. Al principio del Big Bang hacía demasiado calor para que los neutrones y los protones permanecieran pegados. A medida que se enfriaba, comenzaron a fusionarse, pero la velocidad de enfriamiento fue tan rápida que no todo el hidrógeno se convirtió en helio, y no hubo suficiente tiempo a la presión y temperatura requeridas para fusionar todo en hierro (la disposición del núcleo atómico de mayor entropía). de neutrones y protones).
Imagina el mundo como una pendiente extremadamente empinada que también es extremadamente, extremadamente larga.
Rebotando por la pendiente hay rocas. Estas rocas rebotan en el suelo y pierden energía. Al hacerlo, pierden impulso hacia adelante.
Pero están en una pendiente, por lo que también se caen. Esto los mantiene en marcha.
Intentar que una roca ruede cuesta arriba en medio de esta avalancha es increíblemente difícil. Hacer que ruede cuesta abajo es muy fácil.
Ahora, incluso podrías usar las rocas para construir un patrón, pero ese patrón también tiene que rodar cuesta abajo; no puede permanecer estacionario. La pendiente es demasiado empinada.
El universo, por lo que podemos decir, tiene una pendiente de entropía extremadamente empinada desde el big bang. Recogemos restos de materia de baja entropía, principalmente hidrógeno, del Big Bang, lo convertimos en luz de baja entropía, lo convertimos en plantas de carbón, lo enterramos todo y hacemos que se descomponga en hidrocarburo, quemamos esos hidrocarburos para hacer funcionar nuestras plantas de carbón, haz que vibren electrones para producir energía eléctrica, utilízalo para convertir el mineral de aluminio en metal puro y haz funcionar máquinas que estampan latas, luego abre la lata y bebe un poco de agua limpia de ella.
Cada una de esas cosechas es como usar la energía de una de esas rocas que caen (como nosotros mismos también estamos cayendo) para hacer las cosas.
La expresión general para la entropía de un sistema que está en un macroestado particular en términos de , el número de microestados asociados con ese macroestado.
¡Lo anterior funcionará para todos los casos!
Debes hacer diferentes preguntas para todas las dudas. Lo siguiente podría ser útil
De hecho, un copo de nieve es bastante ordenado. Hay menos formas en las que un montón de moléculas de agua pueden formar un copo de nieve que formas en las que pueden formar una gota de agua, con todas ellas moviéndose por todas partes.
Pero eso solo significa que el copo de nieve se forma en un proceso que hace que la entropía aumente en otro lugar. El agua que se congela emite calor, ese calor aumenta la entropía de su entorno. Lo mismo es cierto para los organismos vivos: son materia muy ordenada, pero al precio de comer, y por tanto desbaratar, mayores cantidades de materia.
tl;dr – La ignorancia de la entropía. Eso es todo. Las otras descripciones son aproximaciones y/o casos especiales. Esta respuesta parcial señala que la entropía es subjetiva, en lugar de independiente del contexto, para ayudar a abordar un punto común de confusión.
La entropía es modelo-subjetivo, incluyendo contexto/observador-subjetivo. No es un valor real y universal; no existe independientemente del contexto. Comprender esto ayudará a evitar mucha confusión sobre las aparentes contradicciones.
Experimento mental:
Considere un gas ideal en un frasco de vidrio. En un momento inicial, un lado tiene helio, el otro tiene neón.
A medida que comienza el tiempo, tendemos a esperar que los gases se mezclen en una mezcla bastante uniforme, lo que a menudo se describe como un estado de alta entropía.
A veces, el gas se desmezclará espontáneamente, con el helio y el neón nuevamente separados, por ejemplo, como en el tiempo inicial.
¿La entropía volvió a su valor inicial?
Aquí está la cosa: la entropía no es real. Pertenece al modelo, no al sistema físico real. Entonces, lo que hace un sistema físico real no importa porque, en primer lugar, la entropía nunca se trató de ese sistema físico real.
Más bien, lo que la entropía nos diría es que, después de un tiempo arbitrario, se puede predecir que el sistema se seleccionará de manera justa del conjunto de posibles estados alcanzables, la gran mayoría de los cuales no están separados. Esto no es violado por una desmezcla del sistema ya que predice la desmezcla como un estado posible (aunque raro).
Si un experimentador observa un sistema que ha considerado que tiene la entropía máxima y lo encuentra desmezclado, entonces puede volver a considerar ese sistema físico en la entropía baja. Esto, nuevamente, no es una contradicción: simplemente han construido un nuevo modelo, informado por la observación física. El viejo modelo que predice la máxima entropía al mismo tiempo sigue siendo igualmente válido. Estos modelos pueden existir simultáneamente sin contradicción (aunque, obviamente, tenderemos a preferir un modelo más informado).
La entropía es un tema enorme que está involucrado en muchas cosas. En última instancia, es una calificación de ignorancia, que se puede definir formalmente, aunque se envuelve con una gran cantidad de mecanismos específicos de casos que hacen que la palabra "entropía" implique cosas adicionales en diferentes contextos.
La sugerencia de esta respuesta es mantener un enfoque en su subjetividad: que siempre se trata del modelo dependiente del contexto del observador, no de los sistemas del mundo real. No olvide que el gas desmezclado puede considerarse de máxima o mínima entropía, según el marco contextual del observador, sin contradicción.
Las probabilidades tampoco son reales, lo que podría ser un mejor punto de partida que la entropía (ya que la probabilidad es un poco más simple).
Una pregunta bastante graciosa fue
en el que el niño del OP pensó que ganar la lotería tenía un 50% de probabilidades. Lo curioso es que, por extraño que parezca, ¡el niño tenía razón! No es que recomiende a nadie que compre boletos de lotería, sino que el niño aplicó correctamente la razón estadística de la manera normal, llegando a un resultado defendible (aunque gracioso).
La crítica de la evaluación de " probabilidades del 50% " no sería que esté mal , en un sentido técnico, sino que está mal informada. Es como la evaluación del " gas ideal desmezclado en la entropía máxima ": es correcta, solo que está mal informada de la observación de que el gas se desmezcló.
En resumen, sugeriría pensar en cómo funcionan las probabilidades y por qué son inherentemente subjetivas. Esto puede conectarse bien con averiguar la entropía.
El problema de Monty Hall es un divertido experimento mental de la cultura pop que también demuestra la probabilidad subjetiva.
Básicamente:
Hay un programa de juegos con 3 puertas, con un premio detrás de una.
Un concursante elige una puerta, luego el anfitrión quita una de las otras puertas que no tenían el premio detrás.
El concursante puede cambiar de su selección actual a la otra puerta restante. ¿Deberían ellos?
Al parecer, algunas personas no cambian. Piensan que la probabilidad es real (independiente del contexto), y dado que la puerta restante era tan probable como su selección inicial, las probabilidades no mejorarían al cambiar.
Por supuesto, les falta una observación importante: las otras dos puertas, juntas, tenían 2 de 3 probabilidades de ser correctas, y dado que se eliminó una incorrecta, el concursante puede obtener esa probabilidad de 2 en 3 seleccionando la puerta restante. Por el contrario, su puerta actual todavía tiene probabilidades de 1 en 3.
La lección en la que hay que centrarse aquí es que la probabilidad/entropía/etc. no pertenecen al sistema físico actual, sino a modelos del mismo.
Creo que la gran cantidad de respuestas a esta pregunta te dice que no es una pregunta fácil. Si bien puede ser una locura agregar (otra) respuesta a la pila, quería dar (otra) perspectiva ligeramente diferente.
Creo que el problema no es que la entropía esté mal definida o sea ambigua . La entropía tiene una definición clara y precisa. Dada una función de densidad de probabilidad eso depende de algunas variables , la entropía es
Sin embargo, la forma típica en que calculamos y usamos la entropía requiere que tomemos más decisiones, y uno tomará decisiones diferentes en diferentes aplicaciones.
Primero, para calcular la entropía para una distribución dada (en otras palabras, para hacer la integral anterior), necesitamos especificar el espacio de estados posibles (necesitamos conocer todos los valores posibles de ), y necesitamos una medida en este espacio. Para definir este espacio, es posible que debamos considerar restricciones para determinar si un estado dado se considera o no "posible".
En segundo lugar, por lo general no estamos interesados en la entropía per se. Estamos interesados en encontrar la función de densidad de probabilidad que maximiza la entropía. Para maximizar la entropía necesitamos especificar cuál es el espacio de funciones de densidad de probabilidad sobre el que vamos a maximizar.
En física (específicamente en termodinámica/mecánica estadística), normalmente nos interesan las distribuciones de probabilidad sobre el espacio de microestados de un sistema. Por ejemplo, para un gas, definiríamos una distribución de probabilidad sobre cada configuración posible del gas, cada posición e impulso posibles para cada molécula de gas.
Como se mencionó anteriormente, tenemos que considerar las restricciones impuestas al sistema. Podemos considerar que el sistema tiene una energía total fija y un número de partículas. Entonces las distribuciones de probabilidad solo serán funciones de microestados que tengan la energía y el número de partículas prescritos. La distribución de probabilidad resultante que maximiza la entropía bajo esta restricción se denomina conjunto microcanónico. También podemos considerar que la energía del sistema puede variar pero el número de partículas es fijo (el conjunto canónico ), o que la energía y el número de partículas pueden variar (el gran-canónicoconjunto). Dependiendo del espacio de microestados permitidos, la distribución de probabilidad que maximiza la entropía será diferente. Esto no es sorprendente: a medida que cambia el espacio de las distribuciones "permitidas", no es sorprendente que encuentre que los máximos del "paisaje" de entropía cambian; sin embargo, puede ser confuso porque a menudo la notación y el lenguaje ocultan el hecho. que la entropía depende de información adicional más allá de las que aparecen explícitamente en la fórmula anterior.
Alejándose de un gas, uno puede calcular la entropía para muchos tipos diferentes de sistemas físicos, incluido el Universo primitivo. Sin embargo, será necesario pensar en el espacio de fase apropiado y, en particular, en la medida apropiada utilizada para contar los microestados (este es un desafío particular en la física del Universo primitivo). También debe quedar claro que la entropía se puede aplicar en contextos no físicos; por ejemplo, calcular la entropía de un archivo de texto equivale a evaluar distribuciones de probabilidad sobre ciertas combinaciones de letras. La noción de entropía dependerá de cómo defina el espacio de letras y palabras "permitidas".
Otra fuente potencial de confusión es que en física, hay ciertas simplificaciones o límites que se hacen a menudo, que son completamente correctos en el contexto. Pero, si un libro los usa como punto de partida (lo que suele ser una buena idea desde el punto de vista pedagógico), la conexión con la definición anterior puede no ser clara. En aplicaciones de física, la distribución de probabilidad que maximiza la entropía asigna el mismo peso a todos los microestados. En este caso, es una constante independiente de . De hecho podemos escribir , dónde es el número total de microestados. En este caso, la integral de entropía se reduce a la forma habitual de "Boltzmann"
Una vez que tenga esto, puede usar la mecánica estadística para derivar las reglas típicas que obedece la variable de estado llamada entropía en la termodinámica clásica.
Las definiciones citadas en su pregunta en realidad se centran en la evolución de la entropía a lo largo del tiempo, no en lo que es la entropía en sí. Menciono esto porque es importante que mantengamos estas cosas separadas en la discusión.
Probablemente cualquiera que desee comprender el concepto de entropía, en lugar de simplemente memorizar las fórmulas, se enfrenta al sentimiento que usted expresa: las definiciones comúnmente ofrecidas lo dejan a uno inquieto, carente de intuición.
Me estremezco cada vez que escucho a alguien usar la definición de entropía del desorden popular . Como dices, esta definición solo deja a uno insatisfecho con las preguntas necesarias "¿Qué es el orden ?" y "¿Qué es el desorden ?" ¡Son tortugas hasta el fondo! ¿Es una habitación desordenada realmente menos ordenada que una habitación que sentimos que está ordenada? Cuando las personas usan esta descripción, en realidad intentan describir lo que le sucede a la entropía con el tiempo en un sistema cerrado, no qué es la entropía . es decir, hay muchas más formas de que una habitación se considere "desordenada" que ordenada. Por lo tanto, una habitación desordenada tiene una probabilidad significativamente mayor y, naturalmente, se volverá más desordenada con el tiempo sin intervención.
Ofrezco dos referencias que, en combinación, darán respuestas abundantemente satisfactorias a todas sus preguntas sobre la entropía.
La Termodinámica de Fermi contiene una derivación maravillosamente concisa pero completa del concepto clásico de entropía, junto con relaciones derivadas entre varias formas de energía. Menciona brevemente la derivación de Boltzmann de donde k es la constante de Boltzmann, y es proporcional a la probabilidad de ocupar un estado particular. Sin la derivación de este último, esto todavía deja a uno sin intuición de lo que es la entropía.
Para comprender qué es la entropía, basta la primera (!) página, segundo párrafo de la Referencia 2, con una descripción perfectamente sucinta de la entropía: "La entropía mide el número de estados cuánticos accesibles a un sistema".
Continúa diciendo:
Un sistema cerrado podría estar en cualquiera de estos estados cuánticos y (suponemos) con igual probabilidad. El elemento estadístico fundamental, la suposición lógica fundamental, es que los estados cuánticos son accesibles o inaccesibles para el sistema, y es igualmente probable que el sistema se encuentre en cualquier estado accesible como en cualquier otro estado accesible. Dados g estados accesibles, la entropía se define como . La entropía así definida será función de la energía , el número de partículas , y el volumen del sistema, porque estos parámetros entran en la determinación de ; también pueden entrar otros parámetros. El uso del logaritmo es una conveniencia matemática: es más fácil escribir que , y es más natural que dos sistemas hablen de que .
Cuando dos sistemas, cada uno de energía específica, se ponen en contacto térmico, pueden transferir energía; su energía total permanece constante, pero se eliminan las restricciones sobre sus energías individuales. Una transferencia de energía en una dirección, o quizás en la otra, puede aumentar el producto que mide el número de estados accesibles de los sistemas combinados. La suposición fundamental sesga el resultado a favor de la asignación de la energía total que maximiza el número de estados accesibles: más es mejor y más probable . Esta afirmación es el núcleo de la ley del aumento de la entropía, que es la expresión general de la segunda ley de la termodinámica.
Ahora bien, ¿cómo obtenemos, en principio, el número de estados cuánticos? Contando, por supuesto.
Menciono una tercera referencia.
con el propósito de capturar técnicas de conteo en los primeros dos capítulos, y el teorema H derivado en el Apéndice que describe en términos de probabilidad la evolución de la entropía a lo largo del tiempo, junto con la derivación rigurosa de conceptos fundamentales en física estadística.
En esencia, la entropía es una medida del número relativo de posibles estados de un sistema. Este es el hilo común que une todos los ejemplos que cita. Que la entropía debe aumentar se deduce de la definición de probabilidad: cuanto más probable es algo (cuantos más estados representen ese algo ), más a menudo ese algo ocurrirá en un sistema dinámico (a medida que el sistema evoluciona a lo largo del tiempo); es decir, algo ocurrirá en proporción directa a algoprobabilidad de - la evolución de la entropía en el tiempo es simplemente una reformulación de la definición de probabilidad. Para disminuir la entropía, se requiere una intervención, específicamente diseñada para lograr un estado con menor probabilidad. Sin embargo, el agente que interviene (no es necesario que sea un ser sensible) debe ganar más entropía (o produce, a través del calor) de la que extrae.
Dado que las respuestas anteriores explican bastante bien el concepto, intentaré hacer lo mismo, aunque en términos sencillos:
digresión (puede omitir esta parte si está familiarizado con el concepto de 'estados cuánticos accesibles' en Física estadística) - En la página No.
de An Introduction to Thermodynamics and Statistical Mechanics de Keith Stowe , el número total de estados accesibles en un espacio de fase clásico viene dado por la expresión muy intuitiva de -
, dónde -
= volumen disponible en el espacio de coordenadas,
= volumen disponible en el espacio de cantidad de movimiento &
= constante de Planck reducida (por cierto, así es como la incertidumbre cuántica encuentra naturalmente su camino hacia la física estadística).
Volviendo a la pregunta principal, en la página no. 331, el autor define el número total de estados cuánticos accesibles como -
dónde -
= entropía del sistema &
= Constante de Boltzmann.
Hablando libremente de la ecuación (1), la entropía de un sistema es proporcional al número de estados cuánticos accesibles (¡esto es la entropía!)
cuanto mayor sea la cantidad de espacio (coordenada/momento) disponible, mayor la entropía, mayor el desorden (porque habrá más opciones disponibles para que una partícula en particular se asiente; por lo tanto, "orden" no significa un bien organizado / apariencia externa ordenada, sino que se refiere al número de estados cuánticos accesibles en
&
), es decir, con solo mirar un sistema desde el exterior, no podemos saber si tiene una entropía más baja o más alta que antes porque es un concepto muy microscópico (el número de estados accesibles es un concepto microscópico) .
De la discusión anterior , incluso si tiene un volumen espacial disponible muy restringido, su entropía aún podría considerarse alta si tiene muchos estados de impulso/energía vacantes (en comparación con un sistema idéntico pero con la mayoría de sus estados de impulso/energía ya lleno). Además, existe una ley comprobada de que la entropía siempre debe aumentar (una propiedad que comparte con el 'tiempo' que también se mueve en una sola dirección).
Para su pregunta sobre Big Bang (puntos n. ° 2 y 3) , el Big Bang no viola la ley de entropía como el espacio de volumen (coordinado) (
) del Universo desde (el Big Bang) solo ha aumentado.
Para los copos de nieve dices Porque para mí un copo de nieve es un ejemplo perfecto de orden. - "orden" (como se mencionó anteriormente) no significa una apariencia exterior bien organizada/ordenada, sino que se refiere al número de estados cuánticos accesibles en
&
. En un copo de nieve, la entropía del hielo es en realidad más alta porque hay muchas formas diferentes de ordenar los protones (átomos de hidrógeno), si conocemos la cantidad de átomos de oxígeno en la red , por lo tanto, un copo de nieve tiene un mayor desorden (o entropía) en comparación al agua por las bajas temperaturas en las que se produce la formación de copos de nieve, y por el Punto núm. 4 sobre "Modos" , ¿qué quiere decir con estados uniformes que fueron los estados más abundantes posibles? ¿Cómo sabe que eran más abundantes y qué significa "uniforme" aquí? Por favor, aclare.
Vayamos a las definiciones de entropía como se menciona en su pregunta una por una :
PD: por un estado cuántico , nos referimos a su volumen ( & ) no puede ser conocido más allá de la precisión de .
Bob D.
Saeed Neamati
GiorgioP-DoomsdayClockIsAt-90
nanito
gandalf61
más plano
más plano
antonio
Harabeck
eric duminil
smci
aycanadal
arón
arón
FluidCode
jacob1729
jacob1729