La entropía como una flecha del tiempo

Por lo que entiendo, la entropía es un concepto definido por el experimentador debido a su ignorancia del microestado exacto de un sistema. Decir el número de microestados accesibles W del universo está en constante aumento no es más que decir 'la ignorancia engendra ignorancia'.

A menudo me he encontrado con el argumento de una entropía cada vez mayor por la presencia de una asimetría temporal inherente, sobre todo en las obras de Penrose. Simplemente no parece tener sentido.

Imaginemos seres extraterrestres que están experimentando el tiempo al revés. Para ellos, el aumento de la ignorancia va en la dirección de nuestra disminución de la ignorancia. Entonces, ¿cómo puede el aumento perpetuo de la entropía indicar una 'flecha del tiempo'?

Una posible explicación (en la que pensé) para este argumento era el hecho de que puede que nunca haya un mecanismo para reducir la ignorancia. Voy a plantear esto como una pregunta:

Un observador determina el número de posibles microestados de sistema+observador a ser W 0 en el momento t 0 . Después de mejorar sus medidas, ¿puede (en un momento posterior) medir W (donde W 0 > W ) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.

A menos que lo anterior sea falso en general, ¿de qué otra manera puede alguien afirmar que la entropía revela una flecha del tiempo?

EDITAR: estoy realizando esta discusión para sistemas aislados (el universo o sus partes, si corresponde). El medio que propongo para reducir la entropía en el presente es mediante la redefinición de variables macroscópicas y de modelos microscópicos utilizados para contar el número de microestados distinguibles (que obviamente producen el mismo macroestado). Este es esencialmente un argumento en contra de la robustez de la entropía a través de la redefinición.

Cualquier buen libro de texto sobre el tema trata muy a fondo la naturaleza estadística de la termodinámica. No es algo que se ignore en ningún nivel de investigación. Es algo que se pasa por alto en las explicaciones introductorias. Enseñamos a nuestros hijos muchas cosas simplificadas porque son niños. Enseñamos a los estudiantes de secundaria la ley de gravitación universal de Newton en lugar de la relatividad general, etc. ¿Por qué? Ambas aproximaciones ( 99.99999999999 % = 100 % , F = metro gramo 1 gramo 2 / r 2 ) son muy buenos y permiten que las personas resuelvan problemas concretos.
@jwimberley - confundiste tu metro 'arena gramo 's :)
Las opiniones de Penrose son extremadamente poco ortodoxas al respecto. Él piensa que las leyes de la física son inherentemente asimétricas en el tiempo y tiene esta "hipótesis de la curvatura de Weyl" e ideas sobre los agujeros negros, el colapso de la función de onda y el espacio de fase. La opinión estándar es que la flecha del tiempo no es una indicación de asimetría en las leyes de la física, sino que, por razones desconocidas, el big bang fue un evento con una entropía extremadamente baja, por lo que la entropía ha ido en aumento desde entonces.
Decir que el número de microestados accesibles W del universo aumenta constantemente no es más que decir que "la ignorancia engendra ignorancia". No, esto está mal. Para explicar la segunda ley microscópicamente, necesita condiciones de contorno asimétricas en el tiempo o leyes de la física asimétricas en el tiempo (Penrose).
@dj_mummy: Eso no es lo que dije. Para una discusión detallada de lo que afirmé, ver Callender, Craig, "Thermodynamic Asymmetry in Time", The Stanford Encyclopedia of Philosophy (Edición de otoño de 2011), Edward N. Zalta (ed.), plato.stanford.edu/archives/ otoño2011/entradas/tiempo-termo .
Entonces, en ausencia de leyes asimétricas en el tiempo y condiciones de contorno, ¿qué se puede decir realmente sobre la evolución temporal de ρ? Puede decir todo tipo de cosas sobre la evolución temporal de la matriz de densidad. Lo que no puedes decir es nada que sea lógicamente equivalente a la segunda ley.

Respuestas (4)

He estado pensando en su pregunta durante bastantes días, no puedo pretender que entiendo exactamente a qué se dirige. Así que escribiré mis pensamientos, espero que puedas aclarar cualquier concepto erróneo que tenga y así podamos trabajar juntos para encontrar una respuesta que valga la pena para ti. Solo daré los pensamientos que tengo en respuesta a cada idea en su texto.

Por lo que entiendo, la entropía es un concepto definido por el experimentador debido a su ignorancia del microestado exacto de un sistema.

Estoy de acuerdo con éste. Se puede resumir diciendo que la entropía puede considerarse informalmente como la longitud del libro más pequeño que se necesitaría escribir para "corregir esta ignorancia" definiendo el estado del sistema exactamente una vez que se conoce el macroestado.

Decir el número de microestados accesibles W del universo está en constante aumento no es más que decir 'la ignorancia engendra ignorancia'.

No estoy totalmente de acuerdo con esto. Voy a alegar mi propia ignorancia por todo el universo y miraré los sistemas cotidianos . Aun así, hay un sentido en el que su declaración es parcialmente cierta, y eso es desde una cierta visión subjetivista de la probabilidad y las estadísticas (tenga paciencia conmigo, voy a tratar de discutir esto lo más que pueda).


Un "paseo aleatorio" a través del espacio de fases

La forma más simple y mejor de pensar en la ley de que "la entropía siempre está aumentando" es la del capítulo 27 "El Big Bang y su legado termodinámico" de "Camino a la realidad" de Roger Penrose. Lo siguiente es un poco diferente de su explicación, pero reuniré las dos explicaciones en unos pocos párrafos.

Me gusta pensar en todo esto desde el punto de vista de la ley estadística de los grandes números o, como me gusta llamarlo en el contexto de la termodinámica, la ley de las "Distribuciones de probabilidad muy puntiagudas".! Comenzamos pensando en la distribución binomial simple y en un experimento de muestreo en el que extraemos, digamos, bolas rojas y verdes de una población infinita para la cual, digamos, la proporción de bolas verdes es 0,4. A medida que nuestra muestra crece más y más, la distribución de la proporción muestral de bolas verdes se vuelve más y más puntiaguda alrededor de 0,4. El probable error fraccionario al suponer que la proporción de la muestra era 0,4 se hace cada vez más pequeño: en tamaños de muestra "termodinámicos" es completamente insignificante, aunque el número absoluto de bolas verdes en la muestra varía mucho y la probabilidad de muestrear exactamente 0,4 es increíblemente pequeño. Otra forma de ver esto es la siguiente: a medida que aumenta el tamaño de la muestra, la gran mayoría de los "microestados" de la muestra. O bien, la abrumadora mayoría de los "microestados" de muestra son exactamente iguales, a todos los efectos prácticos, como el de máxima entropía . Hay, por supuesto, arreglos posibles en los que solo hay una, ninguna o unas pocas bolas verdes, pero las posibilidades de sacarlas se vuelven insignificantes. La "puntualidad" proviene de aplicar la aproximación de Stirling a la distribución binomial: la media de la distribución X 0 = 0.4 surge en la muestra de máxima entropía donde X pag ( X ) | X = X 0 = 0 (aquí X es la proporción real de la muestra y pag ( X ) su distribución de probabilidad) y, por la propia naturaleza de la aproximación de Stirling, sólo la probabilidad de entropía máxima pag ( X 0 ) y su segunda derivada ( es decir X 2 pag ( X ) | X = X 0 , igual al recíproco de la varianza) son importantes para definir la distribución de probabilidad a todos los efectos prácticos para muestras muy grandes. El mismo comportamiento puntiagudo surge para todos los conjuntos canónicos. Puede tener más restricciones, como que el número total de partículas sea constante, la energía total sea constante (para el conjunto microcanónico), etc. Pero la aproximación de Stirling funciona exactamente de la misma manera: la distribución de probabilidad de los arreglos reales como una distribución conjunta definida en el espacio de fase se convierte en una distribución gaussiana (altamente) multivariada que se vuelve más y más puntiaguda con el aumento del tamaño de la muestra y la gran mayoría de los arreglos terminan pareciendo al igual que el de máxima entropía, incluso con las restricciones del problema: en este caso, este arreglo de entropía máxima se encuentra maximizando el número de arreglos consistentes con un macroestado dado sujeto a las restricciones de número, energía, etc. que tiene el problema, cada restricción simplemente agregando un nuevo multiplicador de Lagrange. Dichos multiplicadores no cambian la naturaleza puntiaguda esencial de la solución a medida que aumenta el tamaño de la muestra.

Entonces, si el sistema experimenta una "caminata aleatoria" (esta palabra tiene sutilezas temibles de las que hablaré más) en el espacio de fases, donde quiera que comience la caminata, es casi seguro que alcance rápidamente un microestado que se parece mucho al de máxima entropía. . ¡La idea de que el sistema "busca su estado de entropía más alto" o cualquier otra idea similar que a menudo se da con la derivación de los conjuntos canónicos es, por supuesto, absurda! El sistema no tiene sentido, ¡no busca! ¡Ni siquiera puede deletrear "ENTROPÍA"! Simplemente terminamos cerca de un estado de máxima entropía por una caminata aleatoria porque los conjuntos canónicos son tan, bueno, ¡canónicos! Describen bien la gran mayoría de los arreglos. Para tamaños de muestra "termodinámicos",

Entonces, dada la suposición de que comenzamos con el sistema en uno de esos estados fantásticamente raros muy alejados del de máxima entropía , es decir, un microestado que pertenece al "casi nada más" anterior, la abrumadora probabilidad es que la entropía del sistema debe aumentar. , simplemente dando un "paseo aleatorio" a través del espacio de fases. Esta es, hasta donde puedo entender, la explicación principal que resuelve la paradoja de Loschmidt (ver referencias [1] y [2]) que es el nombre dado a la paradójica observación de que la entropía aumenta a pesar de que las leyes físicas son igualmente válidas con el tiempo retrocediendo. Es decir, la respuesta tiene que ver con las "condiciones de contorno" del universo: el universo estaba (hecho observado) en un estado de entropía exquisitamente bajo en el big bang, por lo que la historia abrumadoramente más probable es aquella en la que la entropía aumenta con el tiempo cada vez mayor. a fuerza del argumento de "paseo aleatorio" que acabo de hacer. Pero cómo y por qué surgió ese estado de baja entropía es, según tengo entendido, uno de los profundos misterios de la física moderna.

Entropía como información

Veamos ahora esta idea de "caminar al azar" con más atención. Hay dos extremos en los que se suele pensar en la termodinámica: los sistemas cerrados y los que están en contacto con "reservorios" externos: cuerpos en equilibrio termodinámico que son tan grandes que ninguna cantidad de calor transferida entre nuestro sistema y sus reservorios externos cambia el estado macroscópico de este último. significativamente para los propósitos del análisis del sistema en cuestión.

Ingenuamente, uno podría pensar que a medida que el sistema evoluciona, la ignorancia de uno de sus entrañas de hecho aumentaría, de modo que la longitud de nuestro libro de definición de microestados anterior crece constantemente con el tiempo. Sin embargo, solo hay ciertos sentidos en los que esto es cierto. Primero hablemos de una botella cerrada de gas ideal dividida en mitades por una puerta tal que todo el gas, en equilibrio termodinámico a temperatura T , se mantiene en la mitad de una botella mientras que la otra mitad está vacía. En el momento t = 0 abrimos la puerta: idealicemos la situación y supongamos que la puerta simplemente desaparece, de modo que el gas llena repentinamente toda la botella (¡junto con un fuerte "THUNK"!). Pensaremos en tres casos:

  1. La botella es un sistema verdaderamente cerrado por lo que NO pasa calor a través de sus paredes pero también las paredes se comportan como si estuvieran a temperatura cero absoluta (las paredes necesitan tener conductividad cero para esto), y además su interior es perfectamente liso y tiene una geometría simple, fácilmente descrita;

  2. Como en el caso 1, pero ahora la superficie interior de la botella tiene una forma realista e irregular establecida por la disposición imperfecta de las moléculas que componen la botella. Las moléculas todavía están efectivamente a temperatura cero absoluta y hay cero conductividad: no pasa energía entre estas moléculas y las moléculas de gas y las últimas rebotan elásticamente en las primeras;

  3. Las paredes de la botella son un reservorio ideal hecho de moléculas termalizadas, también a la misma temperatura. T como las del gas en el interior.

Para ver otra versión de problemas similares, vea mi respuesta a [4] a continuación, pero por ahora, al hablar sobre estos tres casos, es útil hablar sobre dos conceptos diferentes de entropía, como se define en la referencia del artículo de Edwin Jaynes [5] en el final de mi respuesta . Estas son las entropías de Gibbs y Boltzmann, o, como me gusta llamarlas, la (1) entropía informativa / Shannon y la (2) entropía experimental, respectivamente (sin faltar el respeto a Gibbs / Boltzmann). La entropía experimental / Boltzmann es la entropía de Shannon calculada a partir de las distribuciones de probabilidad de asignación de estado marginal para cada molécula y luego multiplicada por el número de moléculas, es decircalculando como si no hubiera correlación entre moléculas, mientras que la entropía informativa es la entropía de Shannon calculada para la distribución de probabilidad conjunta de los estados de todo el sistema de moléculas a la vez.

Se puede demostrar que en muchos sistemas, la entropía experimental anterior es la misma entropía que obtendríamos al aplicar la definición objetiva de Clausius ( d S = d q / T ), haciendo mediciones macroscópicas ya sea directamente en un sistema (como midiendo el volumen, la temperatura y la presión de un gas ideal) o en un sistema a lo largo de un cierto historial de estado controlado, como midiendo el calor absorbido en función de la temperatura para sistema a medida que su temperatura aumenta desde una temperatura cercana al cero absoluto hasta, por ejemplo , 300 K, como se hace conceptualmente para obtener una entropía molar de formación para una sustancia. Solo a veces la entropía experimental es igual a la entropía informativa; por ejemplo , para un gas ideal, son iguales si y solo si los estados de las moléculas constituyentes del gas no están estadísticamente correlacionados .- este es el equivalente de Boltzmann "Stosszahlansatz" (suposición de caos molecular, aunque su propia palabra significa "hipótesis del número de choque") y el defecto en el razonamiento de Boltzmann que conduce a la paradoja de Loschmidt (ver las referencias [1] y [2] a continuación) se puede resumir en las palabras de Jaynes de que una vez que un sistema ha dejado un estado perfectamente no correlacionado, uno tiene que explicar cómo se destruyen las correlaciones antes de que Stosszahlansatz pueda volver a aplicarse. El teorema H de Boltzmann (consulte la sección "Teorema H de Boltzmann" de la página "Teorema H" de Wikipedia) , por ejemplo, asume que Stosszahlansatz siempre se puede aplicar, pero en realidad si el sistema alcanza un microestado donde realmente se aplica,¡cualquier otra colisión correlaciona los estados de las moléculas involucradas! Las derivaciones del teorema H de Boltzmann fallan estrictamente porque no nos dicen cómo se destruyen estas correlaciones. Aun así, el teorema H es una idea útil, especialmente desde la interpretación subjetivista de la que hablaré más adelante.

La diferencia entre la entropía experimental e informativa se denomina información mutua en la teoría de la información y se calcula a partir de las correlaciones estadísticas entre los estados moleculares.

Así que echemos un vistazo a la primera alternativa anterior. Si el volumen de norte moléculas de gas ideal se duplica irreversiblemente a una temperatura constante T (es decir, la presión en las mitades de la botella), entonces la entropía experimental (Boltzmann) aumenta en norte k B Iniciar sesión 2 . Ingenuamente, uno podría equiparar esto (módulo a la constante de Boltzmann) con el aumento de la entropía informativa también; después de todo, cada molécula ahora necesita un poco más de información para describir en qué mitad de la botella está. Sin embargo, esto no es así. A nivel microscópico, las leyes fundamentales de la física son reversibles, por lo que, en principio, se puede calcular cualquier estado anterior de un sistema a partir del pleno conocimiento de cualquier estado futuro y, por el contrario, no se pierde información. Entonces, si supiéramos las velocidades y posiciones exactas de las moléculas antes de que se abriera la puerta, podemos calcularlas en cualquier momento después. En realidad, la entropía informativa del gas aumenta un pocobit porque uno también debe conocer una descripción completa de la geometría interior de la botella. Sin embargo, es fluido y simple, por lo que esta nueva información es completamente insignificante en comparación con el contenido de información de los estados del gas. Ahora, el caos molecular de Boltzmann (Stosszahlansatz) ya no se aplica . Los estados de las moléculas de gas están correlacionados estadísticamente, la información mutua que surge de estas correlaciones explica la diferencia considerable ( norte k B Iniciar sesión 2 ) entre las entropías informativas y experimentales y, dada la naturaleza altamente idealizada de las paredes de la botella, no hay forma de que se destruyan estas correlaciones estadísticas (nuevamente, vea mi descripción del gas extrañamente idealizado en mi respuesta a [4] a continuación) .

Ahora veamos la segunda alternativa. La explicación de las dos entropías es más o menos la misma que la anterior, aparte de que ahora la botella es muy complicada. Se necesita una gran cantidad de información para especificar la microestructura dentada desconocida de las paredes, que sin duda influirá en las futuras trayectorias moleculares del gas. La entropía informativa del gas solova a aumentar significativamente por la abolladura del "gas que sondea más del universo exterior", es decir, las nuevas superficies en la botella, cuya descripción completa no está incluida en la entropía del gas. Entonces, las correlaciones entre los estados moleculares de las que hablé antes todavía están ahí, pero menos y, por lo tanto, también lo está la diferencia entre las entropías experimentales e informativas. De hecho, si la superficie de la botella es lo suficientemente irregular y complicada, las correlaciones podrían destruirse por completo y restaurarse el Stosszahlansatz. Así que tenemos una situación curiosa en la que no pasa calor a través de las paredes de la botella, pero el sistema original aún no está cerrado por la abolladura de nuevas partes del universo (es decir, las paredes de media botella antes vacías) que pesan sobre los estados moleculares.

Ahora a la última alternativa. Todo sucede como arriba, pero ahora el gas está en contacto con paredes termalizadas. Por lo tanto, las interacciones moleculares de la pared del gas aleatorizan los estados moleculares del gas, las correlaciones entre los estados moleculares se destruyen rápidamente y, en lo que respecta al sistema de gas, se restaura el Stosszahlansatz. Si lo desea, la información puede pasar desde el reservorio desde el exterior hacia el interior del sistema de gas y esta información debe tenerse en cuenta para definir completamente el microestado.

Como puede ver, en muchas situaciones prácticas, tanto las entropías informativas como las experimentales solo difieren enormemente durante breves períodos de tiempo y tienden a aumentar a medida que el sistema en cuestión se acopla, ya sea directa o indirectamente, con más y más del universo exterior.

Un paseo aleatorio a través del espacio de fase correlacionado

Así que ahora volvamos a nuestro argumento de la caminata aleatoria. El argumento del paseo aleatorio funciona si la entropía experimental del sistema inicial está lo suficientemente por debajo de la entropía máxima y si todos los arreglos y microestados en cuestión son igualmente probables . Esto a veces se llama la hipótesis ergódica. Sin embargo, ¿qué sucede cuando obtenemos correlaciones extrañas como las describí? Significan que la hipótesis ergódica ya no es cierta: algunos microestados ahora son más probables que otros. Pero parece plausible que, en escalas lo suficientemente grandes en el espacio de fase, las diferentes probabilidades para los microestados vecinos se "promedien", de modo que mientras una porción lo suficientemente grande del espacio de fase contiene microestados con probabilidades muy diversas debido a las correlaciones, las porciones más grandes de fase espacio siguen siendo volúmenes de espacio de fase equiprobables. Parece muy plausible que el argumento de la caminata aleatoria que di sea muy robusto de esta manera: siempre que haya una escala no demasiado grande en el espacio de fase en la que podamos "grano grueso" el espacio de fase sin perturbar el macroestado, entonces el "caminar al azar" todavía significará lo que intuitivamente pensamos que significa y el sistema aún tenderá a deambular hacia los microestados similares a la entropía máxima abrumadoramente probables.

En última instancia, esta suposición altamente plausible debe verificarse experimentalmente. El hecho de que la segunda ley de la termodinámica sea cierta experimentalmente le da peso experimental al argumento de grano grueso anterior.

Otra forma de ver esto es que la entropía informativa define el volumen del conjunto en el espacio de fase en el que, mediante una medida macroscópica, podemos decir que nuestro sistema debe estar dentro. Dado el Stosszahlansatz, podemos suponer un aspecto "normal" simplemente conectado (o uno con un grupo fundamental no demasiado salvaje), tal vez incluso un conjunto convexo en el espacio de fase. Por el teorema de Liouville (ver [5]) el volumen de esto no cambia; esta es otra forma de decir que la entropía informativa no cambia. Pero no hay nada que decir que el conjunto no se vuelve "espumoso" o fractal. Imagine un balón de fútbol de espuma de poliuretano expandido mientras se fabrica. Inicialmente, el poliuretano no expandido tiene un volumen pequeño (anología de la entropía informativa). El volumen de poliuretano no cambia a medida que el balón se fabrica en su molde (ya que la entropía informativa es constante), pero cuando analizas un poco el espacio a su alrededor, parece haber adquirido un volumen mucho mayor (la entropía experimental). . Aquí se nos recuerda la noción topológica de densidad: los números racionales no miden nada, pero son densos en la línea real: no se puede tomar ningún intervalo diminuto y no tener números racionales dentro de él.

Una última pero importante razón por la que la entropía experimental es importante es el principio de máxima entropía o el algoritmo de Gibbs. En el marco de pensamiento subjetivista para interpretar las probabilidades descrito en las primeras páginas (hasta la sección 2 inclusive, especialmente esta sección 2) del trabajo clásico de Jaynes en la referencia [2] , el uso de la entropía experimental está justificado porque prácticamente no hay No hay forma experimental de que podamos acceder a las sutiles y complejas correlaciones de las que se ha hablado anteriormente. Por lo tanto, la entropía experimental es la única entropía no sesgada que podemos asignar; hacer cualquier otra cosa sería afirmar que podemos reducir la incertidumbre sobre el estado del sistema con más información que simplemente no tenemos. Este es el principio de laAlgoritmo de Gibbs (consulte la página de Wikipedia con este nombre) , pero Jaynes fue el primero en justificar como un reemplazo del principio de razón insuficiente de Laplace con el argumento de que la entropía de Shannon es la cantidad única que se puede demostrar que cumple de manera única un conjunto simple y convincente. de axiomas que definen lo que razonablemente pensaríamos como una definición de incertidumbre. Entonces, asumimos que cualquier hipótesis deja la incertidumbre residual maximizada y es consistente con cualquier conocimiento que tengamos de un sistema.

Si quisiéramos hacer experimentos cada vez más y más finos para tratar de descubrir las correlaciones descritas en nuestro experimento mental, terminaríamos contradiciendo el punto de hacer termodinámica de todos modos: estaríamos trabajando con algo que es cada vez más como el microestado del sistema que el macroestado! Esta última afirmación es quizás menos cierta que en la época de Jaynes, ya que, según tengo entendido, gran parte de la investigación en termodinámica de hoy en día se realiza con sistemas muy pequeños y en alto desequilibrio en los que las fluctuaciones estadísticas son muy importantes, las mediciones en estos sistemas son extremadamente detalladas. y la idea del microestado parece mucho menos inaccesible de lo que habría sido para Jaynes.

Así que, en última instancia, tenemos algunas corazonadas teóricas, cosas como el argumento del camino aleatorio y el argumento del granulado grueso, junto con una justificación experimental: la observación del Big Bang y la verificación experimental de la segunda ley de la termodinámica en nuestros laboratorios.

En última instancia, la segunda ley de la termodinámica es un hecho experimental que no puede probarse rigurosamente mediante la teoría: la paradoja de Loschmidt y el teorema de recurrencia de Poincaré son la ruina final de cualquier programa teórico "riguroso".


Mas preguntas

A menudo me he encontrado con el argumento de una entropía cada vez mayor por la presencia de una asimetría temporal inherente, sobre todo en las obras de Penrose. Simplemente no parece tener sentido.

El capítulo del "Camino a la Realidad" que cité anteriormente me explicó en gran medida la segunda ley de la termodinámica como he tratado de argumentar anteriormente: es decir , que se trata de las condiciones límite del universo. No he leído el trabajo posterior de las ideas de Penrose, y entiendo que ahora cree que hay una asimetría temporal inherente que explica el origen del estado de entropía exquisitamente baja que fue el big bang. Tendré que alegar ignorancia sobre esto también.

Imaginemos seres extraterrestres que están experimentando el tiempo al revés. Para ellos, el aumento de la ignorancia va en la dirección de nuestra disminución de la ignorancia. Entonces, ¿cómo puede el aumento perpetuo de la entropía indicar una 'flecha del tiempo'?

Me gusta la idea de un extraterrestre para quien el tiempo corre hacia atrás, pero ¿qué significaría tal cosa? Presumiblemente, una criatura con una autoconciencia compleja, de modo que él o ella siente estados de pensamiento complejos como emociones en respuesta tanto al mundo que los rodea como a los mundos imaginados y siente placer al satisfacer sus necesidades engendradas evolutivamente, como disfrutar de un rasguño de un compañero. ajenos para calmar un picor, tumbados al sol de su respectiva estrella cuando tienen frío o sentados leyendo palabras absurdas de cajitas alambradas entre sí. Desde el punto de vista de la física, nuestro alienígena es un sistema fantásticamente complicado, por lo que dudo seriamente que uno pueda hacer algún progreso serio con un experimento mental hasta que pueda caracterizar a nuestro alienígena más completamente. No quiero sonar frívolo aquí: la gente solía especular sobre Maxwell Daemon como si fuera un ser complejo y consciente, y ahí estuvo la idea durante muchas décadas, nadie fue capaz de promover la idea basada en algo tan complejo, entre el momento en que Maxwell construyó su Daemon a partir de pensamientos para mostrar la naturaleza estadística de la segunda ley hasta que gente como Szilard, Landauer y Bennett entendieron que el Daemon podía construirse a partir de máquinas de estado finito muy simples. Una vez que se eliminó la complejidad innecesaria, Landauer y Bennett en particular lograron conocimientos profundos sobre la naturaleza de la información y la termodinámica de la computación. En nuestro universo, la información no puede ser desencarnada, cadenas abstractas, aunque en la teoría de la información y la probabilidad a menudo es útil pensar en ella como tal. En nuestro universo, la información debe estar escrita en algún tipo de "Tinta real" y esa tinta son los estados de los sistemas físicos. Los cálculos realizados y la información recopilada por la máquina de estados finitos Maxwell Daemon deben terminar codificados en el sistema circundante una vez que el Daemon olvide esta información, y esto conduce a un equilibrio de entropía general, o aumento, del gas-Maxwell Daemon. y rodea el sistema. Ver referencia[7] a continuación. Ahora, incluso construimos y probamos Maxwell Daemons reales en el laboratorio y los usamos para estudiar el principio de Landauer y el resto de la termodinámica de manera experimental. Consulte la referencia [8] a continuación.

Entonces, volviendo a su ejemplo, si investiga más a fondo qué significa "para quién el tiempo corriendo hacia atrás" para, digamos, máquinas de estados finitos más simples, es muy posible que descubra que la idea es contradictoria. O tal vez que, si es factible, no conduciría a una contradicción porque los alienígenas fueron separados de nosotros por una separación similar al espacio. O que, si el extraterrestre pudiera visitarnos en algún momento en el futuro lejano, aunque su parte del universo fuera muy diferente de nuestro universo observable actualmente, nuestras flechas del tiempo podrían alinearse cuando el extraterrestre se acercara a nosotros. De hecho, he visto especulaciones (solían estar en la página "Entropy (Arrow of Time)" de Wikpediapero se han desvanecido) que la razón por la que recordamos el pasado pero no el futuro es que esta es la dirección del tiempo en la que nuestras mentes se acoplan con partes cada vez mayores del universo, como en nuestro experimento mental de gas anterior. Todo esto es pura especulación, por supuesto, pero muestra que realmente necesita simplificar tales ideas antes de promoverlas.

Una posible explicación (en la que pensé) para este argumento era el hecho de que puede que nunca haya un mecanismo para reducir la ignorancia. Voy a plantear esto como una pregunta:

Un observador determina el número de posibles microestados de sistema+observador a ser W 0 en el momento t 0 . Después de mejorar sus medidas, ¿puede (en un momento posterior) medir W (donde W 0 > W ) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.

A menos que lo anterior sea falso en general, ¿de qué otra manera puede alguien afirmar que la entropía revela una flecha del tiempo?

Como dije, creo que uno tiene que analizar más a fondo la idea de un extraterrestre para quien el tiempo correría hacia atrás antes de estar seguro de que tal idea era sólida y que provoca verdaderas contradicciones o incluso paradojas.


Referencias

Preguntas relevantes de Física SE

  1. ¿La comunidad científica considera resuelta la paradoja de Loschmidt? Si es así, ¿cuál es la resolución?

  2. ¿Prueba teórica que prohíba la reversión de Loschmidt?

  3. La naturaleza estadística de la 2ª Ley de la Termodinámica

  4. ¿Cómo llega un gas de partículas con velocidad uniforme a la distribución de Maxwell-Boltzmann?

Documentos

  1. ET Jaynes, "Entropías de Gibbs vs Boltzmann", Am. J. física. 33 , número 5, págs. 391-398, 1965

  2. ET Jaynes, "Teoría de la información y mecánica estadística", Phys. Rev. 106 , número 4, pp 620-630, 1965 así como muchos otros trabajos de ET Jaynes en este campo

  3. Charles Bennett, "La termodinámica de la informática: una revisión", Int. J. Física Teórica, 21 , 12, 1982

Y un experimento notable que en realidad CONSTRUYE Y PRUEBA el Maxwell Daemon.

  1. Shoichi Toyabe; Takahiro Sagawa; Masahito Ueda; Eiro Muneyuki; Masaki Sano (2010-09-29). "Motor térmico de información: convertir información en energía mediante control de retroalimentación". Física de la naturaleza 6 (12): 988–992. arXiv:1009.5287. Código Bib:2011NatPh...6..988T. doi:10.1038/nphys1821 .

    "Demostramos que la energía libre se obtiene mediante un control de retroalimentación utilizando la información sobre el sistema; la información se convierte en energía libre, como la primera realización del demonio de Maxwell tipo Szilard".


@dj_mummy No hay necesidad de disculparse, a veces creo que uno necesita hacer algunas preguntas ambiguas para obtener la pregunta correcta, por lo que a menudo estoy un poco consternado por las preguntas que reciben votos negativos, incluso si parecen estúpidas. Solo lo son porque el resto de nosotros tenemos (o nos gustaría pensar que tenemos) el conocimiento que el autor de la pregunta busca en primer lugar. Estoy bastante seguro de que estoy de acuerdo con el ataque de Penrose a la solidez de la entropía: estoy de acuerdo en que no hay una flecha del tiempo o una tendencia a aumentar u otra asimetría temporal en el concepto estadístico de la entropía. Si leo bien a Penrose,...
...@dj_mummy la flecha del tiempo surge enteramente de las condiciones de contorno: su entropía está aumentando solo porque "recientemente" (es decir, en el big bang) estaba en uno de esos microestados fantásticamente raros que no son como el de máxima entropía, de modo que simplemente por "caminar al azar" la entropía aumentará. Ahora, la entropía experimental definida por, digamos, Clausius debería ser una función objetiva e inequívoca (aunque ni siquiera estoy seguro de esto con algo como todo el universo) del macroestado, pero como espero haber demostrado, esta entropía es no siempre lo mismo que información...
...@dj_mummy definiendo los microestados. Entonces llegamos a ambigüedades: en primer lugar, no está claro cómo el contenido de la información, tal como lo define Shannon, debería ser una cantidad que defina, por ejemplo , la espontaneidad de las reacciones químicas y otros procesos físicos: uno tiene que volver al experimento mental aleatorio para encontrar una explicación de por qué una cantidad como la entropía debería definir estas direcciones de procesos físicos. En segundo lugar, existe un margen de maniobra y una ambigüedad considerables para el granulado grueso: espero que mi ejemplo de espuma de poliuretano expandido haya mostrado cómo la entropía experimental aún podría ser significativa...
... @dj_mummy y sé el "volumen" en el espacio de fase que define la espontaneidad. Pensamos en la noción topológica de densidad: los números racionales no miden nada, pero son densos en la línea real: no se puede tomar ningún intervalo minúsculo y no tener números racionales dentro. Del mismo modo, aunque el volumen en el espacio de fase del conjunto que define el macroestado no cambia estrictamente de volumen, se vuelve efectivamente denso (especialmente cuando tiene un grano grueso apropiado) en algo de mucho mayor volumen. A menos que uno tenga un sistema verdaderamente discreto como una colección termalizada de un número finito de...
... @dj_mummy resonadores armónicos cuánticos, uno tiene que solicitar un píxel de "grano grueso" en el espacio de fase para calcular las entropías de Shannon. De hecho, las entropías de Shannon de distribuciones de probabilidad continuas se denominan entropías relativas por este motivo.
@dj_mummy SOLO reformuló fragmentos de mi respuesta, que se confundieron cuando los escribí hoy. Esperemos que debería leer mejor ahora.
@dj_mummy Por lo que puedo ver (esa es una gran advertencia, porque extraño muchas cosas), esto realmente es todo lo que hay. No sabemos CÓMO se ha anclado ese comienzo (me gusta la palabra por cierto), pero hacemos una observación experimental (ley de Hubble, explicación GR respaldada con numerosos efectos GR observados) de que la caminata aleatoria SÍ comenzó desde un lugar especial. Ahora también recomendaría echar un vistazo a la respuesta de Anixx y el artículo de Bennett, porque estas ideas pueden ayudarlo a refinar el último párrafo "Un observador determina el número... ¿la entropía revela una flecha del tiempo?" que soy....
... @dj_mummy sigue luchando, por cierto. Creo que tengo recursos limitados para pensar demasiado en estas cosas a la vez, así que volveré a su pregunta dentro de unos días. La respuesta de Anixx y el documento de Bennett pueden ayudarlo a entretejer al observador en su último párrafo de manera más sólida. Pero, en última instancia, hoy en día tomo la segunda ley como un hecho experimental; si lo desea, la considero una evidencia indirecta adicional del Big Bang (o al menos algún estado de muy baja entropía) que dará una flecha del tiempo a medida que uno camina al azar. de eso. También el punto principal de las distribuciones puntiagudas es...
... @dj_mummy realmente para enfatizar cuán sorprendentemente común es el estado de máxima entropía, o algo muy cercano a él, a medida que el tamaño de la muestra aumenta a los tipos de números que tenemos en termodinámica. Realmente no hay casi nada más. Por lo tanto, si ve algo más, sorprendentemente raro (es decir, un universo donde la energía está lejos de estar distribuida uniformemente en este caso), la inferencia estadística cotidiana le haría dudar seriamente de que ese algo más proviniera de la misma población: parecería casi seguro que el estado especial ha sido " elegido " por algún otro proceso, proceso que es el que
...@dj_mummy Penrose quiere conocer. Piense en todo esto por un momento, y podemos conversar más o lidiar con más preguntas. El documento de Bennett especialmente, aunque creo que esto es periférico, puede ayudarlo a pensar profundamente (lo que claramente desea hacer) sobre los "observadores", el "conocimiento" y la "ignorancia".
@dj_mummy Lo espero con ansias. Gracias por traer a colación tus ideas que invitan a la reflexión.
Acabo de descubrir esto hoy, y definitivamente es para mis notas. Gracias por dedicar tiempo y esfuerzo.
Fantástico análisis. Con respecto al cambio en las opiniones de Penrose, se describieron recientemente en la Sección 4.3 del borrador de 2020 (por un filósofo de Rutgers) en arxiv.org/pdf/2006.07748.pdf . No me había dado cuenta de que su "Cosmología cíclica conforme" era un intento de explicar la baja entropía del comienzo de esta iteración del universo, contra la cual había criticado anteriormente.

Al aumentar la precisión del instrumento de medición Y al realizar la medición, el observador PUEDE disminuir la entropía del sistema observado (al redefinir qué es un macroestado). Pero la entropía total del sistema observado más el observador aumentará.

Esto se debe a que cada acto de medición aumenta la entropía de todo el sistema. En otras palabras, es el observador quien es la fuente del aumento de entropía. Mire usted mismo: hacer una medición requiere algo de trabajo (energía aprovechable) solo para establecer algunos estados en la memoria del observador (o en el aparato). Esta energía no puede ser menor que la que se puede utilizar explorando el nuevo conocimiento sobre el microestado del sistema observado (cf. el demonio de Maxwell). Como tal, el aparato y el observador gastan sus fuentes de energía útil (queman alimentos y combustible) para poner su memoria en el estado exacto que refleja la observación.

Es completamente concebible que la entropía de todo el sistema pueda disminuir. Pero esto también significa que el observador desmedirá, dejará de ver y olvidará el resultado de su medición. Como no habrá memoria de tal evento, subjetivamente el observador solo observa el aumento de entropía.

Para una perspectiva mecánica cuántica, mira este artículo: http://arxiv.org/abs/0802.0438

+1 respuesta concisa: podría ayudar a OP. Papel de aspecto interesante también: podría volver a este, ya que este tipo de cosas me fríen el cerebro y he estado pensando demasiado en eso últimamente. Tendría un pequeño detalle: en principio, hacer la medición puede ser "gratis": no hay un límite inferior de la termodinámica para el trabajo que tiene que hacer. Este fue el objetivo de la computadora de bolas de billar Bennett, por ejemplo. Por notable que parezca, en realidad puede obtener conocimiento de forma gratuita. El trabajo requerido por el principio de Landauer surge porque hay que fusionar caminos computacionales y "olvidar" estados anteriores: ...
... estás en lo cierto cuando dices que el trabajo clave es configurar la memoria de estados en la memoria del observador. Reunir información no requiere trabajo; hacer espacio para ello sí, porque tiene que "olvidar" qué estados físicos estaban anteriormente en la memoria. Vea el documento de Bennett en mi respuesta.
@WetSavannaAnimalakaRodVance "realizar la medición, en principio, puede ser" gratis "; no hay un límite inferior de la termodinámica para el trabajo que tiene que hacer" No estoy seguro de que realmente se haya establecido como correcto. Echa un vistazo a este documento para un punto de vista alternativo.
@MarkMitchison Muchas gracias por el artículo; parece una lectura interesante. Como dije, esto me fríe el cerebro, así que lo dejaré por un momento. Pero sin duda lo leeré. El comentario que hice fue esencialmente la idea de Bennett de copiar estados; será interesante ver si el artículo se opone a esa idea.
Circuitos cerebrales de @dj_mummy más el cuerpo del observador más el sistema observado más las heces que el observador excreta mientras observa)
La entropía de @dj_mummy puede reducirse en cualquier lugar si aumenta en otro lugar.
@dj_mummy la entropía de todo el universo no puede disminuir.
@dj_mummy esta es otra pregunta lejanamente relacionada. Cree una nueva pregunta si lo desea.

Abordaré esta parte de tu pregunta:

Un observador determina que el número de microestados posibles del sistema+observador sea W0 en el tiempo t0. Después de mejorar sus mediciones, ¿puede (en un momento posterior) medir W′ (donde W0>W′) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.

Es instructivo despejar la mente de lo que es un macroestado y lo que es un microestado.

Este enlace que utiliza conceptos de dados simples define bien qué es un macroestado y cuáles son los microestados que contribuyen a él.

mesa de dados

Es evidente que uno no tiene que tirar los dados para dar W=6 como el número de microestados para el séptimo macroestado.

De manera análoga, debido al hecho de que la mecánica estadística utiliza fórmulas matemáticas, el número de microestados para un macroestado termodinámico dado puede estimarse sin recurrir a la experimentación.

La afirmación "la entropía es constante o aumenta" solo es cierta en sistemas cerrados.

En contraste con la bonita pirámide de arriba, los sistemas físicos cambian. Como ejemplo, tome una masa M a la temperatura T1, irradiará de acuerdo con la radiación del cuerpo negro. ¿Qué es la radiación de cuerpo negro ? Es una radiación electromagnética (fotones) emitida continuamente por el reordenamiento de las energías/estados cinéticos y vibracionales de los átomos y moléculas que componen la masa M. Es una pérdida continua de energía hacia el entorno. Y el cuerpo se enfría lentamente. Si puede cristalizar, a medida que irradia y se enfría, se volverá más ordenado por las simetrías del cristal. Pero esto no es un sistema cerrado. La entropía del gas total, Masa y fotón, tiene que ser calculada y va en aumento:

En un sistema cerrado, la energía se conserva, pero se distribuye de muchas maneras diferentes debido a los numerosos fotones que irradian aleatoriamente desde la masa. La cantidad de formas en que esto puede suceder (piense en el macroestado 7) no es constante (como en el macroestado 7) pero es calculable. Comienza como W1 para T1 (donde T es la temperatura de la masa) pero crece según el número de fotones emitidos y sus distribuciones geométricas, hasta W2 para la temperatura de la masa T2; aquí la temperatura de la masa es una etiqueta para el macroestado de todo el sistema. Esto define un aumento del desorden y una flecha del tiempo para el sistema cerrado, M + fotones radiados.

Editar en respuesta a la edición en la pregunta:

El medio que propongo para reducir la entropía en el presente es mediante la redefinición de variables macroscópicas y de modelos microscópicos utilizados para contar el número de microestados distinguibles (que obviamente producen el mismo macroestado). Este es esencialmente un argumento en contra de la robustez de la entropía a través de la redefinición.

Una variable macroscópica que distingue un macroestado de otro es la Temperatura. La temperatura es una variable intensiva de la materia. Solo puedes cambiar la temperatura de la materia, no puedes redefinirla. Las variables macroscópicas no se pueden redefinir a la carta .

Se ha demostrado que los conceptos de termodinámica y el marco de mecánica estadística para los mismos son consistentes entre sí, aquí por ejemplo . Conocer o no conocer los detalles de los microestados no hace una diferencia en el número incluido en un macroestado. Las funciones de probabilidad no dependen de si conocemos o no los detalles, de la misma manera que en la pirámide de arriba el número de microestados es contable y los contemos o no, el número no cambiará. Los contamos para obtener la probabilidad de este pequeño número de estados; estimamos matemáticamente la probabilidad de la materia a granel. Saber o no saber los detalles es irrelevante.

Creo que estás confundiendo la ignorancia con "cantidades que pueden ignorarse". En el gráfico piramidal lo sabemos todo, pero elegimos ignorar los microestados individuales y simplemente tomar su número. El número todavía da la entropía. No he leído a Penrose y para mí la definición de entropía para un macroestado como proporcional al logaritmo de la cantidad de microestados incluidos en él, está bien definida, no necesitando definiciones subjetivas como "ignorancia".

Estoy casi en total desacuerdo con tu primer párrafo. La entropía es algo que se puede definir cuantitativamente si se conoce la multiplicidad de un sistema. Puede (y está) definido cuando uno conoce exactamente todos los microestados de un sistema. El hecho de que aumente más de lo que disminuye puede atribuirse, a mi entender, a las mismas razones por las que se extrema la acción para los sistemas dinámicos. El resto de esto (más allá del primer párrafo) parece estar basado en su falso sentido de dónde proviene el aumento de la entropía.

Lo que quiero decir con la declaración sobre el principio de Hamilton es que tal como lo interpreto, a menudo es energéticamente más favorable que los sistemas estén en estados de mayor entropía, por lo que con el tiempo el universo (compuesto por todos los macroestados posibles, compuesto por cada uno de sus respectivos microestados) tendrán una entropía creciente. Creo que correlacionar directamente la ignorancia con la entropía es incorrecto.

@jwimberley: Su segundo comentario anterior sobre el Big Bang es algo con lo que estoy de acuerdo y una de las formas en que creo que uno debería tratar de entender la flecha del tiempo desde un punto de vista entrópico.

El hecho de que aumente más de lo que disminuye puede atribuirse, a mi entender, a las mismas razones por las que se extrema la acción para los sistemas dinámicos. No creo que esto sea correcto. a menudo es energéticamente más favorable para los sistemas estar en estados de mayor entropía . ¿Qué quiere decir con esto? La energía se conserva en el tiempo mientras que la entropía aumenta.
¿Quizás Max significa más favorable en términos de energía libre?
Esta respuesta es simplemente incorrecta. La entropía se calcula contando todos los microestados que son compatibles con los valores medidos de los observables macroscópicos experimentalmente accesibles. Es decir, todos los microestados en los que podría estar el sistema dado que no sabemos en cuál está . ¡Como tal, la mecánica estadística es inherentemente una teoría de la ignorancia, como su nombre lo indica! Por supuesto que necesita "conocer los microestados", pero si sabe en qué microestado se encuentra el sistema, la entropía es precisamente 0.
El principio de acción al que se refiere, que es responsable del éxito de la integral de ruta estadística cuántica, es la minimización de la energía libre, como sugiere @Bubble. La minimización de energía libre es un concepto útil porque los sistemas tienden a minimizar su energía y maximizar su entropía. Usarlo para justificar la segunda ley de la termodinámica parece un argumento circular. Le recomiendo que lea a Jaynes para comprender mejor el significado de la segunda ley.
Hmm debidamente anotados chicos. Debería haber dado una respuesta más articulada. @MarkMitchison Tendría curiosidad por ver una respuesta real en lugar de simplemente rechazar mi respuesta.
@MaxGraves Me temo que no tengo una respuesta a la pregunta del OP que sea digna de formalizar, ni estoy obligado a hacerlo. Creo que si el observador mantiene las restricciones experimentales (es decir, solo puede medir cantidades promediadas sobre número de partículas de Avogadro) constante, entonces deben ver aumentar la entropía. "Mejorar las mediciones" a la publicación de OP es equivalente a enfriar, o es simplemente una inconsistencia en las definiciones del observador de cantidades termodinámicas promediadas macroscópicamente.
Lamento que esté molesto por mi voto negativo, pero así es como funciona esta comunidad. Esta respuesta podría haber sido engañosa para los lectores, así que voté en contra. Luego traté de explicar por qué pensé que estaba mal para ayudarlos a comprender mi punto de vista, lo que me costó un poco de esfuerzo, debo agregar. No espero menos de los otros usuarios de este sitio cuando escribo algo mal; nadie es perfecto. Obviamente eres libre de estar en desacuerdo.
No estoy molesto, y aprecio tu honestidad. Probablemente debería editarlo para indicar lo que quiero decir con mayor precisión. Estaba al final de un día de convertir algunos de mis scripts de análisis de datos de Python a scripts de Cuda C y estaba bastante loco cuando vi esta pregunta y le di una respuesta rápida. En retrospectiva, fue una mala idea, je. Salud.
@MaxGraves No fue una mala idea, ¡al menos me ayudaste a mejorar mi comprensión!