Por lo que entiendo, la entropía es un concepto definido por el experimentador debido a su ignorancia del microestado exacto de un sistema. Decir el número de microestados accesibles del universo está en constante aumento no es más que decir 'la ignorancia engendra ignorancia'.
A menudo me he encontrado con el argumento de una entropía cada vez mayor por la presencia de una asimetría temporal inherente, sobre todo en las obras de Penrose. Simplemente no parece tener sentido.
Imaginemos seres extraterrestres que están experimentando el tiempo al revés. Para ellos, el aumento de la ignorancia va en la dirección de nuestra disminución de la ignorancia. Entonces, ¿cómo puede el aumento perpetuo de la entropía indicar una 'flecha del tiempo'?
Una posible explicación (en la que pensé) para este argumento era el hecho de que puede que nunca haya un mecanismo para reducir la ignorancia. Voy a plantear esto como una pregunta:
Un observador determina el número de posibles microestados de sistema+observador a ser en el momento . Después de mejorar sus medidas, ¿puede (en un momento posterior) medir (donde ) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.
A menos que lo anterior sea falso en general, ¿de qué otra manera puede alguien afirmar que la entropía revela una flecha del tiempo?
EDITAR: estoy realizando esta discusión para sistemas aislados (el universo o sus partes, si corresponde). El medio que propongo para reducir la entropía en el presente es mediante la redefinición de variables macroscópicas y de modelos microscópicos utilizados para contar el número de microestados distinguibles (que obviamente producen el mismo macroestado). Este es esencialmente un argumento en contra de la robustez de la entropía a través de la redefinición.
He estado pensando en su pregunta durante bastantes días, no puedo pretender que entiendo exactamente a qué se dirige. Así que escribiré mis pensamientos, espero que puedas aclarar cualquier concepto erróneo que tenga y así podamos trabajar juntos para encontrar una respuesta que valga la pena para ti. Solo daré los pensamientos que tengo en respuesta a cada idea en su texto.
Por lo que entiendo, la entropía es un concepto definido por el experimentador debido a su ignorancia del microestado exacto de un sistema.
Estoy de acuerdo con éste. Se puede resumir diciendo que la entropía puede considerarse informalmente como la longitud del libro más pequeño que se necesitaría escribir para "corregir esta ignorancia" definiendo el estado del sistema exactamente una vez que se conoce el macroestado.
Decir el número de microestados accesibles del universo está en constante aumento no es más que decir 'la ignorancia engendra ignorancia'.
No estoy totalmente de acuerdo con esto. Voy a alegar mi propia ignorancia por todo el universo y miraré los sistemas cotidianos . Aun así, hay un sentido en el que su declaración es parcialmente cierta, y eso es desde una cierta visión subjetivista de la probabilidad y las estadísticas (tenga paciencia conmigo, voy a tratar de discutir esto lo más que pueda).
La forma más simple y mejor de pensar en la ley de que "la entropía siempre está aumentando" es la del capítulo 27 "El Big Bang y su legado termodinámico" de "Camino a la realidad" de Roger Penrose. Lo siguiente es un poco diferente de su explicación, pero reuniré las dos explicaciones en unos pocos párrafos.
Me gusta pensar en todo esto desde el punto de vista de la ley estadística de los grandes números o, como me gusta llamarlo en el contexto de la termodinámica, la ley de las "Distribuciones de probabilidad muy puntiagudas".! Comenzamos pensando en la distribución binomial simple y en un experimento de muestreo en el que extraemos, digamos, bolas rojas y verdes de una población infinita para la cual, digamos, la proporción de bolas verdes es 0,4. A medida que nuestra muestra crece más y más, la distribución de la proporción muestral de bolas verdes se vuelve más y más puntiaguda alrededor de 0,4. El probable error fraccionario al suponer que la proporción de la muestra era 0,4 se hace cada vez más pequeño: en tamaños de muestra "termodinámicos" es completamente insignificante, aunque el número absoluto de bolas verdes en la muestra varía mucho y la probabilidad de muestrear exactamente 0,4 es increíblemente pequeño. Otra forma de ver esto es la siguiente: a medida que aumenta el tamaño de la muestra, la gran mayoría de los "microestados" de la muestra. O bien, la abrumadora mayoría de los "microestados" de muestra son exactamente iguales, a todos los efectos prácticos, como el de máxima entropía . Hay, por supuesto, arreglos posibles en los que solo hay una, ninguna o unas pocas bolas verdes, pero las posibilidades de sacarlas se vuelven insignificantes. La "puntualidad" proviene de aplicar la aproximación de Stirling a la distribución binomial: la media de la distribución surge en la muestra de máxima entropía donde (aquí es la proporción real de la muestra y su distribución de probabilidad) y, por la propia naturaleza de la aproximación de Stirling, sólo la probabilidad de entropía máxima y su segunda derivada ( es decir , igual al recíproco de la varianza) son importantes para definir la distribución de probabilidad a todos los efectos prácticos para muestras muy grandes. El mismo comportamiento puntiagudo surge para todos los conjuntos canónicos. Puede tener más restricciones, como que el número total de partículas sea constante, la energía total sea constante (para el conjunto microcanónico), etc. Pero la aproximación de Stirling funciona exactamente de la misma manera: la distribución de probabilidad de los arreglos reales como una distribución conjunta definida en el espacio de fase se convierte en una distribución gaussiana (altamente) multivariada que se vuelve más y más puntiaguda con el aumento del tamaño de la muestra y la gran mayoría de los arreglos terminan pareciendo al igual que el de máxima entropía, incluso con las restricciones del problema: en este caso, este arreglo de entropía máxima se encuentra maximizando el número de arreglos consistentes con un macroestado dado sujeto a las restricciones de número, energía, etc. que tiene el problema, cada restricción simplemente agregando un nuevo multiplicador de Lagrange. Dichos multiplicadores no cambian la naturaleza puntiaguda esencial de la solución a medida que aumenta el tamaño de la muestra.
Entonces, si el sistema experimenta una "caminata aleatoria" (esta palabra tiene sutilezas temibles de las que hablaré más) en el espacio de fases, donde quiera que comience la caminata, es casi seguro que alcance rápidamente un microestado que se parece mucho al de máxima entropía. . ¡La idea de que el sistema "busca su estado de entropía más alto" o cualquier otra idea similar que a menudo se da con la derivación de los conjuntos canónicos es, por supuesto, absurda! El sistema no tiene sentido, ¡no busca! ¡Ni siquiera puede deletrear "ENTROPÍA"! Simplemente terminamos cerca de un estado de máxima entropía por una caminata aleatoria porque los conjuntos canónicos son tan, bueno, ¡canónicos! Describen bien la gran mayoría de los arreglos. Para tamaños de muestra "termodinámicos",
Entonces, dada la suposición de que comenzamos con el sistema en uno de esos estados fantásticamente raros muy alejados del de máxima entropía , es decir, un microestado que pertenece al "casi nada más" anterior, la abrumadora probabilidad es que la entropía del sistema debe aumentar. , simplemente dando un "paseo aleatorio" a través del espacio de fases. Esta es, hasta donde puedo entender, la explicación principal que resuelve la paradoja de Loschmidt (ver referencias [1] y [2]) que es el nombre dado a la paradójica observación de que la entropía aumenta a pesar de que las leyes físicas son igualmente válidas con el tiempo retrocediendo. Es decir, la respuesta tiene que ver con las "condiciones de contorno" del universo: el universo estaba (hecho observado) en un estado de entropía exquisitamente bajo en el big bang, por lo que la historia abrumadoramente más probable es aquella en la que la entropía aumenta con el tiempo cada vez mayor. a fuerza del argumento de "paseo aleatorio" que acabo de hacer. Pero cómo y por qué surgió ese estado de baja entropía es, según tengo entendido, uno de los profundos misterios de la física moderna.
Veamos ahora esta idea de "caminar al azar" con más atención. Hay dos extremos en los que se suele pensar en la termodinámica: los sistemas cerrados y los que están en contacto con "reservorios" externos: cuerpos en equilibrio termodinámico que son tan grandes que ninguna cantidad de calor transferida entre nuestro sistema y sus reservorios externos cambia el estado macroscópico de este último. significativamente para los propósitos del análisis del sistema en cuestión.
Ingenuamente, uno podría pensar que a medida que el sistema evoluciona, la ignorancia de uno de sus entrañas de hecho aumentaría, de modo que la longitud de nuestro libro de definición de microestados anterior crece constantemente con el tiempo. Sin embargo, solo hay ciertos sentidos en los que esto es cierto. Primero hablemos de una botella cerrada de gas ideal dividida en mitades por una puerta tal que todo el gas, en equilibrio termodinámico a temperatura , se mantiene en la mitad de una botella mientras que la otra mitad está vacía. En el momento abrimos la puerta: idealicemos la situación y supongamos que la puerta simplemente desaparece, de modo que el gas llena repentinamente toda la botella (¡junto con un fuerte "THUNK"!). Pensaremos en tres casos:
La botella es un sistema verdaderamente cerrado por lo que NO pasa calor a través de sus paredes pero también las paredes se comportan como si estuvieran a temperatura cero absoluta (las paredes necesitan tener conductividad cero para esto), y además su interior es perfectamente liso y tiene una geometría simple, fácilmente descrita;
Como en el caso 1, pero ahora la superficie interior de la botella tiene una forma realista e irregular establecida por la disposición imperfecta de las moléculas que componen la botella. Las moléculas todavía están efectivamente a temperatura cero absoluta y hay cero conductividad: no pasa energía entre estas moléculas y las moléculas de gas y las últimas rebotan elásticamente en las primeras;
Las paredes de la botella son un reservorio ideal hecho de moléculas termalizadas, también a la misma temperatura. como las del gas en el interior.
Para ver otra versión de problemas similares, vea mi respuesta a [4] a continuación, pero por ahora, al hablar sobre estos tres casos, es útil hablar sobre dos conceptos diferentes de entropía, como se define en la referencia del artículo de Edwin Jaynes [5] en el final de mi respuesta . Estas son las entropías de Gibbs y Boltzmann, o, como me gusta llamarlas, la (1) entropía informativa / Shannon y la (2) entropía experimental, respectivamente (sin faltar el respeto a Gibbs / Boltzmann). La entropía experimental / Boltzmann es la entropía de Shannon calculada a partir de las distribuciones de probabilidad de asignación de estado marginal para cada molécula y luego multiplicada por el número de moléculas, es decircalculando como si no hubiera correlación entre moléculas, mientras que la entropía informativa es la entropía de Shannon calculada para la distribución de probabilidad conjunta de los estados de todo el sistema de moléculas a la vez.
Se puede demostrar que en muchos sistemas, la entropía experimental anterior es la misma entropía que obtendríamos al aplicar la definición objetiva de Clausius ( ), haciendo mediciones macroscópicas ya sea directamente en un sistema (como midiendo el volumen, la temperatura y la presión de un gas ideal) o en un sistema a lo largo de un cierto historial de estado controlado, como midiendo el calor absorbido en función de la temperatura para sistema a medida que su temperatura aumenta desde una temperatura cercana al cero absoluto hasta, por ejemplo , 300 K, como se hace conceptualmente para obtener una entropía molar de formación para una sustancia. Solo a veces la entropía experimental es igual a la entropía informativa; por ejemplo , para un gas ideal, son iguales si y solo si los estados de las moléculas constituyentes del gas no están estadísticamente correlacionados .- este es el equivalente de Boltzmann "Stosszahlansatz" (suposición de caos molecular, aunque su propia palabra significa "hipótesis del número de choque") y el defecto en el razonamiento de Boltzmann que conduce a la paradoja de Loschmidt (ver las referencias [1] y [2] a continuación) se puede resumir en las palabras de Jaynes de que una vez que un sistema ha dejado un estado perfectamente no correlacionado, uno tiene que explicar cómo se destruyen las correlaciones antes de que Stosszahlansatz pueda volver a aplicarse. El teorema H de Boltzmann (consulte la sección "Teorema H de Boltzmann" de la página "Teorema H" de Wikipedia) , por ejemplo, asume que Stosszahlansatz siempre se puede aplicar, pero en realidad si el sistema alcanza un microestado donde realmente se aplica,¡cualquier otra colisión correlaciona los estados de las moléculas involucradas! Las derivaciones del teorema H de Boltzmann fallan estrictamente porque no nos dicen cómo se destruyen estas correlaciones. Aun así, el teorema H es una idea útil, especialmente desde la interpretación subjetivista de la que hablaré más adelante.
La diferencia entre la entropía experimental e informativa se denomina información mutua en la teoría de la información y se calcula a partir de las correlaciones estadísticas entre los estados moleculares.
Así que echemos un vistazo a la primera alternativa anterior. Si el volumen de moléculas de gas ideal se duplica irreversiblemente a una temperatura constante (es decir, la presión en las mitades de la botella), entonces la entropía experimental (Boltzmann) aumenta en . Ingenuamente, uno podría equiparar esto (módulo a la constante de Boltzmann) con el aumento de la entropía informativa también; después de todo, cada molécula ahora necesita un poco más de información para describir en qué mitad de la botella está. Sin embargo, esto no es así. A nivel microscópico, las leyes fundamentales de la física son reversibles, por lo que, en principio, se puede calcular cualquier estado anterior de un sistema a partir del pleno conocimiento de cualquier estado futuro y, por el contrario, no se pierde información. Entonces, si supiéramos las velocidades y posiciones exactas de las moléculas antes de que se abriera la puerta, podemos calcularlas en cualquier momento después. En realidad, la entropía informativa del gas aumenta un pocobit porque uno también debe conocer una descripción completa de la geometría interior de la botella. Sin embargo, es fluido y simple, por lo que esta nueva información es completamente insignificante en comparación con el contenido de información de los estados del gas. Ahora, el caos molecular de Boltzmann (Stosszahlansatz) ya no se aplica . Los estados de las moléculas de gas están correlacionados estadísticamente, la información mutua que surge de estas correlaciones explica la diferencia considerable ( ) entre las entropías informativas y experimentales y, dada la naturaleza altamente idealizada de las paredes de la botella, no hay forma de que se destruyan estas correlaciones estadísticas (nuevamente, vea mi descripción del gas extrañamente idealizado en mi respuesta a [4] a continuación) .
Ahora veamos la segunda alternativa. La explicación de las dos entropías es más o menos la misma que la anterior, aparte de que ahora la botella es muy complicada. Se necesita una gran cantidad de información para especificar la microestructura dentada desconocida de las paredes, que sin duda influirá en las futuras trayectorias moleculares del gas. La entropía informativa del gas solova a aumentar significativamente por la abolladura del "gas que sondea más del universo exterior", es decir, las nuevas superficies en la botella, cuya descripción completa no está incluida en la entropía del gas. Entonces, las correlaciones entre los estados moleculares de las que hablé antes todavía están ahí, pero menos y, por lo tanto, también lo está la diferencia entre las entropías experimentales e informativas. De hecho, si la superficie de la botella es lo suficientemente irregular y complicada, las correlaciones podrían destruirse por completo y restaurarse el Stosszahlansatz. Así que tenemos una situación curiosa en la que no pasa calor a través de las paredes de la botella, pero el sistema original aún no está cerrado por la abolladura de nuevas partes del universo (es decir, las paredes de media botella antes vacías) que pesan sobre los estados moleculares.
Ahora a la última alternativa. Todo sucede como arriba, pero ahora el gas está en contacto con paredes termalizadas. Por lo tanto, las interacciones moleculares de la pared del gas aleatorizan los estados moleculares del gas, las correlaciones entre los estados moleculares se destruyen rápidamente y, en lo que respecta al sistema de gas, se restaura el Stosszahlansatz. Si lo desea, la información puede pasar desde el reservorio desde el exterior hacia el interior del sistema de gas y esta información debe tenerse en cuenta para definir completamente el microestado.
Como puede ver, en muchas situaciones prácticas, tanto las entropías informativas como las experimentales solo difieren enormemente durante breves períodos de tiempo y tienden a aumentar a medida que el sistema en cuestión se acopla, ya sea directa o indirectamente, con más y más del universo exterior.
Así que ahora volvamos a nuestro argumento de la caminata aleatoria. El argumento del paseo aleatorio funciona si la entropía experimental del sistema inicial está lo suficientemente por debajo de la entropía máxima y si todos los arreglos y microestados en cuestión son igualmente probables . Esto a veces se llama la hipótesis ergódica. Sin embargo, ¿qué sucede cuando obtenemos correlaciones extrañas como las describí? Significan que la hipótesis ergódica ya no es cierta: algunos microestados ahora son más probables que otros. Pero parece plausible que, en escalas lo suficientemente grandes en el espacio de fase, las diferentes probabilidades para los microestados vecinos se "promedien", de modo que mientras una porción lo suficientemente grande del espacio de fase contiene microestados con probabilidades muy diversas debido a las correlaciones, las porciones más grandes de fase espacio siguen siendo volúmenes de espacio de fase equiprobables. Parece muy plausible que el argumento de la caminata aleatoria que di sea muy robusto de esta manera: siempre que haya una escala no demasiado grande en el espacio de fase en la que podamos "grano grueso" el espacio de fase sin perturbar el macroestado, entonces el "caminar al azar" todavía significará lo que intuitivamente pensamos que significa y el sistema aún tenderá a deambular hacia los microestados similares a la entropía máxima abrumadoramente probables.
En última instancia, esta suposición altamente plausible debe verificarse experimentalmente. El hecho de que la segunda ley de la termodinámica sea cierta experimentalmente le da peso experimental al argumento de grano grueso anterior.
Otra forma de ver esto es que la entropía informativa define el volumen del conjunto en el espacio de fase en el que, mediante una medida macroscópica, podemos decir que nuestro sistema debe estar dentro. Dado el Stosszahlansatz, podemos suponer un aspecto "normal" simplemente conectado (o uno con un grupo fundamental no demasiado salvaje), tal vez incluso un conjunto convexo en el espacio de fase. Por el teorema de Liouville (ver [5]) el volumen de esto no cambia; esta es otra forma de decir que la entropía informativa no cambia. Pero no hay nada que decir que el conjunto no se vuelve "espumoso" o fractal. Imagine un balón de fútbol de espuma de poliuretano expandido mientras se fabrica. Inicialmente, el poliuretano no expandido tiene un volumen pequeño (anología de la entropía informativa). El volumen de poliuretano no cambia a medida que el balón se fabrica en su molde (ya que la entropía informativa es constante), pero cuando analizas un poco el espacio a su alrededor, parece haber adquirido un volumen mucho mayor (la entropía experimental). . Aquí se nos recuerda la noción topológica de densidad: los números racionales no miden nada, pero son densos en la línea real: no se puede tomar ningún intervalo diminuto y no tener números racionales dentro de él.
Una última pero importante razón por la que la entropía experimental es importante es el principio de máxima entropía o el algoritmo de Gibbs. En el marco de pensamiento subjetivista para interpretar las probabilidades descrito en las primeras páginas (hasta la sección 2 inclusive, especialmente esta sección 2) del trabajo clásico de Jaynes en la referencia [2] , el uso de la entropía experimental está justificado porque prácticamente no hay No hay forma experimental de que podamos acceder a las sutiles y complejas correlaciones de las que se ha hablado anteriormente. Por lo tanto, la entropía experimental es la única entropía no sesgada que podemos asignar; hacer cualquier otra cosa sería afirmar que podemos reducir la incertidumbre sobre el estado del sistema con más información que simplemente no tenemos. Este es el principio de laAlgoritmo de Gibbs (consulte la página de Wikipedia con este nombre) , pero Jaynes fue el primero en justificar como un reemplazo del principio de razón insuficiente de Laplace con el argumento de que la entropía de Shannon es la cantidad única que se puede demostrar que cumple de manera única un conjunto simple y convincente. de axiomas que definen lo que razonablemente pensaríamos como una definición de incertidumbre. Entonces, asumimos que cualquier hipótesis deja la incertidumbre residual maximizada y es consistente con cualquier conocimiento que tengamos de un sistema.
Si quisiéramos hacer experimentos cada vez más y más finos para tratar de descubrir las correlaciones descritas en nuestro experimento mental, terminaríamos contradiciendo el punto de hacer termodinámica de todos modos: estaríamos trabajando con algo que es cada vez más como el microestado del sistema que el macroestado! Esta última afirmación es quizás menos cierta que en la época de Jaynes, ya que, según tengo entendido, gran parte de la investigación en termodinámica de hoy en día se realiza con sistemas muy pequeños y en alto desequilibrio en los que las fluctuaciones estadísticas son muy importantes, las mediciones en estos sistemas son extremadamente detalladas. y la idea del microestado parece mucho menos inaccesible de lo que habría sido para Jaynes.
Así que, en última instancia, tenemos algunas corazonadas teóricas, cosas como el argumento del camino aleatorio y el argumento del granulado grueso, junto con una justificación experimental: la observación del Big Bang y la verificación experimental de la segunda ley de la termodinámica en nuestros laboratorios.
En última instancia, la segunda ley de la termodinámica es un hecho experimental que no puede probarse rigurosamente mediante la teoría: la paradoja de Loschmidt y el teorema de recurrencia de Poincaré son la ruina final de cualquier programa teórico "riguroso".
A menudo me he encontrado con el argumento de una entropía cada vez mayor por la presencia de una asimetría temporal inherente, sobre todo en las obras de Penrose. Simplemente no parece tener sentido.
El capítulo del "Camino a la Realidad" que cité anteriormente me explicó en gran medida la segunda ley de la termodinámica como he tratado de argumentar anteriormente: es decir , que se trata de las condiciones límite del universo. No he leído el trabajo posterior de las ideas de Penrose, y entiendo que ahora cree que hay una asimetría temporal inherente que explica el origen del estado de entropía exquisitamente baja que fue el big bang. Tendré que alegar ignorancia sobre esto también.
Imaginemos seres extraterrestres que están experimentando el tiempo al revés. Para ellos, el aumento de la ignorancia va en la dirección de nuestra disminución de la ignorancia. Entonces, ¿cómo puede el aumento perpetuo de la entropía indicar una 'flecha del tiempo'?
Me gusta la idea de un extraterrestre para quien el tiempo corre hacia atrás, pero ¿qué significaría tal cosa? Presumiblemente, una criatura con una autoconciencia compleja, de modo que él o ella siente estados de pensamiento complejos como emociones en respuesta tanto al mundo que los rodea como a los mundos imaginados y siente placer al satisfacer sus necesidades engendradas evolutivamente, como disfrutar de un rasguño de un compañero. ajenos para calmar un picor, tumbados al sol de su respectiva estrella cuando tienen frío o sentados leyendo palabras absurdas de cajitas alambradas entre sí. Desde el punto de vista de la física, nuestro alienígena es un sistema fantásticamente complicado, por lo que dudo seriamente que uno pueda hacer algún progreso serio con un experimento mental hasta que pueda caracterizar a nuestro alienígena más completamente. No quiero sonar frívolo aquí: la gente solía especular sobre Maxwell Daemon como si fuera un ser complejo y consciente, y ahí estuvo la idea durante muchas décadas, nadie fue capaz de promover la idea basada en algo tan complejo, entre el momento en que Maxwell construyó su Daemon a partir de pensamientos para mostrar la naturaleza estadística de la segunda ley hasta que gente como Szilard, Landauer y Bennett entendieron que el Daemon podía construirse a partir de máquinas de estado finito muy simples. Una vez que se eliminó la complejidad innecesaria, Landauer y Bennett en particular lograron conocimientos profundos sobre la naturaleza de la información y la termodinámica de la computación. En nuestro universo, la información no puede ser desencarnada, cadenas abstractas, aunque en la teoría de la información y la probabilidad a menudo es útil pensar en ella como tal. En nuestro universo, la información debe estar escrita en algún tipo de "Tinta real" y esa tinta son los estados de los sistemas físicos. Los cálculos realizados y la información recopilada por la máquina de estados finitos Maxwell Daemon deben terminar codificados en el sistema circundante una vez que el Daemon olvide esta información, y esto conduce a un equilibrio de entropía general, o aumento, del gas-Maxwell Daemon. y rodea el sistema. Ver referencia[7] a continuación. Ahora, incluso construimos y probamos Maxwell Daemons reales en el laboratorio y los usamos para estudiar el principio de Landauer y el resto de la termodinámica de manera experimental. Consulte la referencia [8] a continuación.
Entonces, volviendo a su ejemplo, si investiga más a fondo qué significa "para quién el tiempo corriendo hacia atrás" para, digamos, máquinas de estados finitos más simples, es muy posible que descubra que la idea es contradictoria. O tal vez que, si es factible, no conduciría a una contradicción porque los alienígenas fueron separados de nosotros por una separación similar al espacio. O que, si el extraterrestre pudiera visitarnos en algún momento en el futuro lejano, aunque su parte del universo fuera muy diferente de nuestro universo observable actualmente, nuestras flechas del tiempo podrían alinearse cuando el extraterrestre se acercara a nosotros. De hecho, he visto especulaciones (solían estar en la página "Entropy (Arrow of Time)" de Wikpediapero se han desvanecido) que la razón por la que recordamos el pasado pero no el futuro es que esta es la dirección del tiempo en la que nuestras mentes se acoplan con partes cada vez mayores del universo, como en nuestro experimento mental de gas anterior. Todo esto es pura especulación, por supuesto, pero muestra que realmente necesita simplificar tales ideas antes de promoverlas.
Una posible explicación (en la que pensé) para este argumento era el hecho de que puede que nunca haya un mecanismo para reducir la ignorancia. Voy a plantear esto como una pregunta:
Un observador determina el número de posibles microestados de sistema+observador a ser en el momento . Después de mejorar sus medidas, ¿puede (en un momento posterior) medir (donde ) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.
A menos que lo anterior sea falso en general, ¿de qué otra manera puede alguien afirmar que la entropía revela una flecha del tiempo?
Como dije, creo que uno tiene que analizar más a fondo la idea de un extraterrestre para quien el tiempo correría hacia atrás antes de estar seguro de que tal idea era sólida y que provoca verdaderas contradicciones o incluso paradojas.
ET Jaynes, "Entropías de Gibbs vs Boltzmann", Am. J. física. 33 , número 5, págs. 391-398, 1965
ET Jaynes, "Teoría de la información y mecánica estadística", Phys. Rev. 106 , número 4, pp 620-630, 1965 así como muchos otros trabajos de ET Jaynes en este campo
Y un experimento notable que en realidad CONSTRUYE Y PRUEBA el Maxwell Daemon.
"Demostramos que la energía libre se obtiene mediante un control de retroalimentación utilizando la información sobre el sistema; la información se convierte en energía libre, como la primera realización del demonio de Maxwell tipo Szilard".
Al aumentar la precisión del instrumento de medición Y al realizar la medición, el observador PUEDE disminuir la entropía del sistema observado (al redefinir qué es un macroestado). Pero la entropía total del sistema observado más el observador aumentará.
Esto se debe a que cada acto de medición aumenta la entropía de todo el sistema. En otras palabras, es el observador quien es la fuente del aumento de entropía. Mire usted mismo: hacer una medición requiere algo de trabajo (energía aprovechable) solo para establecer algunos estados en la memoria del observador (o en el aparato). Esta energía no puede ser menor que la que se puede utilizar explorando el nuevo conocimiento sobre el microestado del sistema observado (cf. el demonio de Maxwell). Como tal, el aparato y el observador gastan sus fuentes de energía útil (queman alimentos y combustible) para poner su memoria en el estado exacto que refleja la observación.
Es completamente concebible que la entropía de todo el sistema pueda disminuir. Pero esto también significa que el observador desmedirá, dejará de ver y olvidará el resultado de su medición. Como no habrá memoria de tal evento, subjetivamente el observador solo observa el aumento de entropía.
Para una perspectiva mecánica cuántica, mira este artículo: http://arxiv.org/abs/0802.0438
Abordaré esta parte de tu pregunta:
Un observador determina que el número de microestados posibles del sistema+observador sea W0 en el tiempo t0. Después de mejorar sus mediciones, ¿puede (en un momento posterior) medir W′ (donde W0>W′) como el número de posibles microestados? Suponga que todos los microestados son igualmente probables en este caso.
Es instructivo despejar la mente de lo que es un macroestado y lo que es un microestado.
Este enlace que utiliza conceptos de dados simples define bien qué es un macroestado y cuáles son los microestados que contribuyen a él.
Es evidente que uno no tiene que tirar los dados para dar W=6 como el número de microestados para el séptimo macroestado.
De manera análoga, debido al hecho de que la mecánica estadística utiliza fórmulas matemáticas, el número de microestados para un macroestado termodinámico dado puede estimarse sin recurrir a la experimentación.
La afirmación "la entropía es constante o aumenta" solo es cierta en sistemas cerrados.
En contraste con la bonita pirámide de arriba, los sistemas físicos cambian. Como ejemplo, tome una masa M a la temperatura T1, irradiará de acuerdo con la radiación del cuerpo negro. ¿Qué es la radiación de cuerpo negro ? Es una radiación electromagnética (fotones) emitida continuamente por el reordenamiento de las energías/estados cinéticos y vibracionales de los átomos y moléculas que componen la masa M. Es una pérdida continua de energía hacia el entorno. Y el cuerpo se enfría lentamente. Si puede cristalizar, a medida que irradia y se enfría, se volverá más ordenado por las simetrías del cristal. Pero esto no es un sistema cerrado. La entropía del gas total, Masa y fotón, tiene que ser calculada y va en aumento:
En un sistema cerrado, la energía se conserva, pero se distribuye de muchas maneras diferentes debido a los numerosos fotones que irradian aleatoriamente desde la masa. La cantidad de formas en que esto puede suceder (piense en el macroestado 7) no es constante (como en el macroestado 7) pero es calculable. Comienza como W1 para T1 (donde T es la temperatura de la masa) pero crece según el número de fotones emitidos y sus distribuciones geométricas, hasta W2 para la temperatura de la masa T2; aquí la temperatura de la masa es una etiqueta para el macroestado de todo el sistema. Esto define un aumento del desorden y una flecha del tiempo para el sistema cerrado, M + fotones radiados.
Editar en respuesta a la edición en la pregunta:
El medio que propongo para reducir la entropía en el presente es mediante la redefinición de variables macroscópicas y de modelos microscópicos utilizados para contar el número de microestados distinguibles (que obviamente producen el mismo macroestado). Este es esencialmente un argumento en contra de la robustez de la entropía a través de la redefinición.
Una variable macroscópica que distingue un macroestado de otro es la Temperatura. La temperatura es una variable intensiva de la materia. Solo puedes cambiar la temperatura de la materia, no puedes redefinirla. Las variables macroscópicas no se pueden redefinir a la carta .
Se ha demostrado que los conceptos de termodinámica y el marco de mecánica estadística para los mismos son consistentes entre sí, aquí por ejemplo . Conocer o no conocer los detalles de los microestados no hace una diferencia en el número incluido en un macroestado. Las funciones de probabilidad no dependen de si conocemos o no los detalles, de la misma manera que en la pirámide de arriba el número de microestados es contable y los contemos o no, el número no cambiará. Los contamos para obtener la probabilidad de este pequeño número de estados; estimamos matemáticamente la probabilidad de la materia a granel. Saber o no saber los detalles es irrelevante.
Estoy casi en total desacuerdo con tu primer párrafo. La entropía es algo que se puede definir cuantitativamente si se conoce la multiplicidad de un sistema. Puede (y está) definido cuando uno conoce exactamente todos los microestados de un sistema. El hecho de que aumente más de lo que disminuye puede atribuirse, a mi entender, a las mismas razones por las que se extrema la acción para los sistemas dinámicos. El resto de esto (más allá del primer párrafo) parece estar basado en su falso sentido de dónde proviene el aumento de la entropía.
Lo que quiero decir con la declaración sobre el principio de Hamilton es que tal como lo interpreto, a menudo es energéticamente más favorable que los sistemas estén en estados de mayor entropía, por lo que con el tiempo el universo (compuesto por todos los macroestados posibles, compuesto por cada uno de sus respectivos microestados) tendrán una entropía creciente. Creo que correlacionar directamente la ignorancia con la entropía es incorrecto.
@jwimberley: Su segundo comentario anterior sobre el Big Bang es algo con lo que estoy de acuerdo y una de las formas en que creo que uno debería tratar de entender la flecha del tiempo desde un punto de vista entrópico.
jwimberley
mcodesmart
jwimberley
usuario12811
usuario4552
usuario4552
usuario4552
usuario4552