Si la entropía de la teoría de la información y la termodinámica no tienen por qué ser siempre idénticas, ¿cuál es más fundamental?

De acuerdo con la referencia [1] en ¿El acto de almacenar información (no su borrado) aumenta localmente la entropía en la memoria del demonio de Maxwell? , la entropía teórica de la información y la entropía termodinámica pueden no ser lo mismo. Mi pregunta se divide en 2 partes: i) si no son lo mismo, ¿cuál es más fundamental y ii) ambos deben atribuirse a un observable?

sobre la subjetividad de la entropía termodinámica, consulte physics.stackexchange.com/q/193677 y physics.stackexchange.com/q/395813
1. ¿Qué quiere decir con "fundamental"? 2. Dado que la entropía es una propiedad de los estados mixtos pero no de los estados puros, no es un "observable" en el sentido técnico de la palabra ni en la mecánica clásica ni en la cuántica. ¿Qué quiere decir aquí con estas entropías "atribuidas" a un observable?

Respuestas (3)

Más fundamental no es un concepto claro e inequívoco. Si por el concepto A es más fundamental que el concepto B se quiere decir que el concepto B puede deducirse del concepto A pero no viceversa, puede parecer que la entropía de la teoría de la información es más fundamental que la entropía termodinámica. Sin embargo, creo que después de un mayor escrutinio, este punto de vista parece inconsistente con los hechos.

De hecho, la "derivación" de la Termodinámica de la Teoría de la Información asume los conceptos y relaciones de la Termodinámica y muestra que las fórmulas de la Mecánica Estadística para las ecuaciones fundamentales de la Termodinámica pueden derivarse de la Teoría de la Información. Sin embargo, las Teorías Físicas son algo más que un conjunto de símbolos. Deben incluir las reglas de interpretación del formalismo. Por tanto, basta pensar en el concepto de calor. ¿Cómo se define dentro de la Teoría de la Información sin utilizar la Termodinámica?

Por lo tanto, no hablaría de más fundamental . Más bien diría que son dos entropías diferentes, con diferentes alcances. En algunos casos, la Teoría de la Información puede proporcionar resultados consistentes con la termodinámica, siempre que se hayan utilizado las reglas de interpretación de la Termodinámica .

Una observación diferente pero relacionada es que el mismo nombre de entropía para dos entidades diferentes en Termodinámica y Teoría de la Información no implica necesariamente una relación jerárquica.

Sobre tu segunda pregunta, la respuesta es negativa. Hay casos en los que solo uno de ellos puede ser significativo para un sistema físico. Intentaré explicar la afirmación anterior con un par de ejemplos:

  1. La fórmula de Shannon solo requiere la asignación de una probabilidad a cada microestado de un sistema. Por lo tanto, es un concepto significativo incluso en el caso de una distribución de probabilidad de no equilibrio. La entropía termodinámica se define solo para sistemas en equilibrio.
  2. Los sistemas termodinámicos se basan en sistemas físicos con dinámicas subyacentes que controlan la evolución de estados microscópicos. La entropía de la información se puede asignar incluso a sistemas estáticos (que no evolucionan).
De hecho, la entropía termodinámica se puede definir para sistemas fuera del equilibrio. Bueno, puede que no sea del todo correcto llamarlo "termodinámica" en este caso, y es mejor decir "entropía física", pero en general es la misma entropía. Y es posible, por ejemplo, probar que la entropía de un estado de equilibrio es mayor que la entropía de cualquier estado de no equilibrio.
@warlock La llamada entropía de no equilibrio está conectada a las condiciones de equilibrio termodinámico local. Sin eso, no existe una definición bien establecida de lo que podría ser una entropía de no equilibrio.
Hay una definición bien establecida incluso cuando no hay equilibrio local. Para el caso clásico (no cuántico) es la fórmula de Boltzmann registro norte , dónde norte es un recuento de microestados que pertenecen al macroestado actual. Bueno, puede ser un poco difícil definir macroestados en tales casos, pero este es otro problema.
La fórmula de @warlock Boltzamnn fue diseñada para usarse solo en conexión con microestados de un sistema aislado en equilibrio. No existe una generalización para los sistemas genéricos de no equilibrio. ¿Cuál sería la caracterización del macroestado en tal caso?
"En algunos casos, la teoría de la información puede proporcionar resultados consistentes con la termodinámica, siempre que se hayan utilizado las reglas de interpretación de la termodinámica". Esa es una muy buena manera de pensar en ello. La teoría de la información, como cualquier teoría matemática, solo se aplica al mundo real cuando se le da una interpretación. Incluso los hechos aritméticos solo son verdaderos físicamente cuando se usan para modelar algo que satisface sus axiomas (como contar manzanas).
La fórmula de @GiorgioP Boltzmann también estaba destinada a usarse en relación con la ecuación de transporte de Boltzmann, que se puede usar para gas que no está en equilibrio. La distribución de una partícula de grano ligeramente grueso en el espacio de fase ( m -espacio) se puede utilizar como una caracterización de macroestado natural para dicho gas.

Por un lado, la entropía termodinámica es solo un tipo especial de entropía de información, por lo que la última es más fundamental.

Por otro lado, la entropía informacional es generalmente subjetiva y depende del observador, pero la entropía termodinámica es la misma para todos los observadores (salvo un desplazamiento por una constante, lo que no es significativo) y por lo tanto es de hecho objetiva y por que juega un papel fundamental en la física.

Tenga en cuenta que, en principio, uno puede imaginar un observador para quien la entropía termodinámica no tiene sentido, pero dicho observador debe ser no local, y las leyes dinámicas de la física, aparentemente, no permiten la existencia de tales observadores.

Puede encontrar algunos detalles en "La base física de la dirección del tiempo" de Zeh.

La relación entre la información y la entropía termodinámica es que son conceptualmente distintos pero equivalentes en un sentido similar a como lo son la masa y la energía, lo que significa que existe una proporcionalidad uno a uno entre los dos, pero sus significados semánticos son bastante diferentes. Esto se puede resumir en forma de una ecuación.

Δ S = [ k B en ( 2 ) ]   Δ H

(si se mide H en shannons, en lugar de nats) y, lo que es más importante, esto se refiere a cambios en la entropía, porque puede haber un cambio constante arbitrario que se relacione con la cantidad de información que tiene el agente al que se atribuye la entropía informativa.

Conceptualmente, la diferencia es que la entropía termodinámica se aplica a un sistema físico , pero la entropía informacional se aplica a un mensaje , que es más abstracto, o mejor, la relación entre un mensaje y un agente receptor. Debido a que se aplican a diferentes cosas, es difícil llamar a una más fundamental o, en todo caso, podríamos llamar a la entropía térmica la "más fundamental" desde un punto de vista físico porque es una propiedad física directa de un sistema. La equivalencia surge cuando consideramos que el "mensaje" en cuestión es la descripción microscópica del sistema físico, es decir, el mensaje que especifica completamente el microestado del sistema.

Las objeciones citadas por otros autores aquí tienen que ver con los agentes que aprenden/adquieren información; ese tipo de cambios no son a los que se refiere la equivalencia anterior: se refiere a cómo el conocimiento del agente, sin adquirir nueva información, "fecha" en el tiempo como el El sistema experimenta una evolución física de acuerdo con las leyes de la física. Si aprende nueva información, lo que significa que amplía su descripción del macroestado para que sea menos "macro" y más "micro", entonces H salta de una manera inconsistente con S porque S se basa en un macroestado estándar fijo (por ejemplo, energía y volumen, para un gas). Otra forma de ver esto es que cuando el sistema y el agente interactúan en la medición, el aislamiento en el que se basan las atribuciones de S y H Depende, se descompone. Uno debería, en tales situaciones, preguntarse acerca de la S y H atribuido al par compuesto sistema/agente por un segundo agente, si realmente se quiere discutir la equivalencia.

(PD el uso de H aquí no debe confundirse con la entalpía . Esa es una desafortunada colisión notacional en este contexto, pero oye, el principio del casillero después de todo...)