Unidades naturales de información

En física, la entropía se suele medir en nats . Me pregunto si existe un modelo posible de un sistema físico que tenga entropía de un número discreto de nats.

¿Cómo se deben ordenar las partículas y los grados de libertad para que esto suceda?

me interesarían los dos

  • ejemplo de un sistema analógico (no discreto)

  • ejemplo de un sistema cuántico

Parece que los nats juegan un papel especial en los sistemas a escala de Planck. Consulte esta pregunta: physics.stackexchange.com/questions/98152/…

Respuestas (3)

El sistema no discreto más simple sin duda es la entropía de una variable aleatoria que es uniforme en un intervalo de longitud mi , por ejemplo, el intervalo [ 0 , mi ] , y 0 fuera de ese intervalo, por lo que la densidad de probabilidad es constante mi 1 . Esto tiene una entropía de 1 nacional

Me encanta un buen ejemplo trivial. ¡Lindo!
@ user1504 He agregado mi propia respuesta.

Un número entero de nats generalmente no es significativo. Al menos nunca he visto surgir tal cosa en ninguna situación física o matemática sensible. Son bastante similares a los radianes en ese sentido: uno rara vez se encuentra considerando un ángulo de exactamente un radián, pero los usamos de todos modos porque simplifican las matemáticas.

Eso no quiere decir que no puedas idear un ejemplo. Por ejemplo, Wolfram|Alpha me dice que un sistema discreto de tres estados tiene una entropía de uno nat si

pag 1 = pag 2 en pag 2 pag 3 en pag 3 1 W ( pag 2 en pag 2 pag 3 en pag 3 1 ) ,
dónde W es la función W de Lambert . Es difícil imaginar que este tipo de cosas surjan en cualquier situación que no sea una en la que estamos tratando deliberadamente de construir una entropía de un nat.

Esto se puede extender fácilmente a un ejemplo cuántico, considerando un sistema de dos espines preparado en el estado | 00 con probabilidad pag 1 y de manera similar pag ( | 01 ) = pag 2 , pag ( | 10 ) = pag 3 y pag ( | 11 ) = 0 , con pag 1 pag 3 definido como arriba. Entonces estará en un estado mixto con una entropía de von Neumann de un nat.

Si pienso en una manera fácil de construir un ejemplo no discreto, actualizaré esta publicación, pero garantizo que se sentirá tan artificial como los ejemplos discretos y cuánticos. Usamos nats porque evitan la necesidad de la constante de Boltzmann, no porque la cantidad 1 natural es significativo.

He agregado mi propia respuesta.

La respuesta a continuación se basa en una observación del autor de esta pregunta, que se puede encontrar aquí y aquí , aunque el contexto es un poco diferente. (Cuando lo escribí, no sabía que esas preguntas fueron escritas por la misma persona que esta pregunta, pero aún así creo que es una respuesta útil para futuras referencias).

En total contradicción con mi respuesta anterior, hay un buen ejemplo natural donde 1 2 natural surge como una cantidad de información. Surge como una entropía condicional en lugar de una entropía, pero creo que sigue siendo interesante. Por supuesto, puede convertirlo en un nat simplemente haciendo dos copias independientes del mismo sistema. Este es un ejemplo puramente matemático, pero es tan simple que es fácil imaginarlo surgiendo en un contexto físico.

Dejar q sea ​​una variable aleatoria uniformemente distribuida en el intervalo [ 0 , 1 ] . Dejar X sea ​​una variable aleatoria discreta con valores { 0 , 1 } , correlacionado con q tal que pag ( X = 1 | q = q ) = q . (o dicho de otro modo, X es una variable aleatoria cuya probabilidad q se distribuye uniformemente en [ 0 , 1 ] .)

Es claro que la entropía de X es un bit, y la entropía de q diverge (O, si prefiere usar la entropía continua de Shannon, es igual a un bit). Sin embargo, también podemos preguntar el valor de la entropía condicional H ( X | q ) , que (hablando informalmente) es la cantidad esperada de incertidumbre que queda en la variable X después de aprender el valor de q . se define como

0 1 pag ( q = q ) H ( X | q = q ) ,

o

0 1 d q ( q registro q + ( 1 q ) registro ( 1 q ) ) = [ 1 2 ( X 2 registro ( X ) + X + ( X 1 ) 2 registro ( 1 X ) ) ] 0 1 = 1 2 natural .

Dados dos sistemas idénticos e independientes de esta forma con variables X 1 , q 1 y X 2 , q 2 , la entropía condicional H ( X 1 X 2 | q 1 q 2 ) = 2 H ( X | q ) = 1 natural .

También es razonable preguntar el valor de la información mutua entre las dos variables. X y q . Esto está dado por en 2 1 / 2 nacionales , o 1 1 2 registro 2 mi pedacitos .

Para ver un ejemplo más físico de una cantidad de una nación, consulte esta pregunta de Mark Eichenlaub. Actualmente estoy tratando de averiguar si hay una conexión entre este ejemplo físico y el matemático que acabo de presentar.

¿No es lo mismo que en mi publicación aquí: physics.stackexchange.com/questions/98067/… y aquí physics.stackexchange.com/questions/98152/… ? Ya hice una respuesta yo mismo, pero los moderadores la eliminaron.
Sí, tienes razón, y en retrospectiva, tu publicación debe ser de donde la obtuve. (Tomé notas sobre él en ese momento y parece que olvidé anotar dónde lo encontré, lo siento).
¿Puede modificar la respuesta para aclarar el origen?
Hecho. (Lo habría hecho antes, pero tenía prisa).