Entropía topológica en cadenas de Markov

Dada una cadena de Markov finita, ¿cómo encuentro la entropía topológica? h T ? Además, debería compararlo con la entropía de Shannon h S y mostrar que h T h S . ¿Es esto un hecho general?

Esto en realidad proviene de un ejercicio, la cadena de Markov específica utilizada allí se define por:

Ω = { 1 , 2 , 3 }
con probabilidades de transición
pag 1 1 = 1 q pag 1 2 = pag 1 3 = q 2
pag 2 2 = 1 q pag 2 3 = q
pag 3 1 = 1

¿El libro del que proviene el ejercicio no define qué es la entropía topológica?

Respuestas (1)

Recomiendo encarecidamente dos referencias:

  • el artículo de Young ( e-print ), una revisión conceptual esclarecedora de la entropía en sistemas dinámicos;
  • Tesis de Maestría de Pekoske , por sus ejemplos con cálculos paso a paso.
    (Sin embargo, tenga cuidado con el error tipográfico en la página 36: h m ( σ ) .075489 tiene que leer h m ( σ ) 0.32451 .)

Entropía topológica h T

¿Cómo encuentro la entropía topológica? h T ?

A partir de un desplazamiento de Markov topológico compatible .

Las probabilidades de transición dadas corresponden a la matriz de transición (izquierda):

PAG = ( 1 q 0 1 q / 2 1 q 0 q / 2 q 0 ) .

Obtenemos un desplazamiento de Markov topológico (es decir, un subdesplazamiento de tipo finito) de la cadena de Markov original considerando la matriz de adyacencia A compatible con PAG (ver las publicaciones aquí y esta charla ):

A = ( 1 0 1 1 1 0 1 1 0 ) .

La entropía topológica del desplazamiento topológico de Markov viene dada (ver también este libro ( e-print )) por el logaritmo del radio espectral (es decir, el módulo de valores propios más grande, | λ | ) de la matriz de adyacencia:

h T = registro 2 | λ | .

Para A arriba tenemos λ = 2 y por lo tanto

h T = 1.

Entropía de Kolmogorov-Sinai (KS) h k S

Si π es el estado estacionario de la cadena de Markov dado por PAG , entonces

h k S = i , j π i PAG i j registro 2 PAG i j .

El vector de estado estacionario π de la cadena de Markov es el vector propio asociado con el valor propio unitario de PAG , normalizado de modo que π i = 1 (ver estos ejemplos ). Para PAG arriba tenemos

π = 1 2 q + 3 ( 2 1 2 q ) .

Eso produce, por ejemplo:

h k S ( q = 1 / 2 ) 1 ,
h k S ( q = 1 / 5 ) 0.75464.

Entropía de Shannon h S

muestra esa h T h S . ¿Es esto un hecho general?

Sí, creo que sí.

La entropía de Shannon h S depende de la partición elegida y no tiene límites, por lo que esperaría la declaración (1) h T < h S ser correcto. Además, es posible tener (i) h S = h k S (por ejemplo, para el cambio de Bernoulli ) y tenemos (ii) h T h k S : de (i) y (ii) vemos que es posible que (2) h T = h S sostiene; finalmente, de (1) y (2) tenemos: h T h S .

En términos de probabilidades pag i , podemos escribir

h S = i pag i registro 2 pag i .

Cálculo de la entropía de Shannon usando PAG las probabilidades de estado estacionario, π i , obtenemos, por ejemplo:

h S ( q = 1 / 2 ) 1.5.
h S ( q = 1 / 5 ) 1.3328.

¡Buena respuesta! ¿Puedo preguntar cuál es la receta para escribir la matriz de transición? (¿y por qué?) Ingenuamente, escribiría $p_{ij} = p_{i\to j}, que es triangular con el mayor valor propio 1, dando así cero entropía
@JohnDonne, Gracias. El mayor valor propio que necesita para h T es de la matriz de adyacencia A , no de la matriz de transición PAG . Sobre cómo escribir PAG , es cuestión de convención: la que mencionas es la matriz de transición derecha , la más habitual en matemáticas (ver aquí ), y luego los vectores estocásticos son filas; para tratar con matrices, estoy más acostumbrado a los vectores de columna, que supongo que son comunes en física, y que corresponden a una matriz de transición izquierda PAG i j = pag i j .
Sí, por supuesto, mi error. Copié la matriz de transición incorrecta. ¡Gracias!