Dada una cadena de Markov finita, ¿cómo encuentro la entropía topológica? ? Además, debería compararlo con la entropía de Shannon y mostrar que . ¿Es esto un hecho general?
Esto en realidad proviene de un ejercicio, la cadena de Markov específica utilizada allí se define por:
Recomiendo encarecidamente dos referencias:
¿Cómo encuentro la entropía topológica? ?
A partir de un desplazamiento de Markov topológico compatible .
Las probabilidades de transición dadas corresponden a la matriz de transición (izquierda):
Obtenemos un desplazamiento de Markov topológico (es decir, un subdesplazamiento de tipo finito) de la cadena de Markov original considerando la matriz de adyacencia compatible con (ver las publicaciones aquí y esta charla ):
La entropía topológica del desplazamiento topológico de Markov viene dada (ver también este libro ( e-print )) por el logaritmo del radio espectral (es decir, el módulo de valores propios más grande, ) de la matriz de adyacencia:
Para arriba tenemos y por lo tanto
Si es el estado estacionario de la cadena de Markov dado por , entonces
El vector de estado estacionario de la cadena de Markov es el vector propio asociado con el valor propio unitario de , normalizado de modo que (ver estos ejemplos ). Para arriba tenemos
Eso produce, por ejemplo:
muestra esa . ¿Es esto un hecho general?
Sí, creo que sí.
La entropía de Shannon depende de la partición elegida y no tiene límites, por lo que esperaría la declaración (1) ser correcto. Además, es posible tener (i) (por ejemplo, para el cambio de Bernoulli ) y tenemos (ii) : de (i) y (ii) vemos que es posible que (2) sostiene; finalmente, de (1) y (2) tenemos: .
En términos de probabilidades , podemos escribir
Cálculo de la entropía de Shannon usando las probabilidades de estado estacionario, , obtenemos, por ejemplo:
martino