Homogeneidad temporal y propiedad de Markov

Mi pregunta puede estar relacionada con esta , pero no pude descifrar la conexión. De todos modos, aquí estamos: estoy aprendiendo sobre las cadenas de Markov de "Teoría de la probabilidad, un curso conciso" de Rozanov. En este libro, una cadena de Markov se define esencialmente como una colección de variables aleatorias discretas ξ ( norte ) en tiempo discreto, que satisfacen la homogeneidad temporal, es decir

PAG ( ξ ( norte + 1 ) = ϵ j | ξ ( norte ) = ϵ i ) = PAG ( ξ ( 1 ) = ϵ j | ξ ( 0 ) = ϵ i )
para todos norte . Curiosamente la propiedad de Markov
PAG ( ξ ( norte + 1 ) = s | ξ ( 0 ) , ξ ( 1 ) , , ξ ( norte ) ) = PAG ( ξ ( norte + 1 ) = s | ξ ( norte ) )
no se establece en la hipótesis. Así que me preguntaba si está implícito en la definición, es decir, si la homogeneidad temporal de las cadenas de Markov implica la propiedad de Markov.

Gracias.


PD: aquí está la definición de Rozanov más explícitamente:

Considere un sistema físico con las siguientes propiedades:

a) El sistema puede ocupar cualquiera de un número finito o contablemente infinito de estados ϵ 1 , ϵ 2 , ,

b) A partir de algún estado inicial en el tiempo t = 0 , el sistema cambia de estado aleatoriamente en los momentos t = 1 , 2 , . Por lo tanto, si la variable aleatoria ξ ( t ) es el estado del sistema en el momento t , la evolución del sistema en el tiempo está descrita por las transiciones consecutivas (o "pasos") ξ ( 0 ) ξ ( 1 ) ξ ( 2 )

c) en el tiempo t = 0 , el sistema ocupa el estado ϵ i con probabilidad inicial pag i 0 = PAG ( ξ ( 0 ) = ϵ i ) , i = 1 , 2 , .

d) Suponga que el sistema está en el estado ϵ i en cualquier momento norte . Entonces la
probabilidad de que el sistema pase al estado ϵ j en el siguiente paso está dado por

pag i , j = PAG ( ξ ( norte + 1 ) = ϵ j | ξ ( norte ) = ϵ i ) ,
i , j = 1 , 2 , independientemente de su comportamiento ante el tiempo norte . Los números pag i , j llamadas probabilidades de transición, no dependen del tiempo n.

Un "proceso aleatorio" descrito por este modelo se denomina cadena de Markov.

"independientemente de su comportamiento antes del tiempo n" es la propiedad de Markov.
Me parece que lo único que se usa en todo el capítulo es que pag i , j no depende de norte . Así que tengo la misma pregunta, si solo tienes la información que pag i , j es independiente de norte y el proceso es, por lo tanto, homogéneo en el tiempo, ¿implica que tiene la propiedad de Markov o hay contraejemplos?
El supuesto implícito es, informalmente, que el comportamiento del proceso sólo depende de la pag i j . Esto es lo que implica la propiedad de Markov; de hecho, es la propiedad de Markov.
Ok, gracias a los dos por aclarar esto.

Respuestas (1)

Dejar Z norte denote un uniforme de variables aleatorias iid en { 0 , 1 } y luego definir una secuencia

X norte = X norte 1 + Z norte + Z norte 1 .
Entonces es fácil ver que esto es homogéneo en el tiempo, pero no tiene la propiedad de Markov, ya que el conocimiento de ambos X norte 1 , X norte 2 podría dar información sobre Z norte 1 que no podría haberse determinado sin X norte 2 .

Más explícitamente,

PAG ( X norte = 5 | X norte 1 = 5 ) = 1 4 0 = PAG ( X norte = 5 | X norte 1 = 5 , X norte 2 = 3 )