Sobre la definición de cadenas de Markov

Una cadena de Markov con dependencia temporal discreta y probabilidades de transición estacionaria se define de la siguiente manera. Dejar S ser un conjunto numerable, pag i j Sea un número no negativo para cada i , j S y supongamos que estos números satisfacen j S pag i j = 1 para cada i . Una secuencia { X j } de variables aleatorias con rangos en S se define como una cadena de Markov si

PAG [ X norte + 1 = j | X 0 = i 0 , , X norte = i norte ] = pag i norte j ( 1 )
para cada norte y cada secuencia i 0 , , i norte en S para cual PAG [ X 0 = i 0 , , X norte = i norte ] > 0 .

La propiedad

PAG [ X norte + 1 = j | X norte = i ] = pag i j ( 2 ) ,
es una consecuencia de la definición (1), pero no creo que (2) implique (1). Entonces, ¿hay ejemplos interesantes que satisfagan (2) pero que no sean cadenas de Markov?

(Por supuesto (1) determina PAG [ X norte = i norte , X norte 1 = i norte 1 , , X norte k = i norte k ] en términos de las probabilidades de transición y las probabilidades iniciales para cualquier norte y todo k norte , mientras que (2) lo hace para cualquier norte y para k = 0 , 1 .)

Respuestas (2)

Se pueden considerar primitivas de procesos estocásticos, en el siguiente sentido. Asumir que ( tu norte ) es iid y define ( X norte ) y ( S norte ) recursivamente por X 0 = S 0 = 0 y, por cada norte 0 ,

X norte + 1 = X norte + tu norte + 1 , S norte + 1 = S norte + X norte + 1 .
Entonces, el proceso ( tu norte ) es iid por definición (por lo tanto, una cadena de Markov), el proceso ( X norte ) es una cadena de Markov (homogénea) con probabilidades de transición pag i , j = PAG ( tu 1 = j i ) para todos los estados ( i , j ) , pero, en general, el proceso ( S norte ) no es una cadena de Markov.

Por ejemplo, suponga que cada tu norte es uniforme en { 1 , 1 } , entonces ( X norte ) es la caminata aleatoria estándar en Z con transiciones pag i , i + 1 = pag i , i 1 = 1 2 para cada i en Z . Usando la notación ξ i : j para ( ξ i , ξ i + 1 , , ξ j ) para varios símbolos ξ y enteros i j , se puede comprobar que

PAG ( S 1 : 4 = ( 1 , 1 , 0 , 2 ) ) = PAG ( tu 1 : 4 = ( 1 , 1 , 1 , 3 ) ) = 0 ,
mientras
PAG ( S 1 : 4 = ( 1 , 1 , 0 , 2 ) ) = PAG ( tu 1 : 4 = ( 1 , 1 , 1 , 1 ) ) 0 ,
de ahí la distribución de S 4 condicionalmente en S 1 : 3 no depende solo de S 3 , eso es, ( S norte ) no es una cadena de Markov.

...Sin embargo, el proceso ( S norte ) es "Markov de orden 2 ", en el sentido de que la distribución de S norte + 2 condicionalmente en S 1 : norte + 1 depende de ( S norte , S norte + 1 ) solo. Específicamente, para todos los números enteros ( i , j , k ) ,

PAG ( S norte + 2 = k S 1 : norte 1 , S norte = i , S norte + 1 = j ) = PAG ( tu 1 = k 2 j + i ) .
La iteración del mecanismo de primitivación descrito anteriormente produce "procesos de Markov de órdenes superiores".

Para obtener procesos estacionarios , es decir, procesos ( S norte ) cuyas transiciones no dependen del tiempo, considere nuevamente ( tu norte ) uniforme iid en { 1 , 1 } pero considere algunos procesos ( X norte ) y ( S norte ) en el espacio de estado Z / norte Z para algunos grandes norte , definida recursivamente por X 0 = S 0 uniforme en Z / norte Z , y

X norte + 1 = X norte + tu norte + 1 ( modificación norte ) , S norte + 1 = S norte + X norte + 1 ( modificación norte ) .
Entonces, cada X norte y cada S norte es uniforme en Z / norte Z y X norte + 1 es independiente de S norte (este exige un poco de trabajo). En particular, el proceso ( S norte ) no es una cadena de Markov ya que, para cada ( i , j ) en Z / norte Z ,
PAG ( S norte + 1 = j S norte = i ) = 1 norte , PAG ( S norte + 1 = j S norte 1 = 2 i j , S norte = i ) = 0.

Cualquier distribución de probabilidad satisfará su ecuación 2. El punto de una cadena de Markov es que en la ecuación

PAG [ X norte + 1 = j | X 0 = i 0 , , X norte = i norte ] = pag i norte j ,
la probabilidad solo depende del elemento anterior:
PAG [ X norte + 1 = j | X 0 = i 0 , , X norte = i norte ] = PAG [ X norte + 1 = j | X norte = i norte ] .

Bueno, (2) no carece de significado, ya que dice que la probabilidad condicional no depende del tiempo. Entonces, ¿cuál es un ejemplo de un proceso que satisface (2) que no es una cadena de Markov?