Actualización Esta pregunta se responde en la sección 3.2 de estas notas .
Como novato en probabilidad, me cuesta entender completamente la definición de una cadena de Markov como una secuencia de variables aleatorias.
Para simplificar, considere cadenas de Markov homogéneas en tiempo discreto con espacios de estados finitos que tomamos por ser . Entiendo la siguiente definición de una cadena de Markov en este contexto:
Una cadena de Markov es un par dónde es una matriz de transición .
Dada esta definición, se puede generar una trayectoria de la cadena de Markov que consta de una secuencia infinita de elementos de inicializando en un estado y evolucionando hacia adelante de acuerdo con las probabilidades de transición .
Hasta ahora todo bien, todo esto es bastante intuitivo.
Sin embargo, supongamos en cambio que uno considera una cadena de Markov como una secuencia de variables aleatorias con valores en teniendo la propiedad de Markov , ¿existe un mapeo estándar entre estas definiciones? En particular, dado que cada es una variable aleatoria cuyo dominio es un espacio muestral ;
y dado que las probabilidades de transición generalmente se describen como probabilidades condicionales;
o la transposición de esto dependiendo de sus convenciones, presumiblemente hay un espacio de muestra y una medida de probabilidad sentado en algún lugar ?
Una suposición sería que puede tomarse como el conjunto de todas las sucesiones de elementos de , la variable aleatoria asigna cualquier secuencia de este tipo a su elemento,
y es cualquier medida de probabilidad sobre el conjunto de subconjuntos de que satisface la propiedad de Markov.
¿Es esta descripción de (una dirección de) la correspondencia entre estas definiciones de cadena de Markov correcta y/o estándar ?
No estoy seguro de que esto responda completamente a sus preguntas y definitivamente no soy un experto, pero es lo mejor que pude hacer. Lo siento, es un poco largo y confuso, pero finalmente llego a sus preguntas.
Sí, siempre hay un espacio de estado detrás de una variable aleatoria. , pero como habrás notado, generalmente se suprime, ya que en cierto sentido describe el "mundo" y todos los estados posibles en los que podría estar el mundo y, por lo tanto, es demasiado complicado para tratarlo directamente.
Nuestro objetivo al definir una variable aleatoria es, en un sentido muy real, simplificar nuestro modelo del "mundo" asignando muchos estados al mismo resultado. por ejemplo si es o dependiendo de si mi moneda al aire es cara o cruz, este resultado será, presumiblemente, independiente de si llueve mañana, o la dinámica política en China, etc.
Para ser más explícito, dado que el lanzamiento de la moneda es una probabilidad de 50/50 e independientemente de si llueve o no mañana, eso significa que el conjunto de estados donde llueve se superpondrá uniformemente (en términos de la medida de las dos superposiciones) con el dos juegos de lanzamiento de monedas inconexos que dividen nuestro espacio estatal, además, solo por independencia, las superposiciones serán tales que el acondicionamiento de las caras no cambiará la probabilidad de lluvia. Es decir
Por lo tanto, el espacio de estado se superpone con esta colección inimaginablemente compleja de conjuntos (eventos medibles) con todo tipo de patrones intrincados de simetrías superpuestas.
Afortunadamente, al simplificar nuestra visión del "mundo" a través de una variable aleatoria , hereda la propiedad de ser un espacio de probabilidad, donde medimos la probabilidad de un evento retractándose de nuevo a como sigue:
Por lo tanto, no solo podemos suprimir el espacio de estado original , pero incluso podemos suprimir la variable aleatoria original si queremos, o en otras palabras, podríamos definir una nueva variable aleatoria que es simplemente la función identidad. Además, bajo algunas suposiciones leves, podemos escribir esta medida heredada como la integral de Lebesgue de una función no negativa con medida total , que es solo nuestro pdf familiar. Esta es la razón por es solo .
Lo importante para la gente es que aquí es donde comienza la mayoría de los modelos, no con , pero con . Esta es la razón por la que en las aplicaciones a menudo comenzamos nuestro modelo dando una función de distribución/densidad que nos dice directamente, y luego simplemente agitamos nuestras manos sobre cómo esto "en teoría" se retrae a un espacio de estado a priori consistente pero en última instancia incognoscible .
Por lo tanto, para su cadena de Markov de espacio de estado finito, es importante aclarar que no son estados de su cadena de Markov, son las funciones de masa de probabilidad heredadas en evolución en . Donde su matriz de transición le dice cómo pasar de un pmf al siguiente. Por supuesto, detrás de cada es una variable aleatoria que toma valor con probabilidad y tiene un espacio de estado subyacente tal que
Por lo tanto, quiero dejar en claro que en la formulación de la cadena de Markov de la matriz de transición, tanto el espacio de estado y la secuencia de variables aleatorias se suprimen y, en cambio, solo está observando la evolución de la secuencia de funciones de masa de probabilidad asociadas que le indica la probabilidad de que su cadena de Markov esté en un estado/nodo particular en el momento .
Su segunda formulación es por lo tanto equivalente a establecer igual al vector base estándar y luego verificando el valor en el coordenada del vector ; esto por supuesto será igual a .
cuando escribiste Creo que en lo que podrías estar pensando es en la probabilidad de varias secuencias de estados de tu cadena de Markov, que es algo diferente.
Finalmente, en cuanto a qué es que no me preocuparía por eso, si realmente quieres, puedes jugar con un conjunto finito e intente superponer algunos conjuntos de varias maneras para ver cómo el concepto de independencia se trata realmente de la forma en que los conjuntos se superponen en una especie de cascada simétrica.
COMO
joshfísica