Diagonal del (auto) producto de la matriz de transición doblemente estocástica

Por doblemente estocástico y de transición, me refiero a que cada suma de fila y suma de columna de una matriz es 1 y cada elemento de la matriz está en [0, 1]. Aquí, estoy considerando que la matriz es n por n donde n es finito.
Tengo curiosidad por saber que si P y Q son matrices de transición doblemente estocásticas, ¿podemos decir algo sobre los elementos diagonales de PQ? (algo así como que son positivos). ¿
Qué pasa con los elementos diagonales de PAG 2 donde P es una matriz de transición doblemente estocástica?
(Eventualmente, quiero que sean mayores que cero para mostrar que para la cadena de Markov en tiempo discreto con matriz de transición doblemente estocástica y espacio de estado finito, todos los estados son recurrentes). Editar: como sugiere @kimchilover, hay un ejemplo que

no No hago lo que quiero que haga una matriz de transición doblemente estocástica. Sin embargo, el ejemplo particular da un MC finito irreducible, por lo que eventualmente hace lo que quiero mostrar, que es que todos los estados son recurrentes. Este es siempre el caso? Si es así, ¿cómo hago para mostrar esto?
¡Gracias!

Si PAG = q = ( 0 1 0 0 0 1 1 0 0 ) (que es doblemente estocástico) entonces los elementos diagonales de PAG q = PAG 2 no son positivos.
Aunque el ejemplo de @kimchilover en una cadena de Markov de tiempo discreto con tres estados, todos los estados siguen siendo recurrentes con esta matriz de transición en particular, por lo que tal vez haya algo más que el OP pueda buscar además de que todos los elementos diagonales sean positivos
@kimchilover Gracias por el comentario. De hecho, se me ocurrió exactamente el mismo ejemplo justo después de cargar la pregunta. He editado la pregunta en consecuencia.

Respuestas (1)

Si   PAG   es un   norte × norte   matriz doblemente estocástica entonces

1 PAG = 1   .
Por lo tanto,   1 norte 1   es una distribución estacionaria de la correspondiente cadena de Markov. Pero si   i   es un estado transitorio de una cadena de Markov, entonces toda distribución estacionaria   π   de esa cadena debe tener   π i = 0   . De ello se deduce que ninguna cadena de Markov con una matriz de transición doblemente estocástica puede tener estados transitorios.

¡Gracias! Esto responde a mi pregunta.