En este capítulo se presenta la definición de periodicidad e irreductibilidad de las cadenas de Markov, dos propiedades importantes cuando se quiere analizar el comportamiento de la cadena en el largo plazo. Para la construcción de estas propiedades, también se presentan ciertas clasificaciones de los estados y las cadenas de Markov.
Sea una cadena de Markov con espacio de estados
Por ejemplo, en la cadena que se muestra en la Figura 1, un camino entre el estado 3 y el estado 6 está compuesto por el arco que conecta el estado 3 con el estado 5 y el arco que conecta el estado 5 con el estado 6.
Considere una cadena de Markov con espacio de estados
Esta es una relación transitiva, es decir:
Además, siempre se cumple que
En particular en el caso de las cadenas en tiempo discreto, que
Considere una cadena de Markov con espacio de estados
Se puede demostrar que esta es una relación transitiva, simétrica y
reflexiva, por lo que se puede usar para crear una partición de
Para el caso de la Figura 1, se puede afirmar que el estado 0 se comunica con el estado 1 dado que el estado 0 es alcanzable desde el estado 1, y viceversa.
Considere una cadena de Markov con espacio de estados
Esto es, todos los estados en
Considere una clase comunicante
En la figura 1, los estados
Una cadena de Markov con espacio de estados
Además, si la cadena es irreducible la totalidad del espacio de estados es también una clase comunicante cerrada.
Un estado
La identificación de un estado absorbente depende de la temporalidad de la cadena.
-
En las CMTD el estado
$i \in S$ es absorbente si el único elemento no nulo en la fila correspondiente a$i$ en la matriz de probabilidades de transición a un paso$\mathbb{P}$ está en la diagonal (y en este caso, por obvias razones, será 1). En resumen, se tendría que$p_{ii} = 1$ . -
En las CMTC el estado
$i \in S$ es absorbente si todos los elementos de la fila correspondiente a$i$ en la matriz de tasas de transición$Q$ son iguales a cero.
Por ejemplo, el estado 6 de la figura 1 es un estado absorbente.
Una cadena de Markov es absorbente si contiene un conjunto de
estados absorbentes
Note que no todas las cadenas que tienen estados absorbentes son cadenas
absorbentes. Por ejemplo, en la cadena que se muestra en la Figura 1, el
estado
Un estado
Esto quiere decir que si la cadena empieza en el estado
Un estado
Esta condición es más fuerte que la anterior ya que a un estado recurrente se podría volver con probabilidad 1, pero el valor esperado de regreso podría ser infinito. Esto sucede especialmente en cadenas con espacios de estado infinitos. Por ejemplo, si la cadena representa el número de personas en una cola, siempre es posible regresar al estado 0 (cola vacía), pero si las personas llegan mucho más rápido de lo que es posible atenderlas, el tiempo hasta volver a la cola vacía puede ser infinito, en valor esperado.
Un estado
La recurrencia es una propiedad que se comparte en la clase comunicante, lo que hace más fácil identificar qué estados de una cadena son recurrentes o transitorios. Además, si una cadena es finita e irreducible se puede garantizar que todos sus estados son recurrentes.
Adicionalmente, en una cadena absorbente todos los estados que no son absorbentes son transitorios, y cada estado absorbente es recurrente.
En una CMTD, el periodo de un estado
Ahora, si un estado
Por ejemplo, en la CMTD representada por la Figura 2 cuando
Un estado es aperiódico si tiene periodo 1.
Ya que la definición del periodo tiene que ver con el número de
transiciones antes de volver a un estado, el periodo sólo se estudia en
cadenas de Markov de tiempo discreto. Por definición, todos los estados
de una cadena de Markov en tiempo continuo son aperiódicos. Además, al
igual que la comunicación, la periodicidad sólo tiene que ver con la
existencia de una transición (es decir, es de interés revisar las
componentes no nulas de la matriz
De forma similar a la recurrencia, el periodo es una propiedad que se comparte entre clases comunicantes cerradas, lo que simplifica el cálculo del periodo para todos los estados de una cadena y da pie a la siguiente definición.
Una CMTD es periódica/aperiódica si todos los estados son periódicos/aperiódicos.
-
Una cadena de Markov de tiempo discreto finita es ergódica si es irreducible y aperiódica.
-
Una cadena de Markov de tiempo discreto infinita es ergódica si es irreducible, aperiódica y todos sus estados son recurrentes positivos.
-
Una cadena de Markov de tiempo continuo finita es ergódica si es irreducible.
-
Una cadena de Markov de tiempo continuo infinita es ergódica si es irreducible y todos sus estados son recurrentes positivos.
Que una cadena sea o no ergódica afecta el tipo de análisis que se puede hacer sobre el comportamiento del sistema en el largo plazo, como se mostrará en el siguiente capítulo, y permite determinar propiedades cualitativas de las distribuciones de la probabilidad de estado en el tiempo. Por ejemplo, en una cadena ergódica con más de un estado, la probabilidad de estar en un estado en el largo plazo nunca será 0 ni 1. En una cadena no ergódica, por ejemplo, absorbente, la probabilidad de estar en cada estado absorbente en el largo plazo es no-decreciente en el tiempo.

