Una cadena es un proceso en tiempo discreto en el que una variable aleatoria va cambiando de estado con el paso del tiempo, es decir, una cadena representa un sistema que varía su estado a lo largo del tiempo.
Un estado es una caracterización de la situación en la que se halla un determinado sistema en un instante dado, y puede ser tanto cuantitativo como cualitativo; en términos sencillos, un estado es la respuesta a la pregunta ¿Cómo están las cosas?; en términos más formales, el estado de un sistema en un determinado instante es una variable aleatoria cuyos valores solo pueden pertenecer al conjunto de posibles estados del sistema, que son mutuamente excluyentes.
Es así qua una cadena de Markov se define como una sucesión de eventos, de tal forma que su probabilidad de ocurrencia de un determinado evento solo depende del evento inmediato anterior; es un concepto desarrollado dentro de la teoría de la probabilidad y la estadística que establece esta fuerte dependencia; gracias a esta propiedad es posible predecir el comportamiento del sistema a través del tiempo, hecho que las distingue las cadenas de eventos independientes como tirar una moneda al aire o un dado.
El sistema que pretende modelizar una cadena de Markov es, por consiguiente, una variable aleatoria que cambia de valor (cuantitativo o cualitativo) en el tiempo. A dicho cambio se le denomina transición.
Las cadenas de Márkov han sido ampliamente utilizadas en numerosos campos de la ciencia y, en particular, en el de las Ciencias Sociales; en los negocios, las cadenas de Markov se utiliza para analizar los patrones de compra, la gestión de cobranzas, planeación de necesidades de personal, reemplazo de equipos, etc. La mayor dificultad en su aplicación es definir cuando es posible aplicar la técnica, siendo el factor fundamental identificar la memoria inmediata entre eventos.
Las probabilidades de paso de un estado i a otro j (pij). se denominan probabilidades de transición. En caso de que pij > 0, se dice que el estado Ei puede comunicar con el estado Ei. La comunicación se dice que es mutua si Pji > 0.
Si se consideran m posibles estados, E1, E2, ..., Em mutuamente excluyentes, para cada i fijo, el conjunto de probabilidades Pij, J = 1, 2, ..., m, define una distribución de probabilidad, puesto que en cualquier eslabón de la cadena tiene que darse uno de los estados E1, E2, ..., Em. Esto es:
pji >= 0 y pi1+pi2+....+pim=1
Un desarrollo teórico mas completo se expone en el siguiente documento:
Técnicamente una matriz de transición define la probabilidad de cambio de estado a partir del tiempo actual (t1) hasta un tiempo futuro (t+1). Es así que la matriz de transición es una colección de probabilidades para la transición en un solo paso de transitar desde el estado i (en el tiempo actual) hasta el estado j (en el tiempo futuro), por lo tanto las filas de esta matriz siempre sumarán 1.(un paso es el tiempo que transcurre para que se suceda la transición, puede ser un segundo, un minuto, un día, una semana, etc.)
Sea entonces P la matriz de transición de 1 solo paso; a partir de esta matriz es posible establecer las matrices de transición en n pasos P^n que es la multiplicación sucesiva de la matriz P n veces sucesivas. Para la estructuración de una matriz de transición muchas veces es necesario recurrir a los diagramas de transición, que son una exposión gráfica de los posibles estados de la naturaleza y las probabilidades de migrar de un estado a otro en un solo paso con el uso de grafos. Los siguientes videos con ejemplos aclaran estos conceptos:
El vector de probabilidades iniciales es la distribución de probabilidades de la ocurrencia de los posibles estados en el tiempo inicial (que en términos prácticos suele ser el tiempo actual). A partir de este vector es posible determinar las probabilidades de ocurrencia de los distintos eventos cuando han transcurrido n pasos; el siguiente ejemplo refuerza este concepto:
Los estados de una cadena de Markov se clasifican de acuerdo al comportamiento de la probabilidad de transición pij; según Taha H. (2012):
1. “Un estado j es absorbente si está seguro de regresar a sí mismo en una transición; es decir, pjj=1.
2. Un estado j es transitorio si puede llegar a otro estado pero no puede regresar desde otro estado. Matemáticamente, esto sucederá si para todas las i
3. Un estado j es recurrente si la probabilidad de ser revisitado desde otros estados es 1. Esto puede suceder si, y sólo si, el estado no es transitorio.
4. Un estado j es periódico con periodo de t>1 si es posible un retorno sólo en t, 2t, 3t,… pasos. Esto significa que cuando n no es divisible entre t.” (p. 576)
Para los fines de la materia de estudiará solamente los estados transitorios y los estados absorventes por su importancia en las aplicaciones.
Las matrices de transición con estados transitorios se caracterizan por su convergencia en el tiempo; asimismo el vector de probabilidades tiende a converger con el tiempo. De la misma forma es posible que una vez que se migró de un estado i al j en un determinado número de pasos, se pueda retornar desde el estado j al estado i en determinado número de pasos. Los siguientes ejemplos aclaran estos conceptos.
Se dice que un estado es absorbente si la probabilidad de hacer una transición fuera de ese estado es cero. Por tanto, una vez que el sistema hace una transición hacia un estado absorbente, permanece en el siempre.
Una cadena de Markov con estados absorbentes no se puede analizar bajo la misma metodología que una cadena de Markov ergódica, debido a que una vez que los estados transitorios migran hacia un absorbente, permanecen ahí por tiempo indefinido. En las cadenas con estados absorbentes se determina la probabilidad de que un estado llegue a un estado absorbente y el número de transiciones para que tal suceso se acontezca; para su análisis se procede de la siguiente forma:
a) Las filas y columnas de la matriz P se reacomodan de tal forma que todos los estados absorbentes estén juntos en el lado derecho e inferior de la matriz (las probabilidades pii=1 forman una diagonal en la parte inferior derecha de la matriz).
b) Se hace una partición de la matriz P reordenada en 4 matrices, con las cuales se hacen cálculos para determinar los siguientes datos:
Tiempo que se permanece en el estado j iniciando desde el estado i:
Tiempo esperado para la absorción
La probabilidad de la absorción
Los siguientes ejemplos ilustran estos conceptos