Cadenas de markov

Page 1

CADENAS DE MARKOV


Introducción 

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria, “recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros.


Propiedades Markovianas 

Es equivalente a establecer una probabilidad condicional de cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual Xi = i, es independiente del evento pasado y sólo depende del estado actual del proceso.

Existen muchas situaciones en las cuales es posible aplicar matrices, para esto consideramos situaciones en la que se separa la población en dos o más categorías o estados. Por ejemplo, podemos separar los ciudadanos de un país de acuerdo a:

Ingresos, en las categorías: pobre, ingreso medio, o rico.


Matrices de transición 

La tendencia de una población a moverse entre n estados se puede describir a veces mediante una matriz de n x n. consideremos una población distribuida entre n=3 estados, que llamaremos estado 1, estado 2 y estado 3. se supone que conocemos la proporción ij t de la población del estado j, que se mueve al estado i en determinado periodo de tiempo fijo.

Obsérvese que la dirección del movimiento del estado j al estado i va en orden derecha a izquierda de los subíndices en ij t.

La matriz se llama matriz de transición


Ejemplo 

En un país lejano solo existen dos posibilidades en el clima, seco y mojado. Un estudiante de meteorología sabe que la probabilidad de que el clima sea seco el 1ro de Enero del año en curso es a y la probabilidad de que en dos días consecutivos el clima sea el mismo, tiene un valor p, 0 < p < 1.

Escribamos los elementos que identifican en este problema una cadena de Markov.


Solución 

Solo hay dos posibles estados E1: Seco y E2: Mojado

Tenemos 1 = a, a0 y 2 = 1 – a

La matriz P de transición de un paso será:

Se observa en P que las probabilidades de clima seco un día, dado que el anterior fue seco; y de mojado un día, dado que el día anterior fue mojado con iguales p. en cualquier otro caso tenemos una probabilidad de 1 – p. las probabilidades a0 1 y a0 2, junto con P, determinan en este ejemplo una cadena de Markov


Tipos de cadenas de Markov 

La probabilidad de hallar el sistema en un estado determinado cuando lleva funcionando un tiempo indefinidamente largo se denominan probabilidades estacionarias. El estudio de las probabilidades estacionarias, puede entenderse como el estudio del comportamiento a largo plazo de las cadenas de Markov.

Dichas probabilidades se denotan como πij, y la matriz de probabilidades de estado estable como P*.

Podemos aproximarnos al estudio de las probabilidades estacionarias viendo qué ocurre si calculamos potencias elevadas de algunas matrices P.


Cadenas ergódicas 

La cadena de Markov C1, de dos estados, tiene la matriz de probabilidades de transición:

Calculemos la potencia decimosexta de esa matriz para aproximar la matriz de probabilidades estacionarias:

Vemos que las probabilidades de estado estable de los diferentes estados son independientes del estado origen, razón por la que la matriz tiene todas las filas iguales.


Cadenas semiergódicas 

Tenemos ahora una cadena C2 de 4 estados, de matriz de probabilidades de transición.

En la matriz de la transición decimosexta, se observa como todas las filas tienden a ser iguales, con una diferencia respecto de las cadenas ergódicas. Las cadenas de Markov regulares con alguna de las columnas igual a cero se llaman semiergódicas.


Cadenas no ergódicas (semirregular) 

La cadena C3, de 4 estados, tiene la siguiente matriz:

Observando la matriz de la transición 16, podemos ver que, mientras algunas filas tienen el mismo comportamiento que las de los casos anteriores, otras tienden a ciertos valores diferentes, ello quiere decir que las probabilidades de estado estable si dependen de cuál ha sido el estado inicial de la cadena.


Cadenas cíclicas 

La cadena C4, después de un número elevado e transiciones presenta un comportamiento diferente de las cadenas anteriores:

Al ir obteniendo matrices de transición, se observa que no convergen a un valor correcto.

En este caso las transiciones impares tienden a un valor y las pares a otro.


Clasificación de las cadenas de Markov 

La clasificación de las cadenas de Markov puede realizarse mediante dos metodologías:

El análisis topológico

• Examinando las propiedades de los estados de la cadena y estableciendo clases de equivalencia entre los estados.

El análisis espectral

• Examinando los valores propios de la matriz de probabilidades de transición de un paso.


Análisis topológico las cadenas de Markov 

Permite la clasificación de las cadenas a partir de la información suministrada por la matriz P utilizando propiedades relativas a la relación entre los estados.

Propiedades de estado:

El estado i es descendiente de j si cuando iniciamos el proceso en i existe una probabilidad no nula de que le proceso llegue a j.

Los estados i y j se comunican si i es descendiente de j y viceversa.

Existirá un ciclo dentro de una cadena de Markov si existe un camino en la cadena que comunique al estado i consigo mismo.


Diagrama de transiciones 

Con las definiciones dadas, la existencia de un circuito implica que todos los estados que lo forman están comunicados. Se conviene que todo estado está comunicado consigo mismo, ya que si al menos puede acceder a él en cero transiciones (un circuito de longitud cero), con independencia de que además existan otros circuitos de longitud mayor.

Para analizar las relaciones entre estados, es útil recordar que, según la teoría de grafos, toda matriz cuadrada tiene asociado un grafo, cuya representación gráfica se puede elaborar a partir de la matriz de probabilidades de transición.


Propiedades de estado en cadenas de Markov


Análisis espectral de las cadenas de Markov 

Si conocemos los valores propios de una matriz de probabilidades de transición, podemos conocer ciertas propiedades de su cadena de Markov asociada mediante un análisis espectral. Se parte de la siguiente propiedad general de las matrices estocásticas: “Los valores propios complejos de una matriz estocástica tienen módulo inferior o igual a uno”

El análisis espectral parte de este hecho y de la siguiente propiedad:

Cada clase final de periodo p genera p valores propios de valor igual a las raíces p –ésimas de 1. el resto de los valores propios serán de módulo inferior a 1.


Ejemplo 

Una cadena de Markov con el conjunto de valores propios siguiente: { -0.8 0.4 +1 -1 +1 -0.3 0.01 0 }

Es una cadena de Markov cíclica: cuenta con una fase final de periodo 1 y con una clase final de periodo 2.

Dado que existen ocho valores propios, la cadena debe tener precisamente 8 estados, pero no sabemos cuáles pertenecen cada una de las 2 clases finales, ni si hay alguno en clases de paso o no. Si sabemos que por tratarse de una cadena mixta se trata de un caso no ergódico.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.