1 minute read

3.4 MODELO O PROCESO ESTOCÁSTICO

Una Cadena de Markov es una secuencia (��1, ��2, ��3, … . . ����) de variables aleatorias, el dominio de estas variables es el llamado Espacio Estado. El valor ���� es el estado del proceso en el tiempo ��.

La distribución de la probabilidad condicionada de ����+1 en estados pasados es una función de ���� por sí sola, siendo ���� el estado del proceso en el instante i‐ésimo.

Advertisement

��[����+�� = ����+��|���� = ����, ����−�� = ����−��, … ���� = ����, ���� = ����]= ��[����+�� = ����+��|���� = ����] (1)

Para cualesquiera �� ≥ 0 �� { ����+1, ��1, ��2, … . , ����}∈ �� Si |��|< ∞ se dice que la Cadena de Markov es finita, en caso contrario se dice que es infinita.

3.2 CADENAS HOMOGÉNEAS Y NO HOMOGÉNEAS

La clasificación de cadenas de Markov que se conocen dentro de los procesos estocásticos nos ayudan a tener un panorama visual referente a las probabilidades que tiene la variable aleatoria, lo que implica adentrarse en este maravilloso mundo que es la modelación matemática.

Una Cadena de Markov se dice homogénea si la probabilidad de ir del estado �� al estado �� en un paso no depende del tiempo en el que se encuentra la cadena. Ecuación 1.

��[���� = ��|����−�� = ��]= ��[���� = ��| ���� = ��] ∀ ��, ��. (2)

Si para alguna pareja de estados y para algún tiempo �� la propiedad mencionada no se cumple se dice que la Cadena de Markov es no homogénea.

3.3 PROBABILIDAD Y MATRIZ DE TRANSICIÓN

El uso adecuado de las probabilidades que se mencionan a continuación nos ayudará a entender mejor el uso que se tiene dentro del tema de Cadenas de Markov, esto con la finalidad de preparar el camino de lo expuesto en el capítulo 5 de este trabajo.

UnADM | DCEIT| PT2 26

This article is from: