1 minute read

3.4 .1 MODELO MATEMÁTICO ESTOCÁSTICO

Si una Cadena de Markov está en el estado �� − é��������, hay una probabilidad ������de pasar al próximo estado �� − é��������, a esta probabilidad ������ se la llama probabilidad de Transición. La probabilidad ������ de pasar del estado �� al estado �� en un paso se llama probabilidad de transición de �� a ��:

������ = ��������[����+�� = ��| ���� = ��]. (3)

Advertisement

Si el sistema se mueve del estado �� al estado �� durante el siguiente periodo, se dice que ocurrió una transición de �� a ��, Ecuación 2. El conjunto de las ������ se denomina probabilidades de transición de la Cadena de Markov (Winston, 2008).

Las cadenas de Markov se pueden representar como una matriz cuadrada de (�� + 1)∗ (�� + 1) de probabilidades, llamada Matriz de Transición, donde las filas corresponden al estado de inicio y las columnas al estado de llegada:

��00 … ��0�� �� =[ ⋮ ⋱ ⋮ ����0 … ������

] Dado que el estado en el tiempo �� es ��, el proceso en alguna parte debe estar en el tiempo �� + 1. Esto significa que para cada ��, 1 ≤ �� ≤ ��. Cada elemento de la matriz �� debe ser no negativo y la suma de los elementos de cada renglón debe ser igual a 1.

Las matrices de transición se pueden representar mediante gráficas, donde cada nodo representa un estado y un arco(��, ��) representa la probabilidad de transición ������. (Winston, 2008)

FIGURA 5. GRAFO DE PROBABILIDAD DE TRANSICIÓN

Figura 5. Grafo de probabilidad de transición. (tomada de http://virtual.umng.edu.co/)

UnADM | DCEIT| PT2 27

This article is from: