Расчёт вероятности поглощения в состоянии — различия между версиями
(→Псевдокод) |
(→Псевдокод) |
||
Строка 66: | Строка 66: | ||
G[i][j] += N[i][k] * R[k][j]; | G[i][j] += N[i][k] * R[k][j]; | ||
</code> | </code> | ||
− | Выведем ответ: в <tex>i</tex>-ой строке вероятность поглощения в <tex>i</tex>-ом состоянии. Естественно для несущественного состояния это 0, в ином случае <tex> | + | Выведем ответ: в <tex>i</tex>-ой строке вероятность поглощения в <tex>i</tex>-ом состоянии. Естественно для несущественного состояния это 0, в ином случае <tex>p_i=(($$\sum_{k=1}^n G[k][j]$$)+1)/n</tex> где <tex>j</tex> - номер соответствующий <tex>i</tex>-ому состоянию в матрице <tex>G</tex> (т.е. под которым оно располагалось в матрице <tex>R</tex> т.е. значение <tex>position[i]</tex>). Прибавлять 1 нужно т.к. вероятность поглотиться в <tex>i</tex>-ом поглощающем состоянии, оказавшись изначально в нем же равна 1. |
<code style = "display: inline-block;"> | <code style = "display: inline-block;"> | ||
'''for''' i = 0 '''to''' n - 1 | '''for''' i = 0 '''to''' n - 1 |
Версия 19:23, 5 января 2013
Поглощающее(существенное) состояние цепи Маркова - состояние с вероятностью перехода в самого себя
. Составим матрицу G, элементы которой равны вероятности того, что, выйдя из i, попадём в поглощающее состояние j.Теорема: |
Доказательство: |
Пусть этот переход будет осуществлён за r шагов: i → Матрица G определяется их суммированием по всем длинам пути из i в j: → → ... → → j, где все являются несущественными. Тогда рассмотрим сумму , где Q - матрица переходов между несущественными состояниями, R - из несущественного в существенное. , т.к. , а фундаментальная матрица марковской цепи |
Псевдокод
Пусть
for i=0 to n - 1 if input[i][0] == input[i][1] and input[i][2] == 1 absorbing[input[i][0]] = true; abs++;
Найдем число несущественных состояний
count_q = 0; count_r = 0; for i = 0 to n - 1 if abs[i] position[i] = count_r; count_r++; else position[i] = count_q; count_q++; for i = 0 to m - 1 if absorbing[input[i][1]] if !absabsorbing[input[i][0]] R[position[input[i][0]]][position[input[i][1]]] = input[i][2]; else Q[position[input[i][0]]][position[input[i][1]]] = input[i][2];
Найдем Матрицу
for i = 0 to nonabs - 1 N[i][i] = 1; E[i][i] = 1; for j = 0 to nonabs - 1 E[i][j] -= Q[i][j];
Теперь приведем матрицу
for i = 0 to nonabs - 1 if E[i][i] != 1 mul = E[i][i]; for j = 0 to nonabs - 1 E[i][j] /= mul; N[i][j] /= mul; for row = 0 to nonabs - 1 if i != row mul = E[row][i]; for j = 0 to nonabs - 1 E[row][j] -= mul * E[i][j]; N[row][j] -= mul * N[i][j];
В результате
for i = 0 to nonabs - 1 for j = 0 to absorbing - 1 G[i][j] = 0; for k = 0 to nonabs - 1 G[i][j] += N[i][k] * R[k][j];
Выведем ответ: в
for i = 0 to n - 1 prob = 0; if absorbing[i] for j = 0 to nonabs - 1 prob += G[j][position[i]]; prob++; prob /= n; println(prob);
Литература
- Википедия - Цепи Маркова
- Кемени Дж., Снелл Дж. "Конечные цепи Маркова".