Расчёт вероятности поглощения в состоянии — различия между версиями
Shersh (обсуждение | вклад) м |
|||
| Строка 14: | Строка 14: | ||
'''for''' i = 0 '''to''' m - 1 | '''for''' i = 0 '''to''' m - 1 | ||
'''if''' input[i][0] == input[i][1] '''and''' input[i][2] == 1 | '''if''' input[i][0] == input[i][1] '''and''' input[i][2] == 1 | ||
| − | absorbing[input[i][0]] = true | + | absorbing[input[i][0]] = ''true'' |
| − | abs++ | + | abs++ |
</code> | </code> | ||
Найдем число несущественных состояний <tex>nonabs = n - abs</tex>. Теперь нужно заполнить матрицы <tex>Q</tex> (переходов между несущественными состояниями) и <tex>R</tex> (переходов из несущественных состояний в поглощающие). Для этого создадим сначала массив <tex>position</tex> где <tex>i</tex>-ый элемент указывает под каким номером будет находиться <tex>i</tex>-ое состояние среди существенных если оно существенное или несущественных в обратном случае, и заполним эти массивы. | Найдем число несущественных состояний <tex>nonabs = n - abs</tex>. Теперь нужно заполнить матрицы <tex>Q</tex> (переходов между несущественными состояниями) и <tex>R</tex> (переходов из несущественных состояний в поглощающие). Для этого создадим сначала массив <tex>position</tex> где <tex>i</tex>-ый элемент указывает под каким номером будет находиться <tex>i</tex>-ое состояние среди существенных если оно существенное или несущественных в обратном случае, и заполним эти массивы. | ||
<code style = "display: inline-block;"> | <code style = "display: inline-block;"> | ||
| − | count_q = 0 | + | count_q = 0 |
| − | count_r = 0 | + | count_r = 0 |
'''for''' i = 0 '''to''' n - 1 | '''for''' i = 0 '''to''' n - 1 | ||
'''if''' absorbing[i] | '''if''' absorbing[i] | ||
| − | position[i] = count_r | + | position[i] = count_r |
| − | count_r++ | + | count_r++ |
'''else''' | '''else''' | ||
| − | position[i] = count_q | + | position[i] = count_q |
| − | count_q++ | + | count_q++ |
'''for''' i = 0 '''to''' m - 1 | '''for''' i = 0 '''to''' m - 1 | ||
'''if''' absorbing[input[i][1]] | '''if''' absorbing[input[i][1]] | ||
'''if''' !absorbing[input[i][0]] | '''if''' !absorbing[input[i][0]] | ||
| − | R[position[input[i][0]]][position[input[i][1]]] = input[i][2] | + | R[position[input[i][0]]][position[input[i][1]]] = input[i][2] |
'''else''' | '''else''' | ||
| − | Q[position[input[i][0]]][position[input[i][1]]] = input[i][2] | + | Q[position[input[i][0]]][position[input[i][1]]] = input[i][2] |
</code> | </code> | ||
Найдем Матрицу <tex>E = I - Q</tex> и создадим единичную матрицу <tex>N</tex>. | Найдем Матрицу <tex>E = I - Q</tex> и создадим единичную матрицу <tex>N</tex>. | ||
<code style = "display: inline-block;"> | <code style = "display: inline-block;"> | ||
'''for''' i = 0 '''to''' nonabs - 1 | '''for''' i = 0 '''to''' nonabs - 1 | ||
| − | N[i][i] = 1 | + | N[i][i] = 1 |
| − | E[i][i] = 1 | + | E[i][i] = 1 |
'''for''' j = 0 '''to''' nonabs - 1 | '''for''' j = 0 '''to''' nonabs - 1 | ||
| − | E[i][j] -= Q[i][j] | + | E[i][j] -= Q[i][j] |
</code> | </code> | ||
Теперь приведем матрицу <tex>E</tex> к единичной методом Гаусса - Жордана, применяя те же преобразования к матрице <tex>N</tex>. | Теперь приведем матрицу <tex>E</tex> к единичной методом Гаусса - Жордана, применяя те же преобразования к матрице <tex>N</tex>. | ||
<code style = "display: inline-block;"> | <code style = "display: inline-block;"> | ||
'''for''' i = 0 '''to''' nonabs - 1 | '''for''' i = 0 '''to''' nonabs - 1 | ||
| − | '''if''' E[i][i] | + | '''if''' E[i][i] <tex> \neq </tex> 1 |
| − | mul = E[i][i] | + | mul = E[i][i] |
'''for''' j = 0 '''to''' nonabs - 1 | '''for''' j = 0 '''to''' nonabs - 1 | ||
| − | E[i][j] /= mul | + | E[i][j] /= mul |
| − | N[i][j] /= mul | + | N[i][j] /= mul |
'''for''' row = 0 '''to''' nonabs - 1 | '''for''' row = 0 '''to''' nonabs - 1 | ||
| − | '''if''' i | + | '''if''' i <tex> \neq </tex> row |
| − | mul = E[row][i] | + | mul = E[row][i] |
'''for''' j = 0 '''to''' nonabs - 1 | '''for''' j = 0 '''to''' nonabs - 1 | ||
| − | E[row][j] -= mul * E[i][j] | + | E[row][j] -= mul * E[i][j] |
| − | N[row][j] -= mul * N[i][j] | + | N[row][j] -= mul * N[i][j] |
</code> | </code> | ||
В результате <tex>N = E^{-1}</tex> т.е. <tex>N</tex> - фундаментальная матрица Марковской цепи. Найдем матрицу <tex>G = NR</tex>. | В результате <tex>N = E^{-1}</tex> т.е. <tex>N</tex> - фундаментальная матрица Марковской цепи. Найдем матрицу <tex>G = NR</tex>. | ||
| Строка 62: | Строка 62: | ||
'''for''' i = 0 '''to''' nonabs - 1 | '''for''' i = 0 '''to''' nonabs - 1 | ||
'''for''' j = 0 '''to''' abs - 1 | '''for''' j = 0 '''to''' abs - 1 | ||
| − | G[i][j] = 0 | + | G[i][j] = 0 |
'''for''' k = 0 '''to''' nonabs - 1 | '''for''' k = 0 '''to''' nonabs - 1 | ||
| − | G[i][j] += N[i][k] * R[k][j] | + | G[i][j] += N[i][k] * R[k][j] |
</code> | </code> | ||
Выведем ответ: в <tex>i</tex>-ой строке вероятность поглощения в <tex>i</tex>-ом состоянии. Естественно, для несущественного состояния это <tex>0</tex>, в ином случае <tex>p_i=(($$\sum_{k=1}^n G[k][j]$$)+1)/n</tex> где <tex>j</tex> - номер соответствующий <tex>i</tex>-ому состоянию в матрице <tex>G</tex> (т.е. под которым оно располагалось в матрице <tex>R</tex> т.е. значение <tex>position[i]</tex>). Прибавлять 1 нужно т.к. вероятность поглотиться в <tex>i</tex>-ом поглощающем состоянии, оказавшись изначально в нем же равна 1. | Выведем ответ: в <tex>i</tex>-ой строке вероятность поглощения в <tex>i</tex>-ом состоянии. Естественно, для несущественного состояния это <tex>0</tex>, в ином случае <tex>p_i=(($$\sum_{k=1}^n G[k][j]$$)+1)/n</tex> где <tex>j</tex> - номер соответствующий <tex>i</tex>-ому состоянию в матрице <tex>G</tex> (т.е. под которым оно располагалось в матрице <tex>R</tex> т.е. значение <tex>position[i]</tex>). Прибавлять 1 нужно т.к. вероятность поглотиться в <tex>i</tex>-ом поглощающем состоянии, оказавшись изначально в нем же равна 1. | ||
<code style = "display: inline-block;"> | <code style = "display: inline-block;"> | ||
'''for''' i = 0 '''to''' n - 1 | '''for''' i = 0 '''to''' n - 1 | ||
| − | prob = 0 | + | prob = 0 |
'''if''' absorbing[i] | '''if''' absorbing[i] | ||
'''for''' j = 0 '''to''' nonabs - 1 | '''for''' j = 0 '''to''' nonabs - 1 | ||
| − | prob += G[j][position[i]] | + | prob += G[j][position[i]] |
| − | prob++ | + | prob++ |
| − | prob /= n | + | prob /= n |
| − | println(prob) | + | println(prob) |
</code> | </code> | ||
Версия 22:28, 17 ноября 2013
Поглощающее(существенное) состояние цепи Маркова - состояние с вероятностью перехода в самого себя . Составим матрицу G, элементы которой равны вероятности того, что, выйдя из i, попадём в поглощающее состояние j.
| Теорема: |
| Доказательство: |
|
Пусть этот переход будет осуществлён за r шагов: i → → → ... → → j, где все являются несущественными. Тогда рассмотрим сумму , где Q - матрица переходов между несущественными состояниями, R - из несущественного в существенное. Матрица G определяется их суммированием по всем длинам пути из i в j: , т.к. , а фундаментальная матрица марковской цепи |
Псевдокод
Пусть - количество состояний Марковской цепи, - количество переходов. Состояния пронумерованы от до , переходы от до . Входные данные хранятся в массиве где -ая строка характеризует -ый переход таким образом: - вероятность перехода из состояния в состояние .
Создадим массив типа boolean, где -ое true обозначает что -ое состояние является поглощающим и наоборот. Обнаружим поглощающие состояния по такому признаку: если состояние поглощающее, то с вероятностью 1 оно переходит само в себя. Также посчитаем количество поглощающих состояний .
for i = 0 to m - 1
if input[i][0] == input[i][1] and input[i][2] == 1
absorbing[input[i][0]] = true
abs++
Найдем число несущественных состояний . Теперь нужно заполнить матрицы (переходов между несущественными состояниями) и (переходов из несущественных состояний в поглощающие). Для этого создадим сначала массив где -ый элемент указывает под каким номером будет находиться -ое состояние среди существенных если оно существенное или несущественных в обратном случае, и заполним эти массивы.
count_q = 0
count_r = 0
for i = 0 to n - 1
if absorbing[i]
position[i] = count_r
count_r++
else
position[i] = count_q
count_q++
for i = 0 to m - 1
if absorbing[input[i][1]]
if !absorbing[input[i][0]]
R[position[input[i][0]]][position[input[i][1]]] = input[i][2]
else
Q[position[input[i][0]]][position[input[i][1]]] = input[i][2]
Найдем Матрицу и создадим единичную матрицу .
for i = 0 to nonabs - 1
N[i][i] = 1
E[i][i] = 1
for j = 0 to nonabs - 1
E[i][j] -= Q[i][j]
Теперь приведем матрицу к единичной методом Гаусса - Жордана, применяя те же преобразования к матрице .
for i = 0 to nonabs - 1 if E[i][i] 1 mul = E[i][i] for j = 0 to nonabs - 1 E[i][j] /= mul N[i][j] /= mul for row = 0 to nonabs - 1 if i row mul = E[row][i] for j = 0 to nonabs - 1 E[row][j] -= mul * E[i][j] N[row][j] -= mul * N[i][j]
В результате т.е. - фундаментальная матрица Марковской цепи. Найдем матрицу .
for i = 0 to nonabs - 1
for j = 0 to abs - 1
G[i][j] = 0
for k = 0 to nonabs - 1
G[i][j] += N[i][k] * R[k][j]
Выведем ответ: в -ой строке вероятность поглощения в -ом состоянии. Естественно, для несущественного состояния это , в ином случае где - номер соответствующий -ому состоянию в матрице (т.е. под которым оно располагалось в матрице т.е. значение ). Прибавлять 1 нужно т.к. вероятность поглотиться в -ом поглощающем состоянии, оказавшись изначально в нем же равна 1.
for i = 0 to n - 1
prob = 0
if absorbing[i]
for j = 0 to nonabs - 1
prob += G[j][position[i]]
prob++
prob /= n
println(prob)
Литература
- Википедия - Цепи Маркова
- Кемени Дж., Снелл Дж. "Конечные цепи Маркова".