Расчёт вероятности поглощения в состоянии — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Лишний псевдокод вынесене в одельную статью и редактирован(ссылка добавлена в "Смотри также", имена переменных были обернуты в \mathtt.)
Строка 8: Строка 8:
 
Тогда рассмотрим сумму <tex>\sum\limits_{\forall(i_{1} ... i_{r-1})} {p_{i, i_{1}} \cdot p_{i_{1}, i_{2}} \cdot ... \cdot p_{i_{r-1}, j}} = Q^{r-1} \cdot R</tex>, где <tex>Q</tex> - матрица переходов между несущественными состояниями, <tex>R</tex> - из несущественного в существенное.  
 
Тогда рассмотрим сумму <tex>\sum\limits_{\forall(i_{1} ... i_{r-1})} {p_{i, i_{1}} \cdot p_{i_{1}, i_{2}} \cdot ... \cdot p_{i_{r-1}, j}} = Q^{r-1} \cdot R</tex>, где <tex>Q</tex> - матрица переходов между несущественными состояниями, <tex>R</tex> - из несущественного в существенное.  
 
Матрица <tex>G</tex> определяется их суммированием по всем длинам пути из i в j: <tex>G = \sum\limits_{r = 1}^{\infty}{Q^{r-1} \cdot R} = (I + Q + Q^{2} + Q^{3} + ...) \cdot R = NR</tex>, т.к. <tex>(I + Q + Q^2 + ...) \cdot (I - Q) = I - Q + Q - Q^{2} + ... = I</tex>, а фундаментальная матрица марковской цепи <tex>N = (I - Q)^{-1}</tex> }}
 
Матрица <tex>G</tex> определяется их суммированием по всем длинам пути из i в j: <tex>G = \sum\limits_{r = 1}^{\infty}{Q^{r-1} \cdot R} = (I + Q + Q^{2} + Q^{3} + ...) \cdot R = NR</tex>, т.к. <tex>(I + Q + Q^2 + ...) \cdot (I - Q) = I - Q + Q - Q^{2} + ... = I</tex>, а фундаментальная матрица марковской цепи <tex>N = (I - Q)^{-1}</tex> }}
=Псевдокод=
+
==Псевдокод==
Пусть <tex>n</tex> - количество состояний Марковской цепи, <tex>m</tex> - количество переходов. Состояния пронумерованы от <tex>0</tex> до <tex>n - 1</tex>, переходы от <tex>0</tex> до <tex>m - 1</tex>.  Входные данные хранятся в массиве <tex>input</tex> где <tex>i</tex>-ая строка характеризует <tex>i</tex>-ый переход таким образом: <tex>input[i][2]</tex> - вероятность перехода из состояния <tex>input[i][0]</tex> в состояние <tex>input[i][1]</tex>.
+
Выведем ответ: в <tex>\mathtt{i}</tex>-ой строке вероятность поглощения в <tex>\mathtt{i}</tex>-ом состоянии. Естественно, для несущественного состояния это <tex>\mathtt{0}</tex>, в ином случае <tex>\mathtt{p_i=((\sum_{k=1}^n G[k][j]+1)/n}</tex> где <tex>\mathtt{j}</tex> - номер соответствующий <tex>\mathtt{i}</tex>-ому состоянию в матрице <tex>\mathtt{G}</tex> (т.е. под которым оно располагалось в матрице <tex> \mathtt{R} </tex> т.е. значение <tex>\mathtt{position[i]}</tex>). Прибавлять <tex>\mathtt{1}</tex> нужно т.к. вероятность поглотиться в <tex>\mathtt{i}</tex>-ом поглощающем состоянии, оказавшись изначально в нем же равна <tex>\mathtt{1}</tex>.
Создадим массив <tex>absorbing</tex> типа boolean, где <tex>i</tex>-ое true обозначает что <tex>i</tex>-ое состояние является поглощающим и наоборот. Обнаружим поглощающие состояния по такому признаку: если состояние поглощающее, то с вероятностью 1 оно переходит само в себя. Также посчитаем количество поглощающих состояний <tex>abs</tex>.
+
*<tex>\mathtt{probability[i]}</tex> - вероятность поглощения в <tex>\mathtt{i}</tex>-ом состоянии
<code style = "display: inline-block;">
+
*<tex>\mathtt{absorbing[i]}</tex> - является ли i-е состояние поглощающим
'''for''' i = 0 '''to''' m - 1
+
 
    '''if''' input[i][0] == input[i][1] '''and''' input[i][2] == 1
+
  '''function''' getAbsorbingProbability(absorbing: boolean[n], G: float[n][n])
      absorbing[input[i][0]] = ''true''
+
     float probability[n]
      abs++
+
     '''for''' i = 0 '''to''' n - 1
</code>
+
       prob = 0
Найдем число несущественных состояний <tex>nonabs = n - abs</tex>. Теперь нужно заполнить матрицы <tex>Q</tex> (переходов между несущественными состояниями) и <tex>R</tex> (переходов из несущественных состояний в поглощающие). Для этого создадим сначала массив <tex>position</tex> где <tex>i</tex>-ый элемент указывает под каким номером будет находиться <tex>i</tex>-ое состояние среди существенных если оно существенное или несущественных в обратном случае, и заполним эти массивы.
+
       '''if''' absorbing[i]
<code style = "display: inline-block;">
 
count_q = 0
 
count_r = 0
 
'''for''' i = 0 '''to''' n - 1
 
    '''if''' absorbing[i]
 
      position[i] = count_r
 
      count_r++
 
    '''else'''
 
      position[i] = count_q
 
      count_q++
 
  '''for''' i = 0 '''to''' m - 1
 
    '''if''' absorbing[input[i][1]]
 
      '''if''' !absorbing[input[i][0]]
 
          R[position[input[i][0]]][position[input[i][1]]] = input[i][2]
 
    '''else'''
 
      Q[position[input[i][0]]][position[input[i][1]]] = input[i][2]
 
</code>
 
Найдем Матрицу <tex>E = I - Q</tex> и создадим единичную матрицу <tex>N</tex>.
 
<code style = "display: inline-block;">
 
'''for''' i = 0 '''to''' nonabs - 1
 
    N[i][i] = 1
 
     E[i][i] = 1
 
     '''for''' j = 0 '''to''' nonabs - 1
 
      E[i][j] -= Q[i][j] 
 
</code>
 
Теперь приведем матрицу <tex>E</tex> к единичной методом Гаусса - Жордана, применяя те же преобразования к матрице <tex>N</tex>.
 
<code style = "display: inline-block;">
 
'''for''' i = 0 '''to''' nonabs - 1
 
    '''if''' E[i][i] <tex> \neq </tex> 1
 
      mul = E[i][i]
 
       '''for''' j = 0 '''to''' nonabs - 1
 
          E[i][j] /= mul
 
          N[i][j] /= mul
 
    '''for''' row = 0 '''to''' nonabs - 1
 
       '''if''' i <tex> \neq </tex> row
 
          mul = E[row][i]
 
 
           '''for''' j = 0 '''to''' nonabs - 1
 
           '''for''' j = 0 '''to''' nonabs - 1
             E[row][j] -= mul * E[i][j]
+
             prob += G[j][position[i]]
            N[row][j] -= mul * N[i][j]
+
          prob++
</code>
+
          prob /= n
В результате <tex>N = E^{-1}</tex>  т.е. <tex>N</tex> - фундаментальная матрица Марковской цепи. Найдем матрицу <tex>G = NR</tex>.
+
      probability[i] = prob
<code style = "display: inline-block;">
+
    return probability
'''for''' i = 0 '''to''' nonabs - 1
 
    '''for''' j = 0 '''to''' abs - 1
 
      G[i][j] = 0
 
      '''for''' k = 0 '''to''' nonabs - 1
 
          G[i][j] += N[i][k] * R[k][j]
 
</code>
 
Выведем ответ: в <tex>i</tex>-ой строке вероятность поглощения в <tex>i</tex>-ом состоянии. Естественно, для несущественного состояния это <tex>0</tex>, в ином случае <tex>p_i=(($$\sum_{k=1}^n G[k][j]$$)+1)/n</tex> где <tex>j</tex> - номер соответствующий <tex>i</tex>-ому состоянию в матрице <tex>G</tex> (т.е. под которым оно располагалось в матрице <tex>R</tex> т.е. значение <tex>position[i]</tex>). Прибавлять 1 нужно т.к. вероятность поглотиться в <tex>i</tex>-ом поглощающем состоянии, оказавшись изначально в нем же равна 1.
 
<code style = "display: inline-block;">
 
'''for''' i = 0 '''to''' n - 1
 
    prob = 0
 
    '''if''' absorbing[i]
 
      '''for''' j = 0 '''to''' nonabs - 1
 
          prob += G[j][position[i]]
 
      prob++
 
      prob /= n
 
    println(prob)
 
</code>
 
  
=Литература=
+
==Смотри также==
 +
*[http://neerc.ifmo.ru/wiki/index.php?title=%D0%9F%D0%BE%D0%B4%D1%81%D1%87%D0%B5%D1%82_%D0%BA%D0%BE%D0%BB%D0%B8%D1%87%D0%B5%D1%81%D1%82%D0%B2%D0%B0_%D0%BF%D0%BE%D0%B3%D0%BB%D0%BE%D1%89%D0%B0%D1%8E%D1%89%D0%B8%D1%85_%D1%81%D0%BE%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B9_%D0%B8_%D0%BF%D0%BE%D1%81%D1%82%D1%80%D0%BE%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86_%D0%BF%D0%B5%D1%80%D0%B5%D1%85%D0%BE%D0%B4%D0%BE%D0%B2_%D0%BC%D0%B0%D1%80%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%BE%D0%B9_%D1%86%D0%B5%D0%BF%D0%B8 Подсчет количества поглощающих состояний и построение матриц переходов марковской цепи]
 +
==Источники информации==
 
* [http://ru.wikipedia.org/wiki/%D0%A6%D0%B5%D0%BF%D1%8C_%28%D0%BC%D0%B0%D1%82%D0%B5%D0%BC.%29 Википедия - Цепи Маркова]
 
* [http://ru.wikipedia.org/wiki/%D0%A6%D0%B5%D0%BF%D1%8C_%28%D0%BC%D0%B0%D1%82%D0%B5%D0%BC.%29 Википедия - Цепи Маркова]
 
* Кемени Дж., Снелл Дж. "Конечные цепи Маркова".
 
* Кемени Дж., Снелл Дж. "Конечные цепи Маркова".

Версия 07:38, 21 марта 2018

Поглощающее(существенное) состояние цепи Маркова - состояние с вероятностью перехода в самого себя [math]p_{ii}=1[/math]. Составим матрицу [math]G[/math], элементы которой [math]g_{ij}[/math] равны вероятности того, что, выйдя из [math]i[/math], попадём в поглощающее состояние [math]j[/math].

Теорема:
[math] G = N \cdot R [/math]
Доказательство:
[math]\triangleright[/math]

Пусть этот переход будет осуществлён за [math]r[/math] шагов: [math]i[/math][math]i_{1}[/math][math]i_{2}[/math] → ... → [math]i_{r-1}[/math] → j, где все [math]i, i_{1}, ... i_{r-1}[/math] являются несущественными. Тогда рассмотрим сумму [math]\sum\limits_{\forall(i_{1} ... i_{r-1})} {p_{i, i_{1}} \cdot p_{i_{1}, i_{2}} \cdot ... \cdot p_{i_{r-1}, j}} = Q^{r-1} \cdot R[/math], где [math]Q[/math] - матрица переходов между несущественными состояниями, [math]R[/math] - из несущественного в существенное.

Матрица [math]G[/math] определяется их суммированием по всем длинам пути из i в j: [math]G = \sum\limits_{r = 1}^{\infty}{Q^{r-1} \cdot R} = (I + Q + Q^{2} + Q^{3} + ...) \cdot R = NR[/math], т.к. [math](I + Q + Q^2 + ...) \cdot (I - Q) = I - Q + Q - Q^{2} + ... = I[/math], а фундаментальная матрица марковской цепи [math]N = (I - Q)^{-1}[/math]
[math]\triangleleft[/math]

Псевдокод

Выведем ответ: в [math]\mathtt{i}[/math]-ой строке вероятность поглощения в [math]\mathtt{i}[/math]-ом состоянии. Естественно, для несущественного состояния это [math]\mathtt{0}[/math], в ином случае [math]\mathtt{p_i=((\sum_{k=1}^n G[k][j]+1)/n}[/math] где [math]\mathtt{j}[/math] - номер соответствующий [math]\mathtt{i}[/math]-ому состоянию в матрице [math]\mathtt{G}[/math] (т.е. под которым оно располагалось в матрице [math] \mathtt{R} [/math] т.е. значение [math]\mathtt{position[i]}[/math]). Прибавлять [math]\mathtt{1}[/math] нужно т.к. вероятность поглотиться в [math]\mathtt{i}[/math]-ом поглощающем состоянии, оказавшись изначально в нем же равна [math]\mathtt{1}[/math].

  • [math]\mathtt{probability[i]}[/math] - вероятность поглощения в [math]\mathtt{i}[/math]-ом состоянии
  • [math]\mathtt{absorbing[i]}[/math] - является ли i-е состояние поглощающим
function getAbsorbingProbability(absorbing: boolean[n], G: float[n][n])
   float probability[n]
   for i = 0 to n - 1
      prob = 0
      if absorbing[i]
         for j = 0 to nonabs - 1
            prob += G[j][position[i]]
         prob++
         prob /= n
      probability[i] = prob
   return probability

Смотри также

Источники информации