Математическое ожидание времени поглощения — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Новая страница: «Пусть <tex> b_0 </tex> - вектор вероятностей начальных состояний, то есть <tex> b_0[j] </tex> - вероятность…»)
 
(не показано 18 промежуточных версий 3 участников)
Строка 1: Строка 1:
Пусть <tex> b_0 </tex> - вектор вероятностей начальных состояний, то есть <tex> b_0[j] </tex> - вероятность для цепи Маркова начать в состоянии j. Определим <tex> b_r[j]</tex> как вероятность находиться в состоянии <tex> j </tex> после первых <tex> r </tex> шагов.
+
{{Утверждение
{{Лемма
+
 
|statement=
+
|statement=Математическое ожидание времени поглощения можно посчитать как сумму всех элементов вектора <tex> v </tex>, где <tex> v[j] </tex> {{---}} среднее количество раз, которое мы побываем в состоянии <tex> j </tex>.
<tex> b_r = b_0 Q^r </tex>
+
 
|proof=
+
|proof=Пусть <tex> b_0 </tex> {{---}} вектор вероятностей начальных состояний, то есть <tex> b_0[j] </tex> {{---}} вероятность для цепи Маркова начать в состоянии <tex> j </tex>. Определим <tex> b_r[j] </tex> как вероятность находиться в состоянии <tex> j </tex> после первых <tex> r </tex> шагов.
Доказательство аналогично части теоремы о поглощении.
+
 
 +
За значение случайной величины в формуле [[Математическое ожидание случайной величины|математического ожидания]] <tex> E\xi = \sum \xi(\omega)p(\omega) </tex> примем <tex> \xi = \left\{
 +
\begin{array}{ll}
 +
1,& b_i[j] > 0 \\
 +
0,& b_i[j] = 0, \forall i
 +
\end{array}
 +
\right.  \Rightarrow \xi\cdot b_i[j] = b_i[j] </tex>.  После <tex> r </tex> шагов <tex> b_r = b_0 Q^r </tex> (доказательство аналогично части [[теорема о поглощении|теоремы о поглощении]]).
 +
 
 +
Пусть <tex> p^r_j </tex> {{---}} количество раз, которое [[Марковская цепь|цепь Маркова]] находится в состоянии <tex> j </tex> за первые <tex> r </tex> шагов.
 +
Рассмотрим <tex> v[j] </tex>:
 +
 
 +
<tex> v[j] = E(p^r_j) = E(p^{r-1}_j) + \xi\cdot b_{r}[j] = E(p^{r-2}_j) + b_{r-1}[j] + b_{r}[j] = (\sum\limits_{t = 0}^{r}b_{t})[j] = b_0(\sum\limits_{t = 0}^{r}Q^{t})[j] </tex>.
 +
 
 +
Отсюда <tex> v = b_0  \sum\limits_{t = 0}^{r}Q^{t} = b_0 N</tex>, где <tex> N </tex> {{---}} [[фундаментальная матрица|фундаментальная матрица]].
 
}}
 
}}
  
Пусть <tex> p^r_j </tex> - количество раз, которое цепь Маркова находится в состоянии <tex> j </tex> за первые <tex> r </tex> шагов. Рассмотрим <tex> v_j </tex> - среднее количество раз, которое мы побываем в состоянии j:
+
==См. также==
 +
* [[Расчет вероятности поглощения в состоянии]]
 +
* [[Примеры использования Марковских цепей]]
 +
 
 +
== Источники информации ==
  
<tex> v[j] = E(p^r_j) = E(p^{r-1}_j) + b_{r}[j] = (\sum\limits_{t = 0}^{r}b_{t})[j] = b_0(\sum\limits_{t = 0}^{r}b_{t})[j] </tex>
+
* ''Кемени Дж., Снелл Дж.'' Конечные цепи Маркова. — М. : Наука, 1970. — 272 c.
  
Отсюда <tex> v = b_0  \sum\limits_{t = 0}^{r}b_{t} = b_0 N</tex>, где N - [[фундаментальная матрица|фундаментальная матрица]].
+
[[Категория:Дискретная математика и алгоритмы]]
  
Математическое ожидание можно посчитать как сумму всех элементов вектора v.
+
[[Категория: Марковские цепи ]]

Версия 17:45, 18 апреля 2018

Утверждение:
Математическое ожидание времени поглощения можно посчитать как сумму всех элементов вектора [math] v [/math], где [math] v[j] [/math] — среднее количество раз, которое мы побываем в состоянии [math] j [/math].
[math]\triangleright[/math]

Пусть [math] b_0 [/math] — вектор вероятностей начальных состояний, то есть [math] b_0[j] [/math] — вероятность для цепи Маркова начать в состоянии [math] j [/math]. Определим [math] b_r[j] [/math] как вероятность находиться в состоянии [math] j [/math] после первых [math] r [/math] шагов.

За значение случайной величины в формуле математического ожидания [math] E\xi = \sum \xi(\omega)p(\omega) [/math] примем [math] \xi = \left\{ \begin{array}{ll} 1,& b_i[j] \gt 0 \\ 0,& b_i[j] = 0, \forall i \end{array} \right. \Rightarrow \xi\cdot b_i[j] = b_i[j] [/math]. После [math] r [/math] шагов [math] b_r = b_0 Q^r [/math] (доказательство аналогично части теоремы о поглощении).

Пусть [math] p^r_j [/math] — количество раз, которое цепь Маркова находится в состоянии [math] j [/math] за первые [math] r [/math] шагов. Рассмотрим [math] v[j] [/math]:

[math] v[j] = E(p^r_j) = E(p^{r-1}_j) + \xi\cdot b_{r}[j] = E(p^{r-2}_j) + b_{r-1}[j] + b_{r}[j] = (\sum\limits_{t = 0}^{r}b_{t})[j] = b_0(\sum\limits_{t = 0}^{r}Q^{t})[j] [/math].

Отсюда [math] v = b_0 \sum\limits_{t = 0}^{r}Q^{t} = b_0 N[/math], где [math] N [/math]фундаментальная матрица.
[math]\triangleleft[/math]

См. также

Источники информации

  • Кемени Дж., Снелл Дж. Конечные цепи Маркова. — М. : Наука, 1970. — 272 c.