1632
правки
Изменения
м
Пусть <tex> p^r_j </tex> - количество раз, которое цепь Маркова находится в состоянии <tex> j </tex> за первые <tex> r </tex> шагов==См. Рассмотрим <tex> v_j </tex> - среднее количество раз, которое мы побываем также==* [[Расчет вероятности поглощения в состоянии j:]]* [[Примеры использования Марковских цепей]] == Источники информации ==
<tex> v[j] = E(p^r_j) = E(p^{r-1}_j) + b_{r}[j] = (\sum\limits_{t = 0}^{r}b_{t})[j] = b_0(\sum\limits_{t = 0}^{r}b_{t})[j] </tex>* ''Кемени Дж., Снелл Дж.'' Конечные цепи Маркова. — М. : Наука, 1970. — 272 c.
Отсюда <tex> v = b_0 \sum\limits_{t = 0}^{r}b_{t} = b_0 N</tex>, где N - [[фундаментальная матрица|фундаментальная матрицаКатегория:Дискретная математика и алгоритмы]].
Математическое ожидание можно посчитать как сумму всех элементов вектора v.[[Категория: Марковские цепи ]]
rollbackEdits.php mass rollback
{{Утверждение |statement=Математическое ожидание времени поглощения можно посчитать как сумму всех элементов вектора <tex> v </tex>, где <tex> v[j] </tex> {{---}} среднее количество раз, которое мы побываем в состоянии <tex> j </tex>. |proof=Пусть <tex> b_0 </tex> {{- --}} вектор вероятностей начальных состояний, то есть <tex> b_0[j] </tex> {{--- }} вероятность для цепи Маркова начать в состоянии <tex> j</tex>. Определим <tex> b_r[j]</tex> как вероятность находиться в состоянии <tex> j </tex> после первых <tex> r </tex> шагов. За значение случайной величины в формуле [[Математическое ожидание случайной величины|математического ожидания]] <tex> E\xi = \sum \xi(\omega)p(\omega) </tex> примем <tex> \xi = \left\{ \begin{array}{Леммаll}|statement 1,& b_i[j] > 0 \\ 0,& b_i[j] =0, \forall i \end{array}\right. \Rightarrow \xi\cdot b_i[j] = b_i[j] </tex>. После <tex> r </tex> шагов <tex> b_r = b_0 Q^r </tex>|proof=Доказательство (доказательство аналогично части [[теорема о поглощении|теоремы о поглощении]]). Пусть <tex> p^r_j </tex> {{---}} количество раз, которое [[Марковская цепь|цепь Маркова]] находится в состоянии <tex> j </tex> за первые <tex> r </tex> шагов. Рассмотрим <tex> v[j] </tex>: <tex> v[j] = E(p^r_j) = E(p^{r-1}_j) + \xi\cdot b_{r}[j] = E(p^{r-2}_j) + b_{r-1}[j] + b_{r}[j] = (\sum\limits_{t = 0}^{r}b_{t})[j] = b_0(\sum\limits_{t = 0}^{r}Q^{t})[j] </tex>. Отсюда <tex> v = b_0 \sum\limits_{t = 0}^{r}Q^{t} = b_0 N</tex>, где <tex> N </tex> {{---}} [[фундаментальная матрица|фундаментальная матрица]].
}}