Изменения

Перейти к: навигация, поиск

Регулярная марковская цепь

788 байт добавлено, 11:01, 8 апреля 2018
м
Нет описания правки
{{Определение
|definition=[[Марковская цепь|Марковская цепь]] называется '''регулярной''' (англ. ''regular Markov chain''), если она целиком состоит из одного [[Эргодическая марковская цепь #Циклический класс | циклического класса]].
}}
== Лемма ==
{{Лемма
|statement=Пусть <tex>P_{[r\times r]}</tex> {{---}} матрица перехода регулярной цепи, <tex>\varepsilon</tex> {{---}} минимальный элемент этой матрицы. Пусть х <tex>x</tex> {{---}} произвольный <tex>r</tex>-мерный вектор-столбец, имеющий максимальный элемент <tex>M_0</tex> и минимальный <tex>m_0</tex>. Пусть <tex>M_1</tex> и <tex>m_1</tex> {{---}} максимальный и минимальный элементы <tex>Px</tex>. <br>
Тогда <tex>M_1 \leqslant M_0</tex>, <tex>m_1 \geqslant m_0</tex> и <tex>M_1 - m_1 \leqslant (1 - 2\varepsilon)(M_0 - m_0)</tex>
|proof=
Пусть х<tex>x' </tex> {{---}} вектор, полученный из х <tex>x</tex> заменой всех элементов, кроме <tex>m_0</tex> на <tex>M_0</tex>. Тогда <tex>x \leqslant x'</tex>. Каждый элемент <tex>Px'</tex> имеет вид
<tex>am_0 + (1 - a)M_0 = M_0 - a(M_0 - m_0)</tex>, где а <tex>a</tex> {{---}} элемент <tex>P</tex>, который домножается на <tex>m_0</tex>, причем <tex>a \geqslant \varepsilon</tex>. Поэтому наше выражение не превосходит <tex>M_0 - \varepsilon(M_0 - m_0)</tex>. Отсюда и из неравенства <tex>x \leqslant x'</tex> получается: <tex>M_1 \leqslant M_0 - \varepsilon (M_0 - m_0)</tex>.
Применяя те же рассуждения для вектора <tex>-хx</tex>, получим: <tex>-m_1 \leqslant -m_0 - \varepsilon (-m_0 + M_0)</tex>.
Складывая эти два неравенства, получаем <tex>M_1 - m_1 \leqslant M_0 - m_0 - 2\varepsilon (M_0 - m_0) = (1 - 2\varepsilon )(M_0 - m_0)</tex>, ч.т.д.
}}
{{Теорема
|statement=Регулярная марковская цепь [[Эргодическая марковская цепь|эргодична]]. Другими словами:<br>
Пусть Р <tex>P</tex> {{---}} регулярная переходная матрица. Тогда:<br>
<tex>\exists A: \displaystyle \lim_{n \to \infty}P^n = A</tex>;<br>
каждая строка А представляет собой один и тот же вероятностный вектор <tex>\alpha = \{a_1, a_2, \ldots, a_r \}</tex>
|proof=
Рассмотрим вектор-столбец <tex>e_j</tex>, у которого <tex>j</tex>-й элемент равен <tex>1</tex>, а все остальные равны <tex>0</tex>. Пусть <tex>M_n</tex> и <tex>m_n</tex> {{---}} минимальный и максимальный элементы столбца <tex>P^n e_j</tex>.
Так как <tex>P^n e_j = P \cdot P^{n-1} e_j</tex>, то из леммы следует, что <tex>M_1 \geqslant M_2 \geqslant \ldots</tex> и <tex>m_1 \leqslant m_2 \leqslant \ldots</tex> и
<tex>d_n \leqslant (1 - 2 \varepsilon )^n d_0 = (1 - 2 \varepsilon)^n \to 0</tex>.
Значит <tex>P^n e_j</tex> сходится к вектору, все элементы которого равны между собой. Пусть <tex>a_j</tex> {{---}} их общее значение. Тогда <tex>0 \leqslant a_j \leqslant 1</tex>. Заметим, что <tex>P^n e_j</tex> {{---}} <tex>j</tex>-тый столбец матрицы <tex>P^n</tex>. Рассмотрим все <tex>e_j</tex> для <tex>j = 1, 2, \ldots</tex>. Тогда <tex>P^n</tex> сходится к матрице А<tex>A</tex>, у которой по строкам стоит один и тот же вектор <tex>\alpha = \{a_1, a_2, \ldots, a_r \}</tex>.Так как в каждой матрице <tex>P^n</tex> сумма элементов в строке равна <tex>1</tex>, то то же самое справедливо и для предельной матрицы А<tex>A</tex>. Теорема доказана.
}}
{{Определение
|definition=Матрица А <tex>A</tex> называется '''предельной матрицей''' (англ. ''limiting matrix''), вектор <tex>\alpha</tex> {{---}} '''предельным распределением''' (англ. ''limiting distribution'').
}}
Пусть <tex>\xi</tex> {{---}} вектор-столбец, состоящий из единиц.
* <tex>\pi</tex> {{---}} вероятностный вектор, значит <tex>\pi \xi = 1 </tex> ( сумма его элементов равна <tex>1 </tex> ), значит <tex>\pi A = \pi \xi \alpha = \alpha</tex>. Но <tex>\displaystyle \lim_{n \to \infty} \pi P^n = \pi A = \alpha</tex> {{---}} первый пункт доказан.
* Пусть <tex>\beta : \ \ \beta P = \beta</tex>. Тогда <tex>\forall n \ \beta P^n = \beta \Rightarrow \beta = \beta A = \alpha</tex>. Второй пункт доказан.
* <tex>\displaystyle \lim_{n \to \infty} P^n = A \Leftrightarrow P \cdot \lim_{n \to \infty} P^n = A \Leftrightarrow \lim_{n \to \infty} P^n \cdot P = A</tex>. Третий пункт доказан.
}}
Таким образом у регулярных цепей есть свойство: через достаточно большое количество ходов будет существовать постоянная вероятность нахождения цепи в состоянии <tex>s_i</tex>, и эта вероятность не зависит от начального распределения, а зависит только от матрицы <tex>P</tex>.
== Примеры ==
[[File:TempПример регулярной цепи.gifjpg|thumb|250px270px|Пример регулярной цепи(черным цветом обозначена вероятность, красным - выпавшая сторона монеты)]]
Самый очевидный и тривиальный пример регулярной цепи:
Пусть у нас есть два состояния {{- "--}} <tex>1" </tex> и "<tex>2"</tex>. Каждый ход мы кидаем честную монету {{--- }} если выпал "<tex>0"</tex>, то цепь остается в предыдущем состоянии, если "<tex>1" </tex> {{--- }} цепь меняет свое состояние.
Матрица переходов будет выглядеть так:
</tex>
Тогда <tex>\forall n \ \ P^n = P = A,\ \alpha = \{ 0.5, 0.5 \},\,</tex>То то есть через достаточно большое количество ходов наша система будет ''равновероятно'' находится как в состоянии "<tex>1"</tex>, так и в состоянии "<tex>2"</tex>, независимо от начального распределения.
Более интересный пример {{---}} если мы будем управлять переходом состояний с помощью нечестной монеты.
Пусть а <tex>a</tex> {{- --}} вероятность выпадения "<tex>0" </tex> на монете.
Матрица переходов будет выглядеть так:
</tex>
Тогда при возведении Р <tex>P</tex> в степень <tex>n </tex> элементы будут стремится к <tex>\fracdfrac{1}{2}</tex> с разных сторон. То есть вектор <tex>\alpha = \{ 0.5, 0.5 \}</tex>, т.е таким образом от честности монеты ничего не зависит.
== Литература См. также ==*[[Марковская цепь]]*[[Эргодическая марковская цепь]] == Источники информации ==*''Дж. Кемени, Дж. Снелл "'' Конечные цепи Маркова", стр 93
[[Категория:Дискретная математика и алгоритмы]]
[[Категория: Марковские цепи ]]
200
правок

Навигация