Изменения

Перейти к: навигация, поиск

Регулярная марковская цепь

3110 байт добавлено, 11:01, 8 апреля 2018
м
Нет описания правки
== Регулярная цепь Маркова ==
{{Определение
|definition=[[Марковская цепь |Марковская цепь]] называется '''регулярной ''' (нормальнойангл. ''regular Markov chain''), если в матрице перехода P <tex>\forall i,j \ \ p_{ij} \neq 0</tex>она целиком состоит из одного [[Эргодическая марковская цепь#Циклический класс | циклического класса]].
}}
{{ТеоремаВ регулярной Марковской цепи |statement=Цепь регулярна тогда и только тогда, когда существует такое <tex> n </tex>, что в матрице <tex> P^n </tex> все элементы ненулевые, то есть из любого состояния можно попасть перейти в любое другое за некоторое число ходов<tex> n </tex> переходов.}}
== Лемма ==
{{Лемма
|statement=Пусть <tex>P_{[r\times r]}</tex> {{---}} матрица перехода регулярной цепи, <tex>\varepsilon</tex> {{---}} минимальный элемент этой матрицы. Пусть х — <tex>x</tex> {{---}} произвольный <tex>r</tex>-мерный вектор-столбец, имеющий максимальный элемент <tex>M_0</tex> и минимальный <tex>m_0</tex>. Пусть <tex>M_1</tex> и <tex>m_1</tex> {{--- }} максимальный и минимальный элементы <tex>Px</tex>. <br>
Тогда <tex>M_1 \leqslant M_0</tex>, <tex>m_1 \geqslant m_0</tex> и <tex>M_1 - m_1 \leqslant (1 - 2\varepsilon)(M_0 - m_0)</tex>
|proof=Пусть <tex>x'</tex> {{---}}вектор, полученный из <tex>x</tex> заменой всех элементов, кроме <tex>m_0</tex> на <tex>M_0</tex>. Тогда <tex>x \leqslant x'</tex>. Каждый элемент <tex>Px'</tex> имеет вид
Доказательство<tex>am_0 + (1 - a)M_0 = M_0 - a(M_0 - m_0)</tex>, где <tex>a</tex> {{---}} элемент <tex>P</tex>, который домножается на <tex>m_0</tex>, причем <tex>a \geqslant \varepsilon</tex>. Поэтому наше выражение не превосходит <tex>M_0 - \varepsilon(M_0 - m_0)</tex>. Отсюда и из неравенства <tex>x \leqslant x'</tex> получается:<tex>M_1 \leqslant M_0 - \varepsilon (M_0 - m_0)</tex>.
Пусть х' - вектор, полученный из х заменой всех элементов, кроме Применяя те же рассуждения для вектора <tex>m_0-x</tex> на , получим: <tex>M_0</tex>. Тогда <tex>x -m_1 \leqslant x'-m_0 - \varepsilon (-m_0 + M_0)</tex>. Каждый элемент <tex>Px'</tex> имеет вид
<tex>am_0 + (1 - a)M_0 = M_0 - a(M_0 - m_0)</tex>, где а - элемент P, который домножается на <tex>m_0</tex>, причем <tex>a \geqslant \varepsilon</tex>. Поэтому наше выражение не превосходит <tex>M_0 - \varepsilon(M_0 - m_0)</tex>. Отсюда и из неравенства <tex>x \leqslant x'</tex> получается: <tex>M_1 \leqslant M_0 - \varepsilon (M_0 - m_0)</tex>. Применяя те же рассуждения для вектора -х, получим: <tex>-m_1 \leqslant -m_0 - \varepsilon (-m_0 + M_0)</tex>. Складывая эти два неравенства, получаем <tex>M_1 - m_1 \leqslant M_0 - m_0 - 2\varepsilon (M_0 - m_0) = (1 - 2\varepsilon )(M_0 - m_0)</tex>, ч.т.д.}}
== Основная Эргодическая теорема для регулярных цепей ==
{{Теорема
|statement=Регулярная марковская цепь [[Эргодическая марковская цепь|эргодична]]. Другими словами:<br>Пусть Р <tex>P</tex> {{- --}} регулярная переходная матрица. Тогда:<br>
<tex>\exists A: \displaystyle \lim_{n \to \infty}P^n = A</tex>;<br>
каждая строка А представляет собой один и тот же вероятностный вектор <tex>\alpha = \{a_1, a_2, \ldots, a_n a_r \}</tex>}} Доказательство:|proof=Рассмотрим вектор-столбец <tex>\rho _je_j</tex>, у которого <tex>j</tex>-й элемент равен <tex>1</tex>, а все остальные равны <tex>0</tex>. Пусть <tex>M_n</tex> и <tex>m_n</tex> {{- --}} минимальный и максимальный элементы столбца <tex>P^n \rho _je_j</tex>. Так как <tex>P^n \rho _j e_j = P \cdot P^{n-1} \rho _je_j</tex>, то из леммы следует, что <tex>M_1 \geqslant M_2 \geqslant \ldots</tex> и <tex>m_1 \leqslant m_2 \leqslant \ldots</tex> и
<tex>M_n - m_n \leqslant (1 - 2\varepsilon )(M_{n-1} - m_{n-1})</tex>. Пусть <tex>d_n = M_n - m_n</tex>, тогда
<tex>d_n \leqslant (1 - 2 \varepsilon )^n d_0 = (1 - 2 \varepsilon)^n \to 0</tex>.
Значит <tex>P^n \rho _je_j</tex> сходится к вектору, все элементы которого равны между собой. Пусть <tex>a_j</tex> {{-- -}} их общее значение. Тогда <tex>0 \leqslant a_j \leqslant 1</tex>. Заметим, что <tex>P^n \rho _je_j</tex> {{- --}} <tex>j</tex>-тый столбец матрицы <tex>P^n</tex>. Рассмотрим все <tex>\rho _je_j</tex> для <tex>j = 1, 2, \ldots</tex>. Тогда <tex>P^n</tex> сходится к матрице А<tex>A</tex>, у которой по строкам стоит один и тот же вектор <tex>\alpha = \{a_1, a_2, \ldots, a_n a_r \}</tex>.Так как в каждой матрице <tex>P^n</tex> сумма элементов в строке равна <tex>1</tex>, то то же самое справедливо и для предельной матрицы А<tex>A</tex>. Теорема доказана.}}
{{Определение
|definition=Матрица <tex>A</tex> называется '''предельной матрицей''' (англ. ''limiting matrix''), вектор <tex>\alpha</tex> {{---}} '''предельным распределением''' (англ. ''limiting distribution'').
}}
Матрица А называется ''предельной матрицей'', вектор <tex>\alpha</tex> - ''предельным распределением''. == Следствие из теоремы Следствия ==
{{Теорема
|statement=Пусть <tex>P, A, \alpha</tex> {{- --}} объекты из предыдущей теоремы.
Тогда справедливы факты:<br>
* для любого вероятностного вектора <tex>\pi \ \ \ \displaystyle \lim_{n \to \infty} \pi P^n = \alpha</tex>
* <tex>\alpha</tex> {{- --}} единственный вектор, для которого <tex>\alpha P = \alpha</tex>
* <tex>AP = PA = A</tex>
|proof=
Пусть <tex>\xi</tex> {{---}} вектор-столбец, состоящий из единиц.
 
* <tex>\pi</tex> {{---}} вероятностный вектор, значит <tex>\pi \xi = 1 </tex> ( сумма его элементов равна <tex>1</tex> ), значит <tex>\pi A = \pi \xi \alpha = \alpha</tex>. Но <tex>\displaystyle \lim_{n \to \infty} \pi P^n = \pi A = \alpha</tex> {{---}} первый пункт доказан.
* Пусть <tex>\beta : \ \ \beta P = \beta</tex>. Тогда <tex>\forall n \ \beta P^n = \beta \Rightarrow \beta = \beta A = \alpha</tex>. Второй пункт доказан.
* <tex>\displaystyle \lim_{n \to \infty} P^n = A \Leftrightarrow P \cdot \lim_{n \to \infty} P^n = A \Leftrightarrow \lim_{n \to \infty} P^n \cdot P = A</tex>. Третий пункт доказан.
}}
ДоказательствоТаким образом у регулярных цепей есть свойство:через достаточно большое количество ходов будет существовать постоянная вероятность нахождения цепи в состоянии <tex>s_i</tex>, и эта вероятность не зависит от начального распределения, а зависит только от матрицы <tex>P</tex>. == Примеры ==[[File:Пример регулярной цепи.jpg|thumb|270px|Пример регулярной цепи (черным цветом обозначена вероятность, красным - выпавшая сторона монеты)]]Самый очевидный и тривиальный пример регулярной цепи: Пусть у нас есть два состояния {{---}} <tex>1</tex> и <tex>2</tex>. Каждый ход мы кидаем честную монету {{---}} если выпал <tex>0</tex>, то цепь остается в предыдущем состоянии, если <tex>1</tex> {{---}} цепь меняет свое состояние.  Матрица переходов будет выглядеть так: <tex>P = \begin{bmatrix}0.5 & 0.5 \\0.5 & 0.5 \end{bmatrix}</tex> Тогда <tex>\forall n \ \ P^n = P = A,\ \alpha = \{ 0.5, 0.5 \} ,\,</tex>то есть через достаточно большое количество ходов наша система будет ''равновероятно'' находится как в состоянии <tex>1</tex>, так и в состоянии <tex>2</tex>, независимо от начального распределения. Более интересный пример {{---}} если мы будем управлять переходом состояний с помощью нечестной монеты. Пусть <tex>a</tex> {{---}} вероятность выпадения <tex>0</tex> на монете.
Пусть <tex>\xi</tex> - вектор-столбец, состоящий из единиц.Матрица переходов будет выглядеть так:
* <tex>P = \pi</tex> begin{bmatrix}a & 1 - вероятностный вектор, значит <tex>a \pi \xi = 1</tex>(сумма его элементов равна 1), значит <tex>- a & a \pi A = \pi \xi \alpha = \alphaend{bmatrix}</tex>. Но  Тогда при возведении <tex>\displaystyle \lim_{n \to \infty} \pi P^n = \pi A = \alpha</tex> - первый пункт доказан.* Пусть в степень <tex>\beta : \ \ \beta P = \betan</tex>. Тогда элементы будут стремится к <tex>\forall n \ \beta P^n = beta \Rightarrow \beta = \beta A = \alphadfrac{1}{2}</tex>. Второй пункт доказанс разных сторон.* То есть вектор <tex>\displaystyle \lim_{n \to \infty} P^n alpha = A \Leftrightarrow P \cdot \lim_{n \to 0.5, 0.5 \infty} P^n = A \Leftrightarrow \lim_{n \to \infty} P^n \cdot P = A</tex>. Третий пункт доказан, таким образом от честности монеты ничего не зависит.
== См. также ==
*[[Марковская цепь]]
*[[Эргодическая марковская цепь]]
Таким образом у регулярных цепей есть свойство: через достаточно большое количество ходов будет существовать постоянная вероятность нахождения == Источники информации ==*''Дж. Кемени, Дж. Снелл'' Конечные цепи в состоянии <tex>s_i</tex>Маркова, стр 93[[Категория:Дискретная математика и эта вероятность не зависит от началоного распределения, а зависит только от матрицы P.алгоритмы]]
== Литература ==Дж. Кемени, Дж. Снелл "Конечные [[Категория: Марковские цепи Маркова", стр 93]]
200
правок

Навигация