Регулярная марковская цепь — различия между версиями
м (rollbackEdits.php mass rollback) |
|||
(не показано 14 промежуточных версий 6 участников) | |||
Строка 1: | Строка 1: | ||
{{Определение | {{Определение | ||
− | |definition=[[Марковская цепь|Марковская цепь]] называется регулярной, если она целиком состоит из одного [[Эргодическая марковская цепь | циклического класса]]. | + | |definition=[[Марковская цепь|Марковская цепь]] называется '''регулярной''' (англ. ''regular Markov chain''), если она целиком состоит из одного [[Эргодическая марковская цепь#Циклический класс | циклического класса]]. |
}} | }} | ||
Строка 10: | Строка 10: | ||
== Лемма == | == Лемма == | ||
{{Лемма | {{Лемма | ||
− | |statement=Пусть <tex>P_{[r\times r]}</tex> {{---}} матрица перехода регулярной цепи, <tex>\varepsilon</tex> {{---}} минимальный элемент этой матрицы. Пусть | + | |statement=Пусть <tex>P_{[r\times r]}</tex> {{---}} матрица перехода регулярной цепи, <tex>\varepsilon</tex> {{---}} минимальный элемент этой матрицы. Пусть <tex>x</tex> {{---}} произвольный <tex>r</tex>-мерный вектор-столбец, имеющий максимальный элемент <tex>M_0</tex> и минимальный <tex>m_0</tex>. Пусть <tex>M_1</tex> и <tex>m_1</tex> {{---}} максимальный и минимальный элементы <tex>Px</tex>. <br> |
Тогда <tex>M_1 \leqslant M_0</tex>, <tex>m_1 \geqslant m_0</tex> и <tex>M_1 - m_1 \leqslant (1 - 2\varepsilon)(M_0 - m_0)</tex> | Тогда <tex>M_1 \leqslant M_0</tex>, <tex>m_1 \geqslant m_0</tex> и <tex>M_1 - m_1 \leqslant (1 - 2\varepsilon)(M_0 - m_0)</tex> | ||
|proof= | |proof= | ||
− | Пусть | + | Пусть <tex>x'</tex> {{---}} вектор, полученный из <tex>x</tex> заменой всех элементов, кроме <tex>m_0</tex> на <tex>M_0</tex>. Тогда <tex>x \leqslant x'</tex>. Каждый элемент <tex>Px'</tex> имеет вид |
− | <tex>am_0 + (1 - a)M_0 = M_0 - a(M_0 - m_0)</tex>, где | + | <tex>am_0 + (1 - a)M_0 = M_0 - a(M_0 - m_0)</tex>, где <tex>a</tex> {{---}} элемент <tex>P</tex>, который домножается на <tex>m_0</tex>, причем <tex>a \geqslant \varepsilon</tex>. Поэтому наше выражение не превосходит <tex>M_0 - \varepsilon(M_0 - m_0)</tex>. Отсюда и из неравенства <tex>x \leqslant x'</tex> получается: <tex>M_1 \leqslant M_0 - \varepsilon (M_0 - m_0)</tex>. |
− | Применяя те же рассуждения для вектора - | + | Применяя те же рассуждения для вектора <tex>-x</tex>, получим: <tex>-m_1 \leqslant -m_0 - \varepsilon (-m_0 + M_0)</tex>. |
− | Складывая эти два неравенства, получаем <tex>M_1 - m_1 \leqslant M_0 - m_0 - 2\varepsilon (M_0 - m_0) = (1 - 2\varepsilon )(M_0 - m_0)</tex> | + | Складывая эти два неравенства, получаем <tex>M_1 - m_1 \leqslant M_0 - m_0 - 2\varepsilon (M_0 - m_0) = (1 - 2\varepsilon )(M_0 - m_0)</tex>. |
}} | }} | ||
Строка 26: | Строка 26: | ||
{{Теорема | {{Теорема | ||
|statement=Регулярная марковская цепь [[Эргодическая марковская цепь|эргодична]]. Другими словами:<br> | |statement=Регулярная марковская цепь [[Эргодическая марковская цепь|эргодична]]. Другими словами:<br> | ||
− | Пусть | + | Пусть <tex>P</tex> {{---}} регулярная переходная матрица. Тогда:<br> |
<tex>\exists A: \displaystyle \lim_{n \to \infty}P^n = A</tex>;<br> | <tex>\exists A: \displaystyle \lim_{n \to \infty}P^n = A</tex>;<br> | ||
каждая строка А представляет собой один и тот же вероятностный вектор <tex>\alpha = \{a_1, a_2, \ldots, a_r \}</tex> | каждая строка А представляет собой один и тот же вероятностный вектор <tex>\alpha = \{a_1, a_2, \ldots, a_r \}</tex> | ||
|proof= | |proof= | ||
− | Рассмотрим вектор-столбец <tex>e_j</tex>, у которого j-й элемент равен 1, а все остальные равны 0. Пусть <tex>M_n</tex> и <tex>m_n</tex> {{---}} минимальный и максимальный элементы столбца <tex>P^n e_j</tex>. | + | Рассмотрим вектор-столбец <tex>e_j</tex>, у которого <tex>j</tex>-й элемент равен <tex>1</tex>, а все остальные равны <tex>0</tex>. Пусть <tex>M_n</tex> и <tex>m_n</tex> {{---}} минимальный и максимальный элементы столбца <tex>P^n e_j</tex>. |
Так как <tex>P^n e_j = P \cdot P^{n-1} e_j</tex>, то из леммы следует, что <tex>M_1 \geqslant M_2 \geqslant \ldots</tex> и <tex>m_1 \leqslant m_2 \leqslant \ldots</tex> и | Так как <tex>P^n e_j = P \cdot P^{n-1} e_j</tex>, то из леммы следует, что <tex>M_1 \geqslant M_2 \geqslant \ldots</tex> и <tex>m_1 \leqslant m_2 \leqslant \ldots</tex> и | ||
Строка 37: | Строка 37: | ||
<tex>d_n \leqslant (1 - 2 \varepsilon )^n d_0 = (1 - 2 \varepsilon)^n \to 0</tex>. | <tex>d_n \leqslant (1 - 2 \varepsilon )^n d_0 = (1 - 2 \varepsilon)^n \to 0</tex>. | ||
− | Значит <tex>P^n e_j</tex> сходится к вектору, все элементы которого равны между собой. Пусть <tex>a_j</tex> {{---}} их общее значение. Тогда <tex>0 \leqslant a_j \leqslant 1</tex>. Заметим, что <tex>P^n e_j</tex> {{---}} j-тый столбец матрицы <tex>P^n</tex>. Рассмотрим все <tex>e_j</tex> для <tex>j = 1, 2, \ldots</tex>. Тогда <tex>P^n</tex> сходится к матрице | + | Значит <tex>P^n e_j</tex> сходится к вектору, все элементы которого равны между собой. Пусть <tex>a_j</tex> {{---}} их общее значение. Тогда <tex>0 \leqslant a_j \leqslant 1</tex>. Заметим, что <tex>P^n e_j</tex> {{---}} <tex>j</tex>-тый столбец матрицы <tex>P^n</tex>. Рассмотрим все <tex>e_j</tex> для <tex>j = 1, 2, \ldots</tex>. Тогда <tex>P^n</tex> сходится к матрице <tex>A</tex>, у которой по строкам стоит один и тот же вектор <tex>\alpha = \{a_1, a_2, \ldots, a_r \}</tex>. |
− | Так как в каждой матрице <tex>P^n</tex> сумма элементов в строке равна 1, то то же самое справедливо и для предельной матрицы | + | Так как в каждой матрице <tex>P^n</tex> сумма элементов в строке равна <tex>1</tex>, то то же самое справедливо и для предельной матрицы <tex>A</tex>. Теорема доказана. |
}} | }} | ||
{{Определение | {{Определение | ||
− | |definition=Матрица | + | |definition=Матрица <tex>A</tex> называется '''предельной матрицей''' (англ. ''limiting matrix''), вектор <tex>\alpha</tex> {{---}} '''предельным распределением''' (англ. ''limiting distribution''). |
}} | }} | ||
Строка 56: | Строка 56: | ||
Пусть <tex>\xi</tex> {{---}} вектор-столбец, состоящий из единиц. | Пусть <tex>\xi</tex> {{---}} вектор-столбец, состоящий из единиц. | ||
− | * <tex>\pi</tex> {{---}} вероятностный вектор, значит <tex>\pi \xi = 1 </tex> ( сумма его элементов равна 1 ), значит <tex>\pi A = \pi \xi \alpha = \alpha</tex>. Но <tex>\displaystyle \lim_{n \to \infty} \pi P^n = \pi A = \alpha</tex> {{---}} первый пункт доказан. | + | * <tex>\pi</tex> {{---}} вероятностный вектор, значит <tex>\pi \xi = 1 </tex> ( сумма его элементов равна <tex>1</tex> ), значит <tex>\pi A = \pi \xi \alpha = \alpha</tex>. Но <tex>\displaystyle \lim_{n \to \infty} \pi P^n = \pi A = \alpha</tex> {{---}} первый пункт доказан. |
* Пусть <tex>\beta : \ \ \beta P = \beta</tex>. Тогда <tex>\forall n \ \beta P^n = \beta \Rightarrow \beta = \beta A = \alpha</tex>. Второй пункт доказан. | * Пусть <tex>\beta : \ \ \beta P = \beta</tex>. Тогда <tex>\forall n \ \beta P^n = \beta \Rightarrow \beta = \beta A = \alpha</tex>. Второй пункт доказан. | ||
* <tex>\displaystyle \lim_{n \to \infty} P^n = A \Leftrightarrow P \cdot \lim_{n \to \infty} P^n = A \Leftrightarrow \lim_{n \to \infty} P^n \cdot P = A</tex>. Третий пункт доказан. | * <tex>\displaystyle \lim_{n \to \infty} P^n = A \Leftrightarrow P \cdot \lim_{n \to \infty} P^n = A \Leftrightarrow \lim_{n \to \infty} P^n \cdot P = A</tex>. Третий пункт доказан. | ||
}} | }} | ||
− | Таким образом у регулярных цепей есть свойство: через достаточно большое количество ходов будет существовать постоянная вероятность нахождения цепи в состоянии <tex>s_i</tex>, и эта вероятность не зависит от начального распределения, а зависит только от матрицы P. | + | Таким образом у регулярных цепей есть свойство: через достаточно большое количество ходов будет существовать постоянная вероятность нахождения цепи в состоянии <tex>s_i</tex>, и эта вероятность не зависит от начального распределения, а зависит только от матрицы <tex>P</tex>. |
== Примеры == | == Примеры == | ||
− | [[File: | + | [[File:Пример регулярной цепи.jpg|thumb|270px|Пример регулярной цепи (черным цветом обозначена вероятность, красным - выпавшая сторона монеты)]] |
Самый очевидный и тривиальный пример регулярной цепи: | Самый очевидный и тривиальный пример регулярной цепи: | ||
− | Пусть у нас есть два состояния - | + | Пусть у нас есть два состояния {{---}} <tex>1</tex> и <tex>2</tex>. Каждый ход мы кидаем честную монету {{---}} если выпал <tex>0</tex>, то цепь остается в предыдущем состоянии, если <tex>1</tex> {{---}} цепь меняет свое состояние. |
Матрица переходов будет выглядеть так: | Матрица переходов будет выглядеть так: | ||
Строка 78: | Строка 78: | ||
</tex> | </tex> | ||
− | Тогда <tex>\forall n \ \ P^n = P = A,\ \alpha = \{ 0.5, 0.5 \}</tex> | + | Тогда <tex>\forall n \ \ P^n = P = A,\ \alpha = \{ 0.5, 0.5 \} ,\,</tex> |
− | + | то есть через достаточно большое количество ходов наша система будет ''равновероятно'' находится как в состоянии <tex>1</tex>, так и в состоянии <tex>2</tex>, независимо от начального распределения. | |
Более интересный пример {{---}} если мы будем управлять переходом состояний с помощью нечестной монеты. | Более интересный пример {{---}} если мы будем управлять переходом состояний с помощью нечестной монеты. | ||
− | Пусть | + | Пусть <tex>a</tex> {{---}} вероятность выпадения <tex>0</tex> на монете. |
Матрица переходов будет выглядеть так: | Матрица переходов будет выглядеть так: | ||
Строка 93: | Строка 93: | ||
</tex> | </tex> | ||
− | Тогда при возведении | + | Тогда при возведении <tex>P</tex> в степень <tex>n</tex> элементы будут стремится к <tex>\dfrac{1}{2}</tex> с разных сторон. |
− | То есть вектор <tex>\alpha = \{ 0.5, 0.5 \}</tex>, | + | То есть вектор <tex>\alpha = \{ 0.5, 0.5 \}</tex>, таким образом от честности монеты ничего не зависит. |
− | == | + | == См. также == |
− | Дж. Кемени, Дж. Снелл | + | *[[Марковская цепь]] |
+ | *[[Эргодическая марковская цепь]] | ||
+ | |||
+ | == Источники информации == | ||
+ | *''Дж. Кемени, Дж. Снелл'' Конечные цепи Маркова, стр 93 | ||
[[Категория:Дискретная математика и алгоритмы]] | [[Категория:Дискретная математика и алгоритмы]] | ||
[[Категория: Марковские цепи ]] | [[Категория: Марковские цепи ]] |
Текущая версия на 19:17, 4 сентября 2022
Определение: |
Марковская цепь называется регулярной (англ. regular Markov chain), если она целиком состоит из одного циклического класса. |
Теорема: |
Цепь регулярна тогда и только тогда, когда существует такое , что в матрице все элементы ненулевые, то есть из любого состояния можно перейти в любое за переходов. |
Содержание
Лемма
Лемма: |
Пусть — матрица перехода регулярной цепи, — минимальный элемент этой матрицы. Пусть — произвольный -мерный вектор-столбец, имеющий максимальный элемент и минимальный . Пусть и — максимальный и минимальный элементы . Тогда , и |
Доказательство: |
Пусть — вектор, полученный из заменой всех элементов, кроме на . Тогда . Каждый элемент имеет вид, где — элемент , который домножается на , причем . Поэтому наше выражение не превосходит . Отсюда и из неравенства получается: . Применяя те же рассуждения для вектора Складывая эти два неравенства, получаем , получим: . . |
Эргодическая теорема для регулярных цепей
Теорема: |
Регулярная марковская цепь эргодична. Другими словами: Пусть |
Доказательство: |
Рассмотрим вектор-столбец , у которого -й элемент равен , а все остальные равны . Пусть и — минимальный и максимальный элементы столбца . Так как , то из леммы следует, что и и. Пусть , тогда . Значит Так как в каждой матрице сходится к вектору, все элементы которого равны между собой. Пусть — их общее значение. Тогда . Заметим, что — -тый столбец матрицы . Рассмотрим все для . Тогда сходится к матрице , у которой по строкам стоит один и тот же вектор . сумма элементов в строке равна , то то же самое справедливо и для предельной матрицы . Теорема доказана. |
Определение: |
Матрица | называется предельной матрицей (англ. limiting matrix), вектор — предельным распределением (англ. limiting distribution).
Следствия
Теорема: |
Пусть — объекты из предыдущей теоремы.
Тогда справедливы факты:
|
Доказательство: |
Пусть — вектор-столбец, состоящий из единиц.
|
Таким образом у регулярных цепей есть свойство: через достаточно большое количество ходов будет существовать постоянная вероятность нахождения цепи в состоянии
, и эта вероятность не зависит от начального распределения, а зависит только от матрицы .Примеры
Самый очевидный и тривиальный пример регулярной цепи:
Пусть у нас есть два состояния —
и . Каждый ход мы кидаем честную монету — если выпал , то цепь остается в предыдущем состоянии, если — цепь меняет свое состояние.Матрица переходов будет выглядеть так:
Тогда
то есть через достаточно большое количество ходов наша система будет равновероятно находится как в состоянии , так и в состоянии , независимо от начального распределения.Более интересный пример — если мы будем управлять переходом состояний с помощью нечестной монеты. Пусть
— вероятность выпадения на монете.Матрица переходов будет выглядеть так:
Тогда при возведении
в степень элементы будут стремится к с разных сторон. То есть вектор , таким образом от честности монеты ничего не зависит.См. также
Источники информации
- Дж. Кемени, Дж. Снелл Конечные цепи Маркова, стр 93