Изменения

Перейти к: навигация, поиск

Эргодическая марковская цепь

2188 байт добавлено, 19:15, 4 сентября 2022
м
rollbackEdits.php mass rollback
{{Определение
|definition='''Эргодическая''' [[Марковская цепь|Марковская марковская цепь]] называется эргодической, если существует дискретное распределение (называемое эргодическим) <tex>\pi = (\pi_1,\pi_2,\ldots англ. ''ergodic Markov chain'')^{\top}</tex>, такое что <tex>\pi_i > 0,\; i \in \mathbb{N---}</tex> и:<tex>\lim\limits_{n \to \infty} p_{ij}^{(n)} = \pi_jмарковская цепь, \quad \forall i=1,2, \ldots</tex>целиком состоящая из одного [[Марковская цепь#sort_def| эргодического класса]].
}}
Марковскую цепь обладающую следующими свойствами называют '''слабо эргодическиой''', если она обладает следующими свойствами:==Стационарный режим==# Для любых двух различных вершин графа переходов <tex>iЭргодические марковские цепи описываются [[Отношение связности,j \, (i\neq j)</tex> найдется такая вершина <tex>k</tex> графа («общий сток»)компоненты связности|сильно связным графом]]. Это означает, что существуют ориентированные пути от вершины <tex>i</tex> к вершине <tex>k</tex> и от вершины <tex>j</tex> к вершине <tex>k</tex>. ''Замечание'': в такой системе возможен случай переход из любого состояния <tex>k=iS_i</tex> или в любое состояние <tex>k=S_{j</tex>; в этом случае тривиальный }, (пустой) путь от <tex>i</tex> к <tex>i</tex> или от <tex>j</tex> к <tex>,j= 1,2,\ldots,n)</tex> также считается ориентированным путем.# Нулевое собственное за конечное число матрицы интенсивности невырождено.# При <tex>t \to \infty</tex> матрица переходных вероятностей стремится к матрице, у которой все строки совпадают (и совпадают, очевидно, с равновесным распределением)шагов.
Для эргодических цепей при достаточно большом времени функционирования (<tex>t \to \infty</tex>) наступает '''стационарный режим''', при котором вероятности <tex>\alpha_i</tex> состояний системы не зависят от времени и не зависят от распределения вероятностей в начальный момент времени, то есть: <tex>\alpha_i = const</tex>.
[[Файл:MarkovTriangle.png|thumb|350px|Примеры графов переходов для == Классификация эргодических цепей Маркова: a) цепь не является слабо эргодической (не существует общего стока <tex>^{[1]}</tex> для состояний <tex>A_2, \, A_3</tex>); b) слабо эргодическая, но не эргодическая цепь (граф переходов является слабо-связным <tex>^{[2]}</tex>) c) эргодическая цепь (сильно-связный <tex>^{[3]}</tex> граф переходов).]]==
{{Определение|definition=В эргодической цепи можно выделить '''циклические классы''' (англ. ''cyclic classes''). Количество циклических классов <tex> d </tex> называют '''периодом цепи''' (англ. ''period of Markov chain''), если цепь состоит целиком из одного циклического класса, её называют [[Регулярная марковская цепь|регулярной]]. С течением времени текущее состояние движется по циклическим классам в определенном порядке, причем каждые <tex>d</tex> шагов она оказывается в одном и том же циклическом классе.}} Таким образом, эргодические цепи делятся на [[Регулярная марковская цепь|регулярные]] и '''циклические'''. =Основная = Эргодическая теорема об эргодических распределениях=={{Определение|definition='''Эргодическое (стационарное) распределение''' (англ. ''stationary distribution'') {{---}} распределение <tex>\alpha = (\alpha_1 \ldots \alpha_n )</tex>, такое что <tex>\alpha_i > 0</tex> и<tex>\lim\limits_{n \to \infty} p_{ij}^{(n)} = \alpha_j</tex> (где <tex>p_{ij}^{(n)}</tex> {{---}} вероятность оказаться в <tex>j</tex>-ом состоянии, выйдя из <tex>i</tex>-ого, через <tex>n</tex> переходов).}} === Для регулярных цепей ===Доказательство теоремы для случая регулярных цепей приведено в конспекте про [[Регулярная марковская цепь#Эргодическая теорема для регулярных цепей | регулярные цепи]]. === Для циклических цепей ===
{{
Теорема
|about=Основная Эргодическая теорема об эргодических распределениях
|statement=
Пусть Для любой эргодической цепи последовательность степеней <tex>\{X_n\}_P^{n \ge 0}</tex> - цепь Маркова с дискретным пространством состояний [http://en.wikipedia.org/wiki/Euler_summation суммируется по Эйлеру] к предельной матрице <tex>A</tex>, и матрицей переходных вероятностей эта предельная матрица имеет вид <tex>P A = (p_\xi\alpha</tex>, где <tex>\alpha</tex> {{ij---})} положительный вероятностный вектор,<tex>\; i,jxi</tex> - вектор-столбец из единиц.|proof=1  В случае циклической цепи переходы из одного циклического класса в другой возможны только при определенных значениях <tex> n </tex>,2которые периодически повторяются. Таким образом,\ldotsникакая степень матрицы переходов <tex>P</tex>. Тогда эта цепь не является эргодической тогда положительной матрицей, и только тогдаразличные степени содержат нули на различных местах. С увеличением степени расположение этих нулей периодически повторяется. Следовательно, когда она# Неразложима последовательность <tex>P^{[4]n}</tex>;не может сходиться в обычном смысле, для нее требуется так называемая суммируемость по Эйлеру.# Положительно возвратна Рассмотрим матрицу <tex>(kI + (1 - k)P)</tex> при некотором <tex>k, ~ 0 < k < 1</tex>. Эта матрица является ''переходной матрицей''. Она имеет положительные элементы на всех тех же местах, что и <tex>P</tex>, следовательно, она также ''задает эргодическую цепь''. Также диагональные элементы этой матрицы положительны. Значит, в каждое состояние можно возвратиться за один шаг, а это значит, что <tex>^{[5]}d = 1</tex>;. Таким образом, новая цепь является регулярной. Из [[Регулярная марковская цепь# Апериодична Эргодическая теорема для регулярных цепей | эргодической теоремы для регулярных цепей]] следует, что <tex>(kI + (1 - k)P)^{[6]n}</tex>стремится к матрице <tex>A = \xi\alpha</tex>, где <tex>\alpha</tex> {{---}} положительный вероятностный вектор.Таким образом:Эргодическое распределение : <tex>A = \mathbflim\limits_{x\to \piinfty} (kI + (1 - k)P)^{n}</tex> тогда является единственным решением системы: :<tex>A = \lim\limits_{x\to \infty} \sum\limits_{i=0}^{n} {n\inftychoose i} k^{n - i} (1 - k)^{i} P^{i} ~~~~~ (1)</tex>Но последнее равенство в точности означает, что последовательность <tex>P^{n}</tex> суммируема по Эйлеру к <tex>A</tex>, причем суммируема при каждом значении <tex>k</tex>.}} \pi_i  ==== Следствия ==== {{Теорема|statement= 1Если <tex>P, A,\; alpha</tex> {{---}} объекты из предыдущей теоремы. Тогда справедливы факты: * Для любого вероятностного вектора <tex>\pi_j pi</tex> последовательность <tex>\ge 0,pi P^{n}</tex> суммируема по Эйлеру к <tex>\; alpha</tex>* Вектор <tex>\pi_j alpha</tex> является единственным неподвижным вектором матрицы <tex>P</tex>* <tex>PA = AP = A</tex>|proof=Домножим <tex>(1)</tex> на <tex>\sumpi</tex>. Таким образом, мы получим, что предел последовательности <tex>\limits_pi P^{in}</tex> в смысле Эйлера равен <tex>\pi A =0}^{\infty} pi \xi \alpha</tex>. Значит, '''первый факт''' доказан.  Так как вектор <tex>\alpha</tex> был получен из предельной матрицы для <tex>(kI + (1 - k)P)</tex>, являющейся регулярной переходной матрицей, то он будет её единственным неподвижным вероятностным вектором. Но матрица <tex>(kI + (1 - k)P)</tex> должна иметь те же неподвижные векторы, что и <tex>P</tex>, так как из соотношения :<tex>\pi_ipi (kI + (1 - k)P) = \pi</tex>, p_{ij}следует,что :<tex>\quad pi (1 - k) P = \pi (1 - k)</tex>и поскольку <tex>k \ne 1</tex>, jто <tex>\in pi P = \mathbb{N}pi</tex>.}}Получается, что '''второй факт''' доказан.
 
'''Третий факт''' следует из того, что <tex>P \xi = \xi</tex> для любой переходной матрицы и что <tex>\alpha P = \alpha</tex>.
}}
==Пример==
[[File:TempErgo.gifjpg‎|thumb|250px|Пример эргодической циклической цепи]]Рассмотрим эксперимент по бросанию честной монеты. Тогда соответствующая этому эксперименту марковская Самым простым примером циклической цепи является цепь будет иметь 2 состояния.из двух состояний, с переходной матрицей:Рассмотрим матрицу, следующего вида: <tex>p_P = \begin{ijpmatrix}=0.5, i,j=& 1 \\ 1,2& 0\end{pmatrix}</tex>.
Такая матрица является стохастической, а, значит, корректно определяет марковскую цепь. Такая цепь является эргодической, так как существует эргодическое распределение Стационарным распределением этой цепи будет <tex>\pi alpha = (0.5,0.5)^{\top}</tex>, такое что <tex>\lim\limits_{n \to \infty} p_{ij}^{(n)} = \pi_j, i=1,2</tex>.
==См. также==
* [http://neerc.ifmo.ru/mediawiki/index.php/Марковская_цепь [Марковская цепь]]* [http://neerc.ifmo.ru/mediawiki/index.php/Регулярная_марковская_цепь [Регулярная марковская цепь] ==Примечания==# '''Общий сток''' - такая <tex>k</tex> вершина графа, что для любых двух различных вершин графа переходов <tex>i,j \, (i\neq j)</tex>, существуют ориентированные пути от вершины <tex>i</tex> к вершине <tex>k</tex> и от вершины <tex>j</tex> к вершине <tex>k</tex>.# Ориентированный граф называется '''слабо-связным''', если является связным неориентированный граф, полученный из него заменой ориентированных рёбер неориентированными.# Ориентированный граф называется '''сильно-связным''', если в нём существует (ориентированный) путь из любой вершины в любую другую, или, что эквивалентно, граф содержит ровно одну сильно связную компоненту.# Если цепь Маркова такова, что её состояния образуют лишь один неразложимый класс <tex>^{[7]}</tex>, то она называется '''неразложимой'''.# Возвратное состояние <tex>i</tex> называется '''положительным''', если <tex> \mathbb{E}[T_i] = \sum\limits_{n=1}^{\infty} n f^{(n)}_{ii} < \infty</tex> <tex>(</tex>где <tex>f_{ii}^{(n)} = \mathbb{P}(X_n = i,\; X_k \not= i, \, k=1,\ldots, n-1 \mid X_0 = i )</tex> — вероятность, выйдя из состояния <tex>i</tex>, вернуться в него ровно за <tex>n</tex> шагов<tex>)</tex>.# Если <tex>d(j) = 1</tex>, то состояние j называется '''апериодическим''' <tex>(d(j) = \gcd \left(n \in \mathbb{N} \mid p_{jj}^{(n)} > 0 \right)</tex>, где <tex>gcd</tex> обозначает наибольший общий делитель, называется периодом состояния <tex>j</tex>, <tex>p_{jj}^{(n)}</tex> матрица переходных вероятностей за <tex>n</tex> шагов<tex>)</tex>.# Свойство сообщаемости порождает на пространстве состояний *[[Отношение эквивалентности|отношение эквивалентностиПримеры использования Марковских цепей]]. Порождаемые классы эквивалентности называются '''неразложимыми классами'''.
==СсылкиИсточники информации ==*[http://ru.wikipedia.org/wiki/Эргодическое_распределение Эргодическое распределение - Википедия]
*[http://ru.wikipedia.org/wiki/Эргодическое_распределение Википедия {{---}} Эргодическое распределение ]*[http://ru.wikipedia.org/wiki/Дискретное_распределение#.D0.94.D0.B8.D1.81.D0.BA.D1.80.D0.B5.D1.82.D0.BD.D1.8B.D0.B5_.D1.80.D0.B0.D1.81.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.B5.D0.BD.D0.B8.D1.8F Википедия {{---}} Дискретное распределение ]*[http://en.wikipedia.org/wiki/Euler_summation Wikipedia {{--- Википедия}} Euler summation]*Дж. Кемени, Дж. Снелл {{---}} Конечные цепи Маркова {{---}} изд. "Наука", 1970 г. {{---}} 129 c.
==Литература==Дж. Кемени, Дж. Снелл "Конечные цепи Маркова" стр.129 (Издательство "Наука", 1970 г)[[Категория:Дискретная математика и алгоритмы]]
[[Категория: Марковские цепи]]
1632
правки

Навигация