Изменения
→См. также
{{Определение
|definition='''Эргодическая''' [[Марковская цепь|Марковская марковская цепь]] называется эргодической, если существует дискретное распределение (называемое эргодическим) <tex>\pi = (\pi_1,\pi_2,\ldots англ. ''ergodic Markov chain'')^{\top}</tex>, такое что <tex>\pi_i > 0,\; i \in \mathbb{N---}</tex> и:<tex>\lim\limits_{n \to \infty} p_{ij}^{(n)} = \pi_jмарковская цепь, ~ \forall i \in \mathbb{N}</tex> (вероятность оказаться в <tex>j</tex>-ом состоянии, выйдя целиком состоящая из <tex>i</tex>-ого, через <tex>n</tex> переходов)одного [[Марковская цепь#sort_def| эргодического класса]].
}}
==Стационарный режим==
Эргодические марковские цепи описываются [[Отношение связности, компоненты связности|сильно связным графом]]. Это означает, что в такой системе возможен переход из любого состояния <tex>S_i</tex> в любое состояние <tex>S_{j}, (i,j = 1,2,...\ldots,n)</tex> за конечное число шагов.
Для эргодических цепей при достаточно большом времени функционирования (<tex>t \to \infty</tex>) наступает '''стационарный режим''', при котором вероятности <tex>p_i\alpha_i</tex> состояний системы не зависят от времени и не зависят от распределения вероятностей в начальный момент времени, т.е. то есть: <tex>p_i \alpha_i = const</tex>.
== Эргодическая теорема =={{Определение|definition='''Эргодическое (стационарное) распределение''' (англ. ''stationary distribution'') {{---}} распределение <tex>\sumalpha = (\alpha_1 \ldots \alpha_n )</tex>, такое что <tex>\alpha_i > 0</tex> и<tex>\lim\limits_{j=1n \to \infty} p_{ij}^{(n)}= \alpha_j</tex> (где <tex>p_{iij}) = 1 ~~~~~~~~ ^{(2n)}</tex> Систему линейных алгебраических уравнений удобно составлять непосредственно по графу состояний. При этом в левой части уравнения записывается {{---}} вероятность состояния, соответствующего рассматриваемой вершине графа, а оказаться в правой части <tex>j</tex>- сумма произведений. Число слагаемых соответствует числу дуг графа, входящих в рассматриваемое состояние. Каждое слагаемое представляет произведение вероятности того состоянияом состоянии, выйдя из которого выходит дуга графа<tex>i</tex>-ого, на переходную вероятность, которой помечена соответствующая дуга графачерез <tex>n</tex> переходов).}}
==Основная теорема об эргодических распределениях= Для циклических цепей ===
{{
Теорема
|about=Основная Эргодическая теорема об эргодических распределениях
|statement=
{{Теорема
|statement=Если <tex>P, A, \alpha</tex> {{---}} объекты из предыдущей теоремы. Тогда справедливы факты:
* Для любого вероятностного вектора <tex>\pi</tex> последовательность <tex>\pi P^{n}</tex> суммируема по Эйлеру к <tex>\alpha</tex>
* Вектор <tex>\alpha</tex> является единственным неподвижным вектором матрицы <tex>P</tex>
* <tex>PA = AP = A</tex>
|proof=
Домножим <tex>(1)</tex> на <tex>\pi</tex>. Таким образом, мы получим, что предел последовательности <tex>\pi P^{n}</tex> в смысле Эйлера равен <tex>\pi A = \pi \xi \alpha</tex>. Значит, '''первый факт''' доказан.
Так как вектор <tex>\alpha</tex> был получен из предельной матрицы для <tex>(kI + (1 - k)P)</tex>, являющейся регулярной переходной матрицей, то он будет её единственным неподвижным вероятностным вектором. Но матрица <tex>(kI + (1 - k)P)</tex> должна иметь те же неподвижные векторы, что и <tex>P</tex>, так как из соотношения
:<tex>\pi (kI + (1 - k)P) = \pi</tex>,
следует, что
:<tex>\pi (1 - k) P = \pi (1 - k)</tex>
и поскольку <tex>k \ne 1</tex>, то <tex>\pi P = \pi</tex>. Получается, что '''второй факт''' доказан.
'''Третий факт''' следует из того, что <tex>P \xi = \xi</tex> для любой переходной матрицы и что <tex>\alpha P = \alpha</tex>.
}}
==Пример==
[[File:TempErgo.gifjpg|thumb|250px|Пример эргодической циклической цепи]]Рассмотрим эксперимент по бросанию честной монеты. Тогда соответствующая этому эксперименту марковская Самым простым примером циклической цепи является цепь будет иметь 2 состояния. Состояние меняется на противоположное, при бросании монетыиз двух состояний, с вероятностью <tex>p = 0.5</tex>.переходной матрицей:Рассмотрим матрицу, следующего вида: <tex>p_P = \begin{ijpmatrix}=0.5, i,j=& 1,2</tex>. Такая матрица является стохастической, а, значит, корректно определяет марковскую цепь. Такая цепь является эргодической, так как существует эргодическое распределение <tex>\pi = (\ 1 & 0.5,0.5)^{\top}</tex>, такое что <tex>\lim\limits_{n \to \infty} p_end{ijpmatrix}^{(n)} = \pi_j, i=1,2</tex>.
Стационарным распределением этой цепи будет <tex> \alpha ==Примечания==(0.5, 0.5) </tex>.
==СсылкиИсточники информации ==*[http://ru.wikipedia.org/wiki/Эргодическое_распределение Эргодическое распределение - Википедия]
*[http://ru.wikipedia.org/wiki/Эргодическое_распределение Википедия {{---}} Эргодическое распределение ]*[http://ru.wikipedia.org/wiki/Дискретное_распределение#.D0.94.D0.B8.D1.81.D0.BA.D1.80.D0.B5.D1.82.D0.BD.D1.8B.D0.B5_.D1.80.D0.B0.D1.81.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.B5.D0.BD.D0.B8.D1.8F Википедия {{---}} Дискретное распределение ]*[http://en.wikipedia.org/wiki/Euler_summation Wikipedia {{--- Википедия}} Euler summation]*Дж. Кемени, Дж. Снелл {{---}} Конечные цепи Маркова {{---}} изд. "Наука", 1970 г. {{---}} 129 c.
[[Категория: Марковские цепи]]