Эргодическая марковская цепь

Материал из Викиконспекты
Версия от 03:49, 17 января 2012; Dgerasimov (обсуждение | вклад) (Стационарный режим)
Перейти к: навигация, поиск
Определение:
Марковская цепь называется эргодической, если существует дискретное распределение (называемое эргодическим) [math]\pi = (\pi_1,\pi_2,\ldots )^{\top}[/math], такое что [math]\pi_i \gt 0,\; i \in \mathbb{N}[/math] и
[math]\lim\limits_{n \to \infty} p_{ij}^{(n)} = \pi_j, ~ \forall i \in \mathbb{N}[/math] (вероятность оказаться в [math]j[/math]-ом состоянии, выйдя из [math]i[/math]-ого, через [math]n[/math] переходов).


Эргодические цепи могут быть регулярными или циклическими. Циклические цепи отличаются от регулярных тем, что в процессе переходов через определенное количество шагов (цикл) происходит возврат в какое-либо состояние. Регулярные цепи этим свойством не обладают.

Стационарный режим

Эргодические марковские цепи описываются сильно связным графом. Это означает, что в такой системе возможен переход из любого состояния [math]S_i[/math] в любое состояние [math]S_{j}, (i,j = 1,2,...,n)[/math] за конечное число шагов.

Для эргодических цепей при достаточно большом времени функционирования ([math]t \to \infty[/math]) наступает стационарный режим, при котором вероятности [math]\pi_i[/math] состояний системы не зависят от времени и не зависят от распределения вероятностей в начальный момент времени, т.е. [math]\pi_i = const[/math].

Для определения стационарных вероятностей [math]\pi_i[/math] нахождения системы в состоянии [math]S_{i}[/math] нужно составить систему [math]n[/math] линейных однородных алгебраических уравнений с [math]n[/math] неизвестными:

[math]\pi_{i} = \sum\limits_{j=1}^{n}(\pi_{j} \times p_{ji})[/math], где [math]i = 1,2,...,n[/math]

Можно заметить, что так как все свободные члены равны нулю, система имеет бесконечное число решений. Однако, у нас есть дополнительные условия на решение: [math]\sum\limits_{j=1}^{n}\pi_{i} = 1[/math] и [math] \pi_i \gt 0 [/math]. Следующая теорема утверждает единственность решения такой системы.

Основная теорема об эргодических распределениях

Теорема (Основная теорема об эргодических распределениях):
Пусть [math]\{X_n\}_{n \ge 0}[/math] - цепь Маркова с дискретным пространством состояний и матрицей переходных вероятностей [math]P = (p_{ij}),\; i,j=1,2,\ldots[/math]. Тогда эта цепь является эргодической тогда и только тогда, когда она
  1. Неразложима (т.е. цепь Маркова такова, что её состояния образуют лишь один неразложимый класс [1]);
  2. Положительно возвратна (т.е. находится в таком состоянии, выйдя из которого возвращается в него за конечное время);
  3. Апериодична (т.е. находится в таком состоянии, которое навещается цепью через промежутки времени, не кратные фиксированному числу).

Эргодическое распределение [math]\mathbf{\pi}[/math] тогда является единственным решением системы:

[math]\sum\limits_{i=0}^{\infty} \pi_i = 1,\; \pi_j \ge 0,\; \pi_j = \sum\limits_{i=0}^{\infty} \pi_i\, p_{ij},\quad \, j\in \mathbb{N}[/math].


Пример

Пример эргодической цепи

Рассмотрим эксперимент по бросанию честной монеты. Тогда соответствующая этому эксперименту марковская цепь будет иметь 2 состояния. Состояние меняется на противоположное, при бросании монеты, с вероятностью [math]p = 0.5[/math].

Рассмотрим матрицу, следующего вида: [math]p_{ij}=0.5, i,j=1,2[/math]. Такая матрица является стохастической, а, значит, корректно определяет марковскую цепь. Такая цепь является эргодической, так как существует эргодическое распределение [math]\pi = (0.5,0.5)^{\top}[/math], такое что [math]\lim\limits_{n \to \infty} p_{ij}^{(n)} = \pi_j, i=1,2[/math].

Примечания

  1. Пусть [math]\{X_n\}_{n \ge 0}[/math] — цепь Маркова с тремя состояниями [math]\{1,2,3\}[/math], и её матрица переходных вероятностей имеет вид
    [math]P = \left( \begin{matrix} 0.5 & 0.5 & 0 \\ 0.1 & 0.9 & 0 \\ 0 & 0 & 1 \end{matrix} \right).[/math]
    Состояния этой цепи образуют два неразложимых класса: [math]\{1,2\}[/math] и [math]\{3\}[/math] [math](1 \leftrightarrow 2[/math], но [math]1 \not\rightarrow 3[/math] и [math]3 \not\rightarrow 1)[/math]. Т.е. если представить матрицу переходных вероятностей в виде графа, то он будет иметь две компоненты связности.

Ссылки

Литература

Дж. Кемени, Дж. Снелл "Конечные цепи Маркова" - Издательство "Наука", 1970 г - 129 c.