Изменения

Перейти к: навигация, поиск

Алгоритм "Вперед-Назад"

2203 байта добавлено, 20:44, 13 января 2013
alpha 1
Пусть дана скрытая Марковская модель <tex>\lambda =\{\bold{S}, \bold{\Sigma}, \bold{\Pi}, \bold{A}, \bold{B}\}</tex>, где <tex>\bold{S} =\{s_1, ..., s_n\}</tex> - состояния, <tex>\bold{\Sigma} = Общие сведения \{\omega_1, ..., \omega_m\}</tex> - возможные события, <tex>\bold{\Pi}</tex> -- начальные вероятности, <tex>\bold{A} =\{a_{ij}\}</tex> -- матрица переходов, а <tex>\bold{B} =\{b_{ik}\}</tex> -- вероятность наблюдения события <tex>\omega_k</tex> после перехода в состояние <tex>s_i</tex>. За <tex>T</tex> шагов в этой модели получилась последовательность наблюдений <tex>O_{1,T} ={o_1, ..., o_T}</tex>. Алгоритм "вперед-назад" позволяет найти чему будет равна в скрытой Марковской модели вероятность попадания в состояние <tex>s_i</tex> на <tex>t</tex>-ом шагу, при последовательности наблюдений <tex>O = \{o_1 , ..., o_T\}</tex>.=== Вычисление ===Пусть в момент <tex>t</tex> мы оказались в состоянии <tex>i</tex>: <tex>X_t = i</tex>. Назовем <tex>\alpha_{i}(t)</tex> вероятность того, что при этом во время переходов образовалась последовательность наблюдений <tex>O_{1,t-1}</tex>, а <tex>\beta_{i}(t)</tex> — вероятность того, что после этого состояния мы будем наблюдать последовательность наблюдений <tex>O_{t,T}</tex>: <tex dpi="180">\alpha_{i}(t) \overset{def}{=} P(O_{1, t-1} | X_t = i) \\\beta_i(t) \overset{def}{=} P(O_{t,T} | X_t = 1)</tex> Нам требуется найти <tex>P(X_t = i | O) = P(X_t = i | O_{1,t-1} \cap O_{t,T})</tex>. Поскольку будущее Марковской цепи не зависит от прошлого, мы можем утверждать, что вероятность того, что мы будем наблюдать события <tex>O_{t,n}</tex> не зависит от того, что в прошлом мы наблюдали последовательность <tex>O_{1,t-1}</tex>, и, следовательно: <tex dpi="180">P(X_t = i | O) \propto P(X_t = i | O_{1,t-1}) \cdot P(X_t = 1 | O_{t,T}) = \alpha_{i}(t) \cdot \beta_{i}(t)</tex>
119
правок

Навигация