Редактирование: Скрытые Марковские модели

Перейти к: навигация, поиск

Внимание! Вы не авторизовались на сайте. Ваш IP-адрес будет публично видимым, если вы будете вносить любые правки. Если вы войдёте или создадите учётную запись, правки вместо этого будут связаны с вашим именем пользователя, а также у вас появятся другие преимущества.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.
Текущая версия Ваш текст
Строка 23: Строка 23:
  
 
==Обучение==
 
==Обучение==
Параметр задачи обучения СММ {{---}} это нахождение лучшего результата. Пусть дана выходная последовательность или множество таких последовательностей,лучший набор состояний переходов и вероятности эмиссии. Задача, как правило, для получения максимальной вероятностной оценки параметров СММ,  учитывая множество выходных последовательностей. Не существует общего решения этой задачи, но для нахождения локального максимально правдоподобного результата может быть эффективно использован [[Алгоритм Баума-Велша]]. Если же СММ используется для прогнозирования временных рядов, то можно использовать более изощренный метод, такой как Марковская цепь Монте-Карло<ref>[https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo Markov chain Monte Carlo(МСМС)]</ref>, что оказалось благоприятным для нахождения одной модели вероятности как с точки зрения точности, так и стабильности<ref>Sipos, I. Róbert. Parallel stratified MCMC sampling of AR-HMMs for stochastic time series prediction. In: Proceedings, 4th Stochastic Modeling Techniques and Data Analysis International Conference with Demographics Workshop (SMTDA2016), pp. 295-306. Valletta, 2016.[http://1drv.ms/b/s!ApL_0Av0YGDLglwEOv1aYAGbmQeL PDF]</ref>. Поскольку в МЦМК возникают значительные вычислительные нагрузки, то в случаях, когда вычислительная масштабируемость представляет также интерес, можно также прибегнуть к вариационной аппроксимации Байесовского вывода<ref>[https://ru.wikipedia.org/wiki/%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B9_%D0%B2%D1%8B%D0%B2%D0%BE%D0%B4 Байесовский вывод]</ref><ref>Sotirios P. Chatzis, Dimitrios Kosmopoulos, “A Variational Bayesian Methodology for Hidden Markov Models utilizing Student’s-t Mixtures,” Pattern Recognition, vol. 44, no. 2, pp. 295-306, Feb. 2011. [http://www.sciencedirect.com/science/article/pii/S0031320310004383]</ref>. Действительно, приближенный вариационный вывод предлагает вычислительную эффективность, сравнимую с максимизацией ожидания,ведь пока производящий профиль точности лишь немного уступает точной МЦМК-типа Байесовского вывода.
+
Параметр задачи обучения СММ {{---}} это нахождение лучшего результата. Пусть дана выходная последовательность или множество таких последовательностей,лучший набор состояний переходов и вероятности эмиссии. Задача, как правило, для получения максимальной вероятностной оценки параметров СММ,  учитывая множество выходных последовательностей. Не существует общего решения этой задачи, но для нахождения локального максимально правдоподобного результата может быть эффективно использован [[Алгоритм Баума-Велша]]. Если же СММ используется для прогнозирования временных рядов, то можно использовать более изощренный метод, такой как Марковская цепь Монте-Карло<ref>[https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo Markov chain Monte Carlo(МСМС)]</ref>, что оказалось благоприятным для нахождения одной модели вероятности как с точки зрения точности, так и стабильности<ref>Sipos, I. Róbert. Parallel stratified MCMC sampling of AR-HMMs for stochastic time series prediction. In: Proceedings, 4th Stochastic Modeling Techniques and Data Analysis International Conference with Demographics Workshop (SMTDA2016), pp. 295-306. Valletta, 2016.[http://1drv.ms/b/s!ApL_0Av0YGDLglwEOv1aYAGbmQeL PDF]</ref>. Поскольку в МЦМК возникают значительные вычислительные нагрузки, то в случаях, когда вычислительная масштабируемость представляет также интерес, можно также прибегнуть к вариационной аппроксимации Байесовского вывода<ref>[https://ru.wikipedia.org/wiki/%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B9_%D0%B2%D1%8B%D0%B2%D0%BE%D0%B4 Байесовский вывод]</ref><ref>Sotirios P. Chatzis, Dimitrios Kosmopoulos, “A Variational Bayesian Methodology for Hidden Markov Models utilizing Student’s-t Mixtures,” Pattern Recognition, vol. 44, no. 2, pp. 295-306, Feb. 2011. [http://www.sciencedirect.com/science/article/pii/S0031320310004383]</ref>. Действительно, приближенный вариационный вывод предлагает вычислительную эффективность, сравнимую с максимизацией ожидания,ведь пока производящий профиль точности лишь немного уступает точной МЦМК{{---}}типа Байесовского вывода.
  
 
==См. также==
 
==См. также==

Пожалуйста, учтите, что любой ваш вклад в проект «Викиконспекты» может быть отредактирован или удалён другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см. Викиконспекты:Авторские права). НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!

Чтобы изменить эту страницу, пожалуйста, ответьте на приведённый ниже вопрос (подробнее):

Отменить | Справка по редактированию (в новом окне)

Шаблоны, используемые на этой странице: