Изменения

Перейти к: навигация, поиск

Примеры использования Марковских цепей

383 байта добавлено, 15:04, 14 ноября 2018
Источники информации
== Обозначения ==
Предположим, что проводится серия экспериментов с возможными исходами <tex>s_1,s_2,s_3,...\ldots s_n</tex>. Назовём эти исходы '''состояниями'''.
*<tex>p_i^{(0)} </tex> — вероятность того, что мы начинаем в состоянии <tex>s_i</tex>;
*<tex>p_{ij} </tex> — вероятность того, что в результате эксперимента состояние было изменено от состояния <tex>s_i</tex> к состоянию <tex>s_j</tex>;
Если <tex>p_i^{(1)}</tex> вероятность того, что исходом эксперимента будет состояние <tex>s_i</tex>. Тогда
<tex>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + ... \ldots +p_n^{(0)}p_{ni}</tex> . <tex> (*) </tex>
Также заметим, что:
<tex>p_{j1}+p_{j2}+p_{j3}+ ... \ldots +p_{jn} = 1</tex>.*Матрица <tex>T </tex> называется матрицей перехода. В общем случае она имеет вид:
<tex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... \ldots & p_{1n} \\p_{21} & p_{22} & p_{23} & ... \ldots & p_{2n} \\p_{31} & p_{32} & p_{33} & ... \ldots & p_{3n} \\p_{41} & p_{42} & p_{43} & ... \ldots & p_{4n} \\. \vdots & . \vdots & . \vdots & ... \vdots & .\\. & . & . & ... & .vdots \\. & . & . & ... & .\\p_{n1} & p_{n2} & p_{n3} & ... \ldots & p_{nn} \\
Пусть
<tex> p^{(0)}=</tex> <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)},... \ldots ,p_n^{(0)})</tex> и <tex> p^{(1)}=</tex> <tex>(p_1^{(1)},p_2^{(1)},p_3^{(1)},...\ldots,p_n^{(1)}),</tex>
, тогда <tex> (p_1^{(1)},p_2^{(1)},p_3^{(1)}... \ldots ,p_n^{(1)})=</tex><tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)}.. \ldots ,p_n^{(0)})</tex>
<tex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... \ldots & p_{1n} \\p_{21} & p_{22} & p_{23} & ... \ldots & p_{2n} \\p_{31} & p_{32} & p_{33} & ... \ldots & p_{3n} \\p_{41} & p_{42} & p_{43} & ... \ldots & p_{4n} \\. \vdots & . \vdots & . \vdots & ... & .\\. & . & . & ... vdots & .\\. & . & . & ... & .vdots\\p_{n1} & p_{n2} & p_{n3} & ... \ldots & p_{nn} \\
\end{bmatrix}
</tex>.
Использование матриц приводит к более компактной записи условий. По своей сути, перемножение строки <tex> p_i^{(0)} </tex> с матрицей <tex> T </tex> эквивалентно уравнению <tex> (*) </tex> , рассмотренному ранее.
== Прогноз погоды ==
Пусть <tex>p_i^{(m)} </tex> — вероятность, что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и
<tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...\ldots,p_n^{(m)}).</tex>
{{Теорема
|id=идентификатор (необязательно), пример: th1.
|statement=Для любого положительного целого числа <tex>m </tex> выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>.
|proof=Докажем теорему, используя индукцию. Было показано (в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо. Предположим, что оно справедливо для <tex>n=k</tex> , так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку
}}
== Оценка будущих продаж ==
 == Оценка будущих продаж ==[[Марковская цепь|Цепи Маркова ]] также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>.
=== Условие ===
В процессе опроса владельцев автомобилей трех американских марок: марки <tex>A</tex>, марки <tex>B</tex>, марки <tex>C</tex>, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки.
<tex>(0.2,0.5,0.3)</tex>.
Вероятность того, что вторая машина будет марки С<tex>C</tex>, равна <tex>0.3</tex>. Для ответа на второй вопрос требуется найти
<tex>T^{(2)} = </tex>
</tex>.
Для <tex>(2) </tex> имеем <tex>p^{(2)} = </tex> <tex> (0,0.5,0.5) </tex> и
<tex>p^{(2)} = </tex> <tex>(0,0.5,0.5) \times</tex>
<tex> = </tex>
<tex>(0.225,0.55,0.225)</tex>
поэтому вероятность того, что второй автомобиль будет марки <tex>A </tex> равна <tex>0.225</tex>.
==См. также== *[[Марковская цепь]] *[[Эргодическая марковская цепь]]*[[Регулярная марковская цепь]]*[[Фундаментальная матрица]]
== Источники информации ==
* ''Kemeny J. G., Snell J. L.'', Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: ''Кемени Дж. Дж., Снелл Дж. Л.'' Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.)
[[Категория:Дискретная математика, и алгоритмы ]][[Категория:Алгоритмы и структуры данных]]
[[Категория:Марковские цепи ]]
202
правки

Навигация