Изменения

Перейти к: навигация, поиск

Примеры использования Марковских цепей

4545 байт добавлено, 19:25, 4 сентября 2022
м
rollbackEdits.php mass rollback
== Обозначения ==
Предположим, что проводится серия экспериментов с возможными исходами <math>s_1,s_2,s_3,...s_n</math>.Назовём эти исходы '''состояниями'''.
*<math>p_1^{(0)} - </math> вероятность того, что мы начинаем в состоянии <math>s_i</math>
*<math>p_{ij} - </math> вероятность того, что в результате эксперимента состояние было изменено от состояния <math>s_i</math> к состоянию <math>s_j</math>.
Если <math>p_i^{(1)}</math> вероятность того, что исходом эксперимента будет состояние <math>s_i</math>.Тогда
Предположим, что проводится серия экспериментов с возможными исходами <mathtex>s_1,s_2,s_3,\ldots s_n</tex>. Назовём эти исходы '''состояниями'''. *<tex>p_i^{(1)} = p_1^{(0)} </tex> — вероятность того, что мы начинаем в состоянии <tex>s_i</tex>;*<tex>p_{1iij} + p_2</tex> — вероятность того, что в результате эксперимента состояние было изменено от состояния <tex>s_i</tex> к состоянию <tex>s_j</tex>; Если <tex>p_i^{(01)}p_{2i} + p_3^{(0)}p_{3i} + ... +p_n^{(0)}p_{ni}(*)</mathtex> вероятность того, что исходом эксперимента будет состояние <tex>s_i</tex> . Тогда
<tex>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + \ldots +p_n^{(0)}p_{ni}</tex> . <tex> (*) </tex>
а это означает, что вероятность исхода в состоянии <math>s_i</math> равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в <math>s_i</math>.
Также заметим что:
Это означает, что вероятность исхода в состоянии <mathtex>s_i</tex> равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в <tex>s_i</tex>.Также заметим, что: <tex>p_{j1}+p_{j2}+p_{j3}+ ... \ldots +p_{jn} = 1</mathtex>.*Матрица <tex>T </tex> называется матрицей перехода.В общем случае она имеет вид:
<tex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... \ldots & p_{1n} \\p_{21} & p_{22} & p_{23} & ... \ldots & p_{2n} \\p_{31} & p_{32} & p_{33} & ... \ldots & p_{3n} \\p_{41} & p_{42} & p_{43} & ... \ldots & p_{4n} \\. \vdots & . \vdots & . \vdots & ... \vdots & .\\. & . & . & ... & .vdots \\. & . & . & ... & .\\p_{n1} & p_{n2} & p_{n3} & ... \ldots & p_{nn} \\
\end{bmatrix}
</tex>.
Пусть
<mathtex> p^{(0)}=</mathtex><mathtex>(p_1^{(0)},p_2^{(0)},p_3^{(0)},... \ldots ,p_n^{(0)})</mathtex> и <mathtex> p^{(1)}=</mathtex><mathtex>(p_1^{(1)},p_2^{(1)},p_3^{(1)},...\ldots,p_n^{(1)}),</mathtex>
тогда
<mathtex> (p_1^{(1)},p_2^{(1)},p_3^{(1)}... \ldots ,p_n^{(1)})=</mathtex><mathtex>(p_1^{(0)},p_2^{(0)},p_3^{(0)}.. \ldots ,p_n^{(0)})</mathtex><mathtex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... \ldots & p_{1n} \\p_{21} & p_{22} & p_{23} & ... \ldots & p_{2n} \\p_{31} & p_{32} & p_{33} & ... \ldots & p_{3n} \\p_{41} & p_{42} & p_{43} & ... \ldots & p_{4n} \\. \vdots & . \vdots & . \vdots & ... & .\\. & . & . & ... vdots & .\\. & . & . & ... & .vdots\\p_{n1} & p_{n2} & p_{n3} & ... \ldots & p_{nn} \\
\end{bmatrix}
</mathtex>.
Использование матриц приводит к более компактной записи условий.По своей сути, перемножение строки <mathtex> p_i^{(0)} </mathtex> с матрицей <mathtex> T </mathtex> эквивалентно уравнению <mathtex> (*) </mathtex> ,рассмотренному ранее.
== Прогноз погоды ==
=== Условие ===
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
#Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет <tex>0.5</tex>; вероятность, что она будет умеренно пасмурной, равна <tex>0.4</tex>; а вероятность пасмурной погоды на следующий день составляет <tex>0.1</tex>.
#Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна <tex>0.3</tex>; вероятность, что погода останется умеренно пасмурной, равна <tex>0.5</tex>; а вероятность пасмурной погоды на следующий день составляет <tex>0.2</tex>.
#Если же погода пасмурная, то вероятность, что она будет ясной на следующий день составляет <tex>0.2</tex>; вероятность что она станет умеренно пасмурной, равна <tex>0.4</tex>; вероятность что на следующий день она останется пасмурной, равна <tex>0.4</tex>.
 
----
 
== Пример: Прогноз погоды ==
 
''Условие:''
 
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
 
1)Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет 0.5; вероятность, что она будет умеренно пасмурной, равна 0.4;а вероятность пасмурной погоды на следующий день составляет 0.1.
 
2)Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна 0.3; вероятность, что погода останется умеренно пасмурной, равна 0.5; а вероятность пасмурной погоды на следующий день составляет 0.2.
 
3)Если же погода пасмурная то вероятность, что на следующий день она останется пасмурной, равна 0.4; вероятность, что она станет умеренно пасмурной, равна 0.4; а вероятность того, что она будет ясной на следующий день составляет 0.2.
 
Вопрос 1:Если вероятность ясной погоды в воскресенье равна 0.6, а вероятность умеренно пасмурности - 0.4, то какова вероятность, что погода в понедельник будет ясной?
 
Вопрос 2:Какова вероятность, что во вторник погода будет умеренно пасмурной?
Вопрос 1 : Если вероятность ясной погоды в воскресенье равна <tex>0.6</tex>, а вероятность умеренно пасмурной — <tex>0.4</tex>, то какова вероятность, что погода в понедельник будет ясной?
Вопрос 2 : Какова вероятность, что во вторник погода будет умеренно пасмурной?
=== Решение ===
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и
пасмурно, то:
<tex>p^{(0)} =</tex> <tex>(0.6,0.4,0)</tex>,
<tex>
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>.
следовательноСледовательно,
<tex>p^{(1)} = </tex> <tex>(0.6,0.4,0) \times</tex>
<tex>
<tex> = </tex>
<tex>(0.42,0.44,0.14)</tex>
и вероятность, что в понедельник будет ясная погода,равна <tex>0.42</tex>.  Пусть <tex>p_1^{(2)} </tex> — вероятность того, что во вторник будет ясная погода, <tex>p_2^{(2)} </tex> — вероятность того, что во вторник будет умеренно пасмурно и <tex>p_3^{(2)} </tex> — вероятность того, что во вторник будет пасмурно.
Пусть <tex>p_1^{(2)} -</tex> вероятность того, что во вторник будет ясная погода, <tex>p_2^{(2)} -</tex> вероятность того, что во вторник будет умеренно пасмурно и <tex>p_3^{(2)} -</tex> вероятность того, что во вторник будет пасмурно.Пусть <tex>p^{(2)} = </tex> <tex> (p_1^{(2)},p_2^{(2)},p_3^{(2)})</tex>.Тогда
Тогда
<tex>p^{(2)} = </tex> <tex> (0.42,0.44,0.14) \times</tex>
<tex>
</tex>
<tex> = </tex>
<tex>(0.37,0.444,0.186)</tex>. Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна <tex>0.444.</tex>.
Пусть <tex>p_i^{(m)} -</tex> вероятность ,что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и
<tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...\ldots,p_n^{(m)}).</tex>
{{Теорема
|id=идентификатор (необязательно), пример: th1.
|statement=Для любого положительного целого числа <tex>m </tex> выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>.|proof=Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо.Предположим,что оно справедливо для <tex>n=k</tex> ,так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку
<tex>p_j^{(k+1)} = </tex> <tex>p_1^{(k)}p_{1j} +</tex> <tex>p_2^{(k)}p_{2j} +</tex> <tex>p_3^{(k)}p_{3j} +</tex> <tex>p_n^{(k)}p_{nj} </tex>
, то
<tex>p^{(k+1)} = </tex> <tex>p^{(k)} T =</tex> <tex>p^{(0)} T^k T =</tex> <tex>p^{(0)} T^{k+1}.</tex>
}}
== Заключение Оценка будущих продаж == [[Марковская цепь|Цепи Маркова ]] также применяются при оценке будущих продаж.Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>.Например=== Условие ===В процессе опроса владельцев автомобилей трех американских марок: марки <tex>A</tex>, марки <tex>B</tex>, марки <tex>C</tex>, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки. #Среди владельцев автомобилей марки <tex>A</tex> <tex>20 \%</tex> сказали что выберут опять эту же марку, <tex>50 \%</tex> сказали, что они бы перешли на марку <tex>B \%</tex>, 60а <tex>30 \% </tex> заявили, что предпочли бы марку <tex>C</tex>. #Среди владельцев автомобиля автомобилей марки <tex>B</tex> <tex>20 \%</tex> сказали, что перейдут на марку <tex>A</tex>, сказалив то время как <tex>70 \%</tex> заявили, что приобрели бы опять выбрали автомобиль марки <tex>B</tex>, а <tex>10 \%</tex> заявили, что в следующий раз предпочли бы марку <tex>C</tex>. #Среди владельцев автомобилей <tex>C</tex> <tex>30 \%</tex> ответили, что перешли бы эту на марку;<tex>A</tex>, <tex>30\% </tex> сказали, что предпочтут перешли бы на марку <tex>B</tex>, а <tex>40 \%</tex> заявили, что остались бы верны той же марке <tex>C</tex>. Вопрос 1 : Если некто приобрел автомобиль марки <tex>A</tex>, марку то какова вероятность, что его второй машиной будет автомобиль марки <tex>C ?</tex> Вопрос 2 : Если при покупке первой машины покупатель подбросил монету, выбирая между автомобилями марки <tex>B; </tex> и 10% сказали <tex>C</tex>, то какова вероятность, что его третьей машиной станет автомобиль марки <tex>B ?</tex> === Решение === Матрица перехода для этого события имеет вид: <tex>\begin{bmatrix}0.2 & 0.5 & 0.3 \\0.2 & 0.7 & 0.1 \\0.3 & 0.3 & 0.4\end{bmatrix}</tex>. Для ответа на первый вопрос имеем: <tex>p^{(0)} =</tex> <tex>(1,0,0)</tex> , поэтому  <tex>p^{(1)} = </tex> <tex>(1,0,0) \times</tex><tex>\begin{bmatrix}0.2 & 0.5 & 0.3 \\0.2 & 0.7 & 0.1 \\0.3 & 0.3 & 0.4\end{bmatrix}</tex><tex> = </tex><tex>(0.2,0.5,0.3)</tex>. Вероятность того,что выберут вторая машина будет марки <tex>C </tex>, равна <tex>0.3</tex>. Для ответа на второй вопрос требуется найти  <tex>T^{(2)} = </tex><tex>\begin{bmatrix}0.23 & 0.54 & 0.23 \\0.21 & 0.62 & 0.17 \\0.24 & 0.48 & 0.28\end{bmatrix}</tex>. Для <tex>(2)</tex> имеем <tex>p^{(2)} = </tex> <tex> (0,0.5,0.5) </tex> и <tex>p^{(2)} = </tex> <tex>(0,0.т5,0.д5) \times</tex><tex>\begin{bmatrix}0.23 & 0.54 & 0.23 \\0.21 & 0.62 & 0.17 \\0.24 & 0.48 & 0.28\end{bmatrix}</tex><tex> = </tex><tex>(0.225,0.55,0.225)</tex>поэтому вероятность того, что второй автомобиль будет марки <tex>A</tex> равна <tex>0.225</tex>. ==См. также== *[[Марковская цепь]]*[[Эргодическая марковская цепь]]*[[Регулярная марковская цепь]]*[[Фундаментальная матрица]] == Источники информации ==* ''Марков А. А.'', Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156.* ''Kemeny J. G., Snell J. L.'', Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: ''Кемени Дж. Дж., Снелл Дж. Л.'' Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.) [[Категория:Дискретная математика и алгоритмы]][[Категория:Алгоритмы и структуры данных]][[Категория:Марковские цепи ]]
1632
правки

Навигация