Примеры использования Марковских цепей — различия между версиями
Ponomarev (обсуждение | вклад) |
м (rollbackEdits.php mass rollback) |
||
(не показано 11 промежуточных версий 5 участников) | |||
Строка 1: | Строка 1: | ||
== Обозначения == | == Обозначения == | ||
− | Предположим, что проводится серия экспериментов с возможными исходами <tex>s_1,s_2,s_3, | + | Предположим, что проводится серия экспериментов с возможными исходами <tex>s_1,s_2,s_3,\ldots s_n</tex>. Назовём эти исходы '''состояниями'''. |
*<tex>p_i^{(0)} </tex> — вероятность того, что мы начинаем в состоянии <tex>s_i</tex>; | *<tex>p_i^{(0)} </tex> — вероятность того, что мы начинаем в состоянии <tex>s_i</tex>; | ||
*<tex>p_{ij} </tex> — вероятность того, что в результате эксперимента состояние было изменено от состояния <tex>s_i</tex> к состоянию <tex>s_j</tex>; | *<tex>p_{ij} </tex> — вероятность того, что в результате эксперимента состояние было изменено от состояния <tex>s_i</tex> к состоянию <tex>s_j</tex>; | ||
Если <tex>p_i^{(1)}</tex> вероятность того, что исходом эксперимента будет состояние <tex>s_i</tex>. Тогда | Если <tex>p_i^{(1)}</tex> вероятность того, что исходом эксперимента будет состояние <tex>s_i</tex>. Тогда | ||
− | <tex>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + | + | <tex>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + \ldots +p_n^{(0)}p_{ni}</tex> . <tex> (*) </tex> |
Строка 12: | Строка 12: | ||
Также заметим, что: | Также заметим, что: | ||
− | <tex>p_{j1}+p_{j2}+p_{j3}+ | + | <tex>p_{j1}+p_{j2}+p_{j3}+ \ldots +p_{jn} = 1</tex>. |
− | *Матрица T называется матрицей перехода. В общем случае она имеет вид: | + | *Матрица <tex>T</tex> называется матрицей перехода. В общем случае она имеет вид: |
<tex> | <tex> | ||
\begin{bmatrix} | \begin{bmatrix} | ||
− | p_{11} & p_{12} & p_{13} & | + | p_{11} & p_{12} & p_{13} & \ldots & p_{1n} \\ |
− | p_{21} & p_{22} & p_{23} & | + | p_{21} & p_{22} & p_{23} & \ldots & p_{2n} \\ |
− | p_{31} & p_{32} & p_{33} & | + | p_{31} & p_{32} & p_{33} & \ldots & p_{3n} \\ |
− | p_{41} & p_{42} & p_{43} & | + | p_{41} & p_{42} & p_{43} & \ldots & p_{4n} \\ |
− | + | \vdots & \vdots & \vdots & \vdots & \vdots \\ | |
− | + | ||
− | + | p_{n1} & p_{n2} & p_{n3} & \ldots & p_{nn} \\ | |
− | p_{n1} & p_{n2} & p_{n3} & | ||
Строка 32: | Строка 31: | ||
Пусть | Пусть | ||
− | <tex> p^{(0)}=</tex> <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)}, | + | <tex> p^{(0)}=</tex> <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)},\ldots ,p_n^{(0)})</tex> и |
− | <tex> p^{(1)}=</tex> <tex>(p_1^{(1)},p_2^{(1)},p_3^{(1)}, | + | <tex> p^{(1)}=</tex> <tex>(p_1^{(1)},p_2^{(1)},p_3^{(1)},\ldots,p_n^{(1)}),</tex> |
− | + | тогда | |
− | <tex> (p_1^{(1)},p_2^{(1)},p_3^{(1)} | + | <tex> (p_1^{(1)},p_2^{(1)},p_3^{(1)} \ldots ,p_n^{(1)})=</tex> |
− | <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)} | + | <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)} \ldots ,p_n^{(0)})</tex> |
<tex> | <tex> | ||
\begin{bmatrix} | \begin{bmatrix} | ||
− | p_{11} & p_{12} & p_{13} & | + | p_{11} & p_{12} & p_{13} & \ldots & p_{1n} \\ |
− | p_{21} & p_{22} & p_{23} & | + | p_{21} & p_{22} & p_{23} & \ldots & p_{2n} \\ |
− | p_{31} & p_{32} & p_{33} & | + | p_{31} & p_{32} & p_{33} & \ldots & p_{3n} \\ |
− | p_{41} & p_{42} & p_{43} & | + | p_{41} & p_{42} & p_{43} & \ldots & p_{4n} \\ |
− | + | \vdots & \vdots & \vdots & \vdots & \vdots\\ | |
− | + | p_{n1} & p_{n2} & p_{n3} & \ldots & p_{nn} \\ | |
− | |||
− | p_{n1} & p_{n2} & p_{n3} & | ||
\end{bmatrix} | \end{bmatrix} | ||
</tex>. | </tex>. | ||
− | Использование матриц приводит к более компактной записи условий. По своей сути, перемножение строки <tex> p_i^{(0)} </tex> с матрицей <tex> T </tex> эквивалентно уравнению <tex> (*) </tex> , рассмотренному ранее. | + | Использование матриц приводит к более компактной записи условий. По своей сути, перемножение строки <tex> p_i^{(0)} </tex> с матрицей <tex> T </tex> эквивалентно уравнению <tex> (*) </tex>, рассмотренному ранее. |
== Прогноз погоды == | == Прогноз погоды == | ||
Строка 115: | Строка 112: | ||
Пусть <tex>p_i^{(m)} </tex> — вероятность, что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и | Пусть <tex>p_i^{(m)} </tex> — вероятность, что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и | ||
− | <tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)}, | + | <tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},\ldots,p_n^{(m)}).</tex> |
{{Теорема | {{Теорема | ||
|id=идентификатор (необязательно), пример: th1. | |id=идентификатор (необязательно), пример: th1. | ||
− | |statement=Для любого положительного целого числа m выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>. | + | |statement=Для любого положительного целого числа <tex>m</tex> выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>. |
|proof=Докажем теорему, используя индукцию. Было показано (в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо. Предположим, что оно справедливо для <tex>n=k</tex> , так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку | |proof=Докажем теорему, используя индукцию. Было показано (в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо. Предположим, что оно справедливо для <tex>n=k</tex> , так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку | ||
Строка 130: | Строка 127: | ||
}} | }} | ||
+ | == Оценка будущих продаж == | ||
− | + | [[Марковская цепь|Цепи Маркова]] также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>. | |
− | |||
− | Цепи Маркова также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>. | ||
=== Условие === | === Условие === | ||
В процессе опроса владельцев автомобилей трех американских марок: марки <tex>A</tex>, марки <tex>B</tex>, марки <tex>C</tex>, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки. | В процессе опроса владельцев автомобилей трех американских марок: марки <tex>A</tex>, марки <tex>B</tex>, марки <tex>C</tex>, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки. | ||
Строка 195: | Строка 191: | ||
поэтому вероятность того, что второй автомобиль будет марки <tex>A</tex> равна <tex>0.225</tex>. | поэтому вероятность того, что второй автомобиль будет марки <tex>A</tex> равна <tex>0.225</tex>. | ||
− | + | ==См. также== | |
− | + | *[[Марковская цепь]] | |
− | + | *[[Эргодическая марковская цепь]] | |
+ | *[[Регулярная марковская цепь]] | ||
+ | *[[Фундаментальная матрица]] | ||
== Источники информации == | == Источники информации == | ||
Строка 203: | Строка 201: | ||
* ''Kemeny J. G., Snell J. L.'', Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: ''Кемени Дж. Дж., Снелл Дж. Л.'' Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.) | * ''Kemeny J. G., Snell J. L.'', Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: ''Кемени Дж. Дж., Снелл Дж. Л.'' Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.) | ||
− | [[Категория:Дискретная математика | + | [[Категория:Дискретная математика и алгоритмы]] |
+ | [[Категория:Алгоритмы и структуры данных]] | ||
[[Категория:Марковские цепи ]] | [[Категория:Марковские цепи ]] |
Текущая версия на 19:25, 4 сентября 2022
Содержание
Обозначения
Предположим, что проводится серия экспериментов с возможными исходами
. Назовём эти исходы состояниями.- — вероятность того, что мы начинаем в состоянии ;
- — вероятность того, что в результате эксперимента состояние было изменено от состояния к состоянию ;
Если
вероятность того, что исходом эксперимента будет состояние . Тогда.
Это означает, что вероятность исхода в состоянии равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в .
Также заметим, что:
.
- Матрица называется матрицей перехода. В общем случае она имеет вид:
.
Пусть
и
тогда
.Использование матриц приводит к более компактной записи условий. По своей сути, перемножение строки
с матрицей эквивалентно уравнению , рассмотренному ранее.Прогноз погоды
Условие
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
- Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет ; вероятность, что она будет умеренно пасмурной, равна ; а вероятность пасмурной погоды на следующий день составляет .
- Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна ; вероятность, что погода останется умеренно пасмурной, равна ; а вероятность пасмурной погоды на следующий день составляет .
- Если же погода пасмурная, то вероятность, что она будет ясной на следующий день составляет ; вероятность что она станет умеренно пасмурной, равна ; вероятность что на следующий день она останется пасмурной, равна .
Вопрос 1 : Если вероятность ясной погоды в воскресенье равна , а вероятность умеренно пасмурной — , то какова вероятность, что погода в понедельник будет ясной?
Вопрос 2 : Какова вероятность, что во вторник погода будет умеренно пасмурной?
Решение
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и пасмурно, то:
,
.
Следовательно,
и вероятность, что в понедельник будет ясная погода, равна .Пусть
— вероятность того, что во вторник будет ясная погода, — вероятность того, что во вторник будет умеренно пасмурно и — вероятность того, что во вторник будет пасмурно.Пусть
.Тогда
.Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна
.
Пусть — вероятность, что исходом m-го проведения эксперимента будет состояние и
Теорема: |
Для любого положительного целого числа выполняется . |
Доказательство: |
Докажем теорему, используя индукцию. Было показано (в примере про погоду), что для утверждение справедливо. Предположим, что оно справедливо для , так что Поскольку, то |
Оценка будущих продаж
Цепи Маркова также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу .
Условие
В процессе опроса владельцев автомобилей трех американских марок: марки
, марки , марки , им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки.- Среди владельцев автомобилей марки сказали что выберут опять эту же марку, сказали, что они бы перешли на марку , а заявили, что предпочли бы марку .
- Среди владельцев автомобилей марки сказали, что перейдут на марку , в то время как заявили, что приобрели бы опять автомобиль марки , а заявили, что в следующий раз предпочли бы марку .
- Среди владельцев автомобилей ответили, что перешли бы на марку , сказали, что перешли бы на марку , а заявили, что остались бы верны той же марке .
Вопрос 1 : Если некто приобрел автомобиль марки
, то какова вероятность, что его второй машиной будет автомобиль маркиВопрос 2 : Если при покупке первой машины покупатель подбросил монету, выбирая между автомобилями марки
и , то какова вероятность, что его третьей машиной станет автомобиль маркиРешение
Матрица перехода для этого события имеет вид:
.
Для ответа на первый вопрос имеем:
, поэтому.
Вероятность того, что вторая машина будет марки
, равна . Для ответа на второй вопрос требуется найти.
Для
имеем ипоэтому вероятность того, что второй автомобиль будет марки равна .
См. также
Источники информации
- Марков А. А., Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156.
- Kemeny J. G., Snell J. L., Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: Кемени Дж. Дж., Снелл Дж. Л. Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.)