Примеры использования Марковских цепей — различия между версиями
Xottab (обсуждение | вклад) м |
Deyneka (обсуждение | вклад) |
||
Строка 1: | Строка 1: | ||
== Обозначения == | == Обозначения == | ||
− | |||
− | |||
− | |||
− | |||
− | < | + | Предположим, что проводится серия экспериментов с возможными исходами <tex>s_1,s_2,s_3,...s_n</tex>. Назовём эти исходы '''состояниями'''. |
+ | *<tex>p_i^{(0)} </tex> — вероятность того, что мы начинаем в состоянии <tex>s_i</tex> | ||
+ | *<tex>p_{ij} </tex> — вероятность того, что в результате эксперимента состояние было изменено от состояния <tex>s_i</tex> к состоянию <tex>s_j</tex>. | ||
+ | Если <tex>p_i^{(1)}</tex> вероятность того, что исходом эксперимента будет состояние <tex>s_i</tex>. Тогда | ||
+ | <tex>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + ... +p_n^{(0)}p_{ni}(*)</tex> | ||
− | + | ||
+ | Это означает, что вероятность исхода в состоянии <tex>s_i</tex> равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в <tex>s_i</tex>. | ||
Также заметим что: | Также заметим что: | ||
− | < | + | <tex>p_{j1}+p_{j2}+p_{j3}+ ... +p_{jn} = 1</tex> |
− | *Матрица T называется матрицей перехода.В общем случае она имеет вид: | + | *Матрица T называется матрицей перехода. В общем случае она имеет вид: |
<tex> | <tex> | ||
Строка 31: | Строка 32: | ||
Пусть | Пусть | ||
− | < | + | <tex> p^{(0)}=</tex> <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)},... ,p_n^{(0)})</tex> и |
− | < | + | <tex> p^{(1)}=</tex> <tex>(p_1^{(1)},p_2^{(1)},p_3^{(1)},...,p_n^{(1)})</tex> |
тогда | тогда | ||
− | < | + | <tex> (p_1^{(1)},p_2^{(1)},p_3^{(1)}... ,p_n^{(1)})=</tex> |
− | < | + | <tex>(p_1^{(0)},p_2^{(0)},p_3^{(0)}.. ,p_n^{(0)})</tex> |
− | < | + | <tex> |
\begin{bmatrix} | \begin{bmatrix} | ||
p_{11} & p_{12} & p_{13} & ... & p_{1n} \\ | p_{11} & p_{12} & p_{13} & ... & p_{1n} \\ | ||
Строка 48: | Строка 49: | ||
p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\ | p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\ | ||
\end{bmatrix} | \end{bmatrix} | ||
− | </ | + | </tex> |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | Использование матриц приводит к более компактной записи условий.По своей сути, перемножение строки <tex> p_i^{(0)} </tex> с матрицей <tex> T </tex> эквивалентно уравнению <tex> (*) </tex>, рассмотренному ранее. | |
+ | == Прогноз погоды == | ||
+ | === Условие === | ||
+ | Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная. | ||
− | 3 | + | #Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет 0.5; вероятность, что она будет умеренно пасмурной, равна 0.4; а вероятность пасмурной погоды на следующий день составляет 0.1. |
+ | #Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна 0.3; вероятность, что погода останется умеренно пасмурной, равна 0.5; а вероятность пасмурной погоды на следующий день составляет 0.2. | ||
+ | #Если же погода пасмурная то вероятность, что на следующий день она останется пасмурной, равна 0.4; вероятность, что она станет умеренно пасмурной, равна 0.4; а вероятность того, что она будет ясной на следующий день составляет 0.2. | ||
− | |||
− | Вопрос | + | Вопрос 1 : Если вероятность ясной погоды в воскресенье равна 0.6, а вероятность умеренно пасмурности — 0.4, то какова вероятность, что погода в понедельник будет ясной? |
+ | Вопрос 2 : Какова вероятность, что во вторник погода будет умеренно пасмурной? | ||
+ | === Решение === | ||
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и | Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и | ||
Строка 101: | Строка 92: | ||
<tex> = </tex> | <tex> = </tex> | ||
<tex>(0.42,0.44,0.14)</tex> | <tex>(0.42,0.44,0.14)</tex> | ||
− | и вероятность, что в понедельник будет ясная погода,равна <tex>0.42</tex>. | + | и вероятность, что в понедельник будет ясная погода, равна <tex>0.42</tex>. |
+ | |||
+ | Пусть <tex>p_1^{(2)} </tex> — вероятность того, что во вторник будет ясная погода, <tex>p_2^{(2)} </tex> — вероятность того, что во вторник будет умеренно пасмурно и <tex>p_3^{(2)} </tex> — вероятность того, что во вторник будет пасмурно. | ||
− | + | Пусть <tex>p^{(2)} = </tex> <tex> (p_1^{(2)},p_2^{(2)},p_3^{(2)})</tex>. | |
+ | Тогда | ||
<tex>p^{(2)} = </tex> <tex> (0.42,0.44,0.14) \times</tex> | <tex>p^{(2)} = </tex> <tex> (0.42,0.44,0.14) \times</tex> | ||
<tex> | <tex> | ||
Строка 115: | Строка 109: | ||
<tex> = </tex> | <tex> = </tex> | ||
<tex>(0.37,0.444,0.186)</tex> | <tex>(0.37,0.444,0.186)</tex> | ||
− | Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна <tex>0.444 | + | |
+ | Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна <tex>0.444</tex>. | ||
− | Пусть <tex>p_i^{(m)} | + | Пусть <tex>p_i^{(m)} </tex> — вероятность, что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и |
<tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...,p_n^{(m)}).</tex> | <tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...,p_n^{(m)}).</tex> | ||
{{Теорема | {{Теорема | ||
− | |id=идентификатор (необязательно), пример: th1. | + | |id=идентификатор (необязательно), пример: th1. |
|statement=Для любого положительного целого числа m выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex> | |statement=Для любого положительного целого числа m выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex> | ||
− | |proof=Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо.Предположим,что оно справедливо для <tex>n=k</tex> ,так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку | + | |proof=Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо. Предположим,что оно справедливо для <tex>n=k</tex> , так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку |
<tex>p_j^{(k+1)} = </tex> <tex>p_1^{(k)}p_{1j} +</tex> <tex>p_2^{(k)}p_{2j} +</tex> <tex>p_3^{(k)}p_{3j} +</tex> <tex>p_n^{(k)}p_{nj} </tex> | <tex>p_j^{(k+1)} = </tex> <tex>p_1^{(k)}p_{1j} +</tex> <tex>p_2^{(k)}p_{2j} +</tex> <tex>p_3^{(k)}p_{3j} +</tex> <tex>p_n^{(k)}p_{nj} </tex> | ||
Строка 135: | Строка 130: | ||
}} | }} | ||
− | |||
− | |||
− | |||
− | |||
− | [[Категория: Марковские цепи ]] | + | == Оценка будущих продаж == |
+ | Цепи Маркова также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>. | ||
+ | === Условие === | ||
+ | В процессе опроса владельцев автомобилей трех американских марок: марки A, марки B, марки С, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки. | ||
+ | |||
+ | #Среди владельцев автомобилей марки A 20% сказали, что они бы перешли на марку B, а 30% заявили, что предпочли бы марку С. | ||
+ | #Среди владельцев автомобилей марки B 20% сказали, что перейдут на марку A, в то время как 70% заявили, что приобрели бы опять автомобиль марки B, а 10% заявили, что в следующий раз предпочли бы марку C. | ||
+ | #Среди владельцев автомобилей С, 30% ответили, что перешли бы на марку A, 30% сказали, что перешли бы на марку B, а 40% заявили, что остались бы верны той же марке С. | ||
+ | |||
+ | Вопрос 1 : Если некто приобрел автомобиль марки A, то какова вероятность, что его второй машиной будет автомобиль марки C? | ||
+ | |||
+ | Вопрос 2 : Если при покупке первой машины покупатель подбросил монету, выбирая между автомобилями марки B и С, то какова вероятность, что его третьей машиной станет автомобиль марки B? | ||
+ | |||
+ | === Решение === | ||
+ | |||
+ | Матрица перехода для этого события имеет вид: | ||
+ | |||
+ | <tex> | ||
+ | \begin{bmatrix} | ||
+ | 0.2 & 0.5 & 0.3 \\ | ||
+ | 0.2 & 0.7 & 0.1 \\ | ||
+ | 0.3 & 0.3 & 0.4 | ||
+ | \end{bmatrix} | ||
+ | </tex> | ||
+ | |||
+ | Для ответа на первый вопрос имеем: <tex>p^{(0)} =</tex> <tex>(1,0,0)</tex> поэтому | ||
+ | |||
+ | <tex>p^{(1)} = </tex> <tex>(1,0,0) \times</tex> | ||
+ | <tex> | ||
+ | \begin{bmatrix} | ||
+ | 0.2 & 0.5 & 0.3 \\ | ||
+ | 0.2 & 0.7 & 0.1 \\ | ||
+ | 0.3 & 0.3 & 0.4 | ||
+ | \end{bmatrix} | ||
+ | </tex> | ||
+ | <tex> = </tex> | ||
+ | <tex>(0.2,0.5,0.3)</tex> | ||
+ | |||
+ | Вероятность того, что вторая машина будет марки С, равна 0.3.Для вопроса (2) требуется найти | ||
+ | |||
+ | <tex>T^{(2)} = </tex> | ||
+ | <tex> | ||
+ | \begin{bmatrix} | ||
+ | 0.23 & 0.54 & 0.23 \\ | ||
+ | 0.21 & 0.62 & 0.17 \\ | ||
+ | 0.24 & 0.48 & 0.28 | ||
+ | \end{bmatrix} | ||
+ | </tex> | ||
+ | |||
+ | Для (2) имеем <tex>p^{(2)} = </tex> <tex>(0,0.5,0.5) \times</tex> и | ||
+ | |||
+ | <tex>p^{(2)} = </tex> <tex>(0,0.5,0.5) \times</tex> | ||
+ | <tex> | ||
+ | \begin{bmatrix} | ||
+ | 0.23 & 0.54 & 0.23 \\ | ||
+ | 0.21 & 0.62 & 0.17 \\ | ||
+ | 0.24 & 0.48 & 0.28 | ||
+ | \end{bmatrix} | ||
+ | </tex> | ||
+ | <tex> = </tex> | ||
+ | <tex>(0.225,0.55,0.225)</tex> | ||
+ | поэтому вероятность того, что второй автомобиль будет марки A равна 0.225. | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | == Литература == | ||
+ | * ''Марков А. А.'', Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156. | ||
+ | * ''Kemeny J. G., Snell J. L.'', Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: ''Кемени Дж. Дж., Снелл Дж. Л.'' Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.) | ||
+ | |||
+ | [[Категория:Дискретная математика, алгоритмы и структуры данных]] | ||
+ | [[Категория:Марковские цепи ]] |
Версия 17:33, 13 января 2013
Содержание
Обозначения
Предположим, что проводится серия экспериментов с возможными исходами
. Назовём эти исходы состояниями.- — вероятность того, что мы начинаем в состоянии
- — вероятность того, что в результате эксперимента состояние было изменено от состояния к состоянию .
Если
вероятность того, что исходом эксперимента будет состояние . Тогда
Это означает, что вероятность исхода в состоянии равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в .
Также заметим что:
- Матрица T называется матрицей перехода. В общем случае она имеет вид:
Пусть
и
тогда
Использование матриц приводит к более компактной записи условий.По своей сути, перемножение строки
с матрицей эквивалентно уравнению , рассмотренному ранее.Прогноз погоды
Условие
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
- Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет 0.5; вероятность, что она будет умеренно пасмурной, равна 0.4; а вероятность пасмурной погоды на следующий день составляет 0.1.
- Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна 0.3; вероятность, что погода останется умеренно пасмурной, равна 0.5; а вероятность пасмурной погоды на следующий день составляет 0.2.
- Если же погода пасмурная то вероятность, что на следующий день она останется пасмурной, равна 0.4; вероятность, что она станет умеренно пасмурной, равна 0.4; а вероятность того, что она будет ясной на следующий день составляет 0.2.
Вопрос 1 : Если вероятность ясной погоды в воскресенье равна 0.6, а вероятность умеренно пасмурности — 0.4, то какова вероятность, что погода в понедельник будет ясной?
Вопрос 2 : Какова вероятность, что во вторник погода будет умеренно пасмурной?
Решение
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и пасмурно, то:
следовательно,
и вероятность, что в понедельник будет ясная погода, равна .Пусть
— вероятность того, что во вторник будет ясная погода, — вероятность того, что во вторник будет умеренно пасмурно и — вероятность того, что во вторник будет пасмурно.Пусть
.Тогда
Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна
.
Пусть — вероятность, что исходом m-го проведения эксперимента будет состояние и
Теорема: |
Для любого положительного целого числа m выполняется |
Доказательство: |
Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для утверждение справедливо. Предположим,что оно справедливо для , так что Посколькуто |
Оценка будущих продаж
Цепи Маркова также применяются при оценке будущих продаж. Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу
.Условие
В процессе опроса владельцев автомобилей трех американских марок: марки A, марки B, марки С, им был задан вопрос о том, какую торговую марку они бы выбрали для следующей покупки.
- Среди владельцев автомобилей марки A 20% сказали, что они бы перешли на марку B, а 30% заявили, что предпочли бы марку С.
- Среди владельцев автомобилей марки B 20% сказали, что перейдут на марку A, в то время как 70% заявили, что приобрели бы опять автомобиль марки B, а 10% заявили, что в следующий раз предпочли бы марку C.
- Среди владельцев автомобилей С, 30% ответили, что перешли бы на марку A, 30% сказали, что перешли бы на марку B, а 40% заявили, что остались бы верны той же марке С.
Вопрос 1 : Если некто приобрел автомобиль марки A, то какова вероятность, что его второй машиной будет автомобиль марки C?
Вопрос 2 : Если при покупке первой машины покупатель подбросил монету, выбирая между автомобилями марки B и С, то какова вероятность, что его третьей машиной станет автомобиль марки B?
Решение
Матрица перехода для этого события имеет вид:
Для ответа на первый вопрос имеем:
поэтому
Вероятность того, что вторая машина будет марки С, равна 0.3.Для вопроса (2) требуется найти
Для (2) имеем
ипоэтому вероятность того, что второй автомобиль будет марки A равна 0.225.
Литература
- Марков А. А., Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156.
- Kemeny J. G., Snell J. L., Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (перевод: Кемени Дж. Дж., Снелл Дж. Л. Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.)