10
правок
Изменения
Новая страница: «== Обозначения == Предположим, что проводится серия экспериментов с возможными исходами <m...»
== Обозначения ==
Предположим, что проводится серия экспериментов с возможными исходами <math>s_1,s_2,s_3,...s_n</math>.Назовём эти исходы '''состояниями'''.
*<math>p_1^{(0)} - </math> вероятность того, что мы начинаем в состоянии <math>s_i</math>
*<math>p_{ij} - </math> вероятность того, что в результате эксперимента состояние было изменено от состояния <math>s_i</math> к состоянию <math>s_j</math>.
Если <math>p_i^{(1)}</math> вероятность того, что исходом эксперимента будет состояние <math>s_i</math>.Тогда
<math>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + ... +p_n^{(0)}p_{ni}(*)</math>
а это означает, что вероятность исхода в состоянии <math>s_i</math> равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в <math>s_i</math>.
Также заметим что:
<math>p_{j1}+p_{j2}+p_{j3}+ ... +p_{jn} = 1</math>
*Матрица T называется матрицей перехода.В общем случае она имеет вид:
<tex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... & p_{1n} \\
p_{21} & p_{22} & p_{23} & ... & p_{2n} \\
p_{31} & p_{32} & p_{33} & ... & p_{3n} \\
p_{41} & p_{42} & p_{43} & ... & p_{4n} \\
. & . & . & ... & .\\
. & . & . & ... & .\\
. & . & . & ... & .\\
p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\
\end{bmatrix}
</tex>
Пусть
<math> p^{(0)}=</math><math>(p_1^{(0)},p_2^{(0)},p_3^{(0)},... ,p_n^{(0)})</math> и
<math> p^{(1)}=</math><math>(p_1^{(1)},p_2^{(1)},p_3^{(1)},...,p_n^{(1)})</math>
тогда
<math> (p_1^{(1)},p_2^{(1)},p_3^{(1)}... ,p_n^{(1)})=</math>
<math>(p_1^{(0)},p_2^{(0)},p_3^{(0)}.. ,p_n^{(0)})</math>
<math>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... & p_{1n} \\
p_{21} & p_{22} & p_{23} & ... & p_{2n} \\
p_{31} & p_{32} & p_{33} & ... & p_{3n} \\
p_{41} & p_{42} & p_{43} & ... & p_{4n} \\
. & . & . & ... & .\\
. & . & . & ... & .\\
. & . & . & ... & .\\
p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\
\end{bmatrix}
</math>
Использование матриц приводит к более компактной записи условий.По своей сути, перемножение строки <math> p_i^{(0)} </math> с матрицей <math> T </math> эквивалентно уравнению <math> (*) </math> ,рассмотренному ранее.
----
== Пример: Прогноз погоды ==
''Условие:''
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
1)Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет 0.5; вероятность, что она будет умеренно пасмурной, равна 0.4;а вероятность пасмурной погоды на следующий день составляет 0.1.
2)Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна 0.3; вероятность, что погода останется умеренно пасмурной, равна 0.5; а вероятность пасмурной погоды на следующий день составляет 0.2.
3)Если же погода пасмурная то вероятность, что на следующий день она останется пасмурной, равна 0.4; вероятность, что она станет умеренно пасмурной, равна 0.4; а вероятность того, что она будет ясной на следующий день составляет 0.2.
Вопрос 1:Если вероятность ясной погоды в воскресенье равна 0.6, а вероятность умеренно пасмурности - 0.4, то какова вероятность, что погода в понедельник будет ясной?
Вопрос 2:Какова вероятность, что во вторник погода будет умеренно пасмурной?
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и
пасмурно, то:
<tex>p^{(0)} =</tex> <tex>(0.6,0.4,0)</tex>
<tex>
T = \begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
следовательно,
<tex>p^{(1)} = </tex> <tex>(0.6,0.4,0) \times</tex>
<tex>
\begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
<tex> = </tex>
<tex>(0.42,0.44,0.14)</tex>
и вероятность, что в понедельник будет ясная погода,равна <tex>0.42</tex>.
Пусть <tex>p_1^{(2)} -</tex> вероятность того, что во вторник будет ясная погода, <tex>p_2^{(2)} -</tex> вероятность того, что во вторник будет умеренно пасмурно и <tex>p_3^{(2)} -</tex> вероятность того, что во вторник будет пасмурно.Пусть <tex>p^{(2)} = </tex> <tex> (p_1^{(2)},p_2^{(2)},p_3^{(2)})</tex>.Тогда
<tex>p^{(2)} = </tex> <tex> (0.42,0.44,0.14) \times</tex>
<tex>
\begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
<tex> = </tex>
<tex>(0.37,0.444,0.186)</tex>
Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна <tex>0.444.</tex>
Пусть <tex>p_i^{(m)} -</tex> вероятность ,что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и
<tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...,p_n^{(m)}).</tex>
{{Теорема
|id=идентификатор (необязательно), пример: th1.
|statement=Для любого положительного целого числа m выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>
|proof=Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо.Предположим,что оно справедливо для <tex>n=k</tex> ,так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку
<tex>p_j^{(k+1)} = </tex> <tex>p_1^{(k)}p_{1j} +</tex> <tex>p_2^{(k)}p_{2j} +</tex> <tex>p_3^{(k)}p_{3j} +</tex> <tex>p_n^{(k)}p_{nj} </tex>
то
<tex>p^{(k+1)} = </tex> <tex>p^{(k)} T =</tex> <tex>p^{(0)} T^k T =</tex> <tex>p^{(0)} T^{k+1}.</tex>
}}
== Заключение ==
Цепи Маркова также применяются при оценке будущих продаж.Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>.
Например, 60% владельцев автомобиля марки A, сказали, что опять выбрали бы эту марку;30% сказали, что предпочтут марке A, марку B; и 10% сказали ,что выберут C и.т.д.
Предположим, что проводится серия экспериментов с возможными исходами <math>s_1,s_2,s_3,...s_n</math>.Назовём эти исходы '''состояниями'''.
*<math>p_1^{(0)} - </math> вероятность того, что мы начинаем в состоянии <math>s_i</math>
*<math>p_{ij} - </math> вероятность того, что в результате эксперимента состояние было изменено от состояния <math>s_i</math> к состоянию <math>s_j</math>.
Если <math>p_i^{(1)}</math> вероятность того, что исходом эксперимента будет состояние <math>s_i</math>.Тогда
<math>p_i^{(1)} = p_1^{(0)}p_{1i} + p_2^{(0)}p_{2i} + p_3^{(0)}p_{3i} + ... +p_n^{(0)}p_{ni}(*)</math>
а это означает, что вероятность исхода в состоянии <math>s_i</math> равна сумме вероятностей начать эксперимент в некотором другом состоянии и окончить в <math>s_i</math>.
Также заметим что:
<math>p_{j1}+p_{j2}+p_{j3}+ ... +p_{jn} = 1</math>
*Матрица T называется матрицей перехода.В общем случае она имеет вид:
<tex>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... & p_{1n} \\
p_{21} & p_{22} & p_{23} & ... & p_{2n} \\
p_{31} & p_{32} & p_{33} & ... & p_{3n} \\
p_{41} & p_{42} & p_{43} & ... & p_{4n} \\
. & . & . & ... & .\\
. & . & . & ... & .\\
. & . & . & ... & .\\
p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\
\end{bmatrix}
</tex>
Пусть
<math> p^{(0)}=</math><math>(p_1^{(0)},p_2^{(0)},p_3^{(0)},... ,p_n^{(0)})</math> и
<math> p^{(1)}=</math><math>(p_1^{(1)},p_2^{(1)},p_3^{(1)},...,p_n^{(1)})</math>
тогда
<math> (p_1^{(1)},p_2^{(1)},p_3^{(1)}... ,p_n^{(1)})=</math>
<math>(p_1^{(0)},p_2^{(0)},p_3^{(0)}.. ,p_n^{(0)})</math>
<math>
\begin{bmatrix}
p_{11} & p_{12} & p_{13} & ... & p_{1n} \\
p_{21} & p_{22} & p_{23} & ... & p_{2n} \\
p_{31} & p_{32} & p_{33} & ... & p_{3n} \\
p_{41} & p_{42} & p_{43} & ... & p_{4n} \\
. & . & . & ... & .\\
. & . & . & ... & .\\
. & . & . & ... & .\\
p_{n1} & p_{n2} & p_{n3} & ... & p_{nn} \\
\end{bmatrix}
</math>
Использование матриц приводит к более компактной записи условий.По своей сути, перемножение строки <math> p_i^{(0)} </math> с матрицей <math> T </math> эквивалентно уравнению <math> (*) </math> ,рассмотренному ранее.
----
== Пример: Прогноз погоды ==
''Условие:''
Погода классифицируется в прогнозах как ясная, умеренно пасмурная и пасмурная.
1)Если погода ясная, то вероятность, что она будет ясной на следующий день, составляет 0.5; вероятность, что она будет умеренно пасмурной, равна 0.4;а вероятность пасмурной погоды на следующий день составляет 0.1.
2)Если погода умеренно пасмурная, то вероятность, что на следующий день она будет ясной, равна 0.3; вероятность, что погода останется умеренно пасмурной, равна 0.5; а вероятность пасмурной погоды на следующий день составляет 0.2.
3)Если же погода пасмурная то вероятность, что на следующий день она останется пасмурной, равна 0.4; вероятность, что она станет умеренно пасмурной, равна 0.4; а вероятность того, что она будет ясной на следующий день составляет 0.2.
Вопрос 1:Если вероятность ясной погоды в воскресенье равна 0.6, а вероятность умеренно пасмурности - 0.4, то какова вероятность, что погода в понедельник будет ясной?
Вопрос 2:Какова вероятность, что во вторник погода будет умеренно пасмурной?
Если порядок, в котором перечисляются погодные условия, таков: ясно, умеренно пасмурно и
пасмурно, то:
<tex>p^{(0)} =</tex> <tex>(0.6,0.4,0)</tex>
<tex>
T = \begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
следовательно,
<tex>p^{(1)} = </tex> <tex>(0.6,0.4,0) \times</tex>
<tex>
\begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
<tex> = </tex>
<tex>(0.42,0.44,0.14)</tex>
и вероятность, что в понедельник будет ясная погода,равна <tex>0.42</tex>.
Пусть <tex>p_1^{(2)} -</tex> вероятность того, что во вторник будет ясная погода, <tex>p_2^{(2)} -</tex> вероятность того, что во вторник будет умеренно пасмурно и <tex>p_3^{(2)} -</tex> вероятность того, что во вторник будет пасмурно.Пусть <tex>p^{(2)} = </tex> <tex> (p_1^{(2)},p_2^{(2)},p_3^{(2)})</tex>.Тогда
<tex>p^{(2)} = </tex> <tex> (0.42,0.44,0.14) \times</tex>
<tex>
\begin{bmatrix}
0.5 & 0.4 & 0.1 \\
0.3 & 0.5 & 0.2 \\
0.2 & 0.4 & 0.4
\end{bmatrix}
</tex>
<tex> = </tex>
<tex>(0.37,0.444,0.186)</tex>
Следовательно, вероятность того, что во вторник будет умеренно пасмурная погода равна <tex>0.444.</tex>
Пусть <tex>p_i^{(m)} -</tex> вероятность ,что исходом m-го проведения эксперимента будет состояние <tex>s_i</tex> и
<tex>p^{(m)} =</tex> <tex>(p_1^{(m)},p_2^{(m)},p_3^{(m)},...,p_n^{(m)}).</tex>
{{Теорема
|id=идентификатор (необязательно), пример: th1.
|statement=Для любого положительного целого числа m выполняется <tex>p^{(m)} =</tex> <tex>p^{(0)} \times T^{(m)}</tex>
|proof=Докажем теорему, используя индукцию.Было показано(в примере про погоду), что для <tex> m = 1 </tex> утверждение справедливо.Предположим,что оно справедливо для <tex>n=k</tex> ,так что <tex>p^{(k)} =</tex> <tex>p^{(0)} \times T^{(k)}.</tex>Поскольку
<tex>p_j^{(k+1)} = </tex> <tex>p_1^{(k)}p_{1j} +</tex> <tex>p_2^{(k)}p_{2j} +</tex> <tex>p_3^{(k)}p_{3j} +</tex> <tex>p_n^{(k)}p_{nj} </tex>
то
<tex>p^{(k+1)} = </tex> <tex>p^{(k)} T =</tex> <tex>p^{(0)} T^k T =</tex> <tex>p^{(0)} T^{k+1}.</tex>
}}
== Заключение ==
Цепи Маркова также применяются при оценке будущих продаж.Например, сделав опрос среди покупателей той или иной марки автомобиля о их следующем выборе, можно составить матрицу <tex> T </tex>.
Например, 60% владельцев автомобиля марки A, сказали, что опять выбрали бы эту марку;30% сказали, что предпочтут марке A, марку B; и 10% сказали ,что выберут C и.т.д.