Изменения

Перейти к: навигация, поиск

Формула полной вероятности

986 байт добавлено, 19:35, 4 сентября 2022
м
rollbackEdits.php mass rollback
'''Формула полной вероятности''' (англ. ''law of total probability'') позволяет вычислить [[Вероятностное пространство, элементарный исход, событие | вероятность]] интересующего события <tex> A </tex> через вероятности его произойти при выполнении ''гипотез'' с заданной вероятностью.Формула полной вероятности требуется, когда необходимо узнать вероятность совершения некоторого события, если его совершение зависит от нескольких условий. Например, можно узнать вероятность принятия законопроекта, зная, с какой вероятностью его примет каждая партия. Ещё формула применяется в задачах о нахождении среднего качества продукции, выпускаемой цехом. Вот пример: {{Задача|definition = Из <tex>40</tex> деталей <tex>10</tex> изготовлены в первом цехе, <tex>25</tex> {{---}} во втором, а остальные {{---}} в третьем. Первый и третий цехи дают продукцию отличного качества с вероятностью <tex>0.9</tex>, второй цех {{---}} с вероятностью <tex>0.7</tex>. Какова вероятность того, что взятая наудачу деталь будет отличного качества?}}
==Теорема==
{{Определение
|definition =
'''Полной системой событий''' называется [[Мощность множества | Не не более чем счётное]] [[Множества | множество]] событий <tex> B_1, \ B_2, ...\ \dots, \ B_{n} </tex>, таких что:# все события попарно несовместны: <tex> \forall i,~\ j = 1, \ 2, ...\ \dots, \ n~\ B_{i} \cap B_{j} = \varnothing </tex># их объединение образует пространство элементарных исходов: <tex>P(B_{i})~>~0,~B_1~\cup ~B_2~\cup ...\ \dots ~\cup ~B_n = \Omega </tex>
}}
В этом случае события <tex>B_i</tex> ещё называются гипотезами.
формула полной вероятности
| statement =
Вероятность события <tex> A~\subset ~\Omega </tex>, которое может произойти только вместе с одним из событий <tex> B_1, B_2, ...\dots, B_{n} </tex>, образующих
полную группусистему событий, равна сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соотвественно при каждой из гипотез.
<tex> {P}(A) = \sum\limits_{i=1}^{n} {P}( A \mid B_i) {P}(B_i) </tex>
| proof =
Так как события <tex>\{B_i\}_{i=1}^{n} </tex> образуют полную группусистему событий, то по определению событие <tex> A </tex> можно представить следующим образом:
<tex>
</tex>
События <tex>\{B_i\}_{i=1}^{n} </tex> попарно несовместны, значит и , события <tex> (A\cap B_{i}) </tex> тоже несовместны. Тогда после применения теоремы о сложении вероятностей несовместных событий, а также воспользовавшись определением условной вероятности, получаем:
<tex>
}}
==ПримерИспользование формулы полной вероятности=='''Условие.''' Имеются 3 одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй {{---}} 2 белых и 5 чёрных, а в третьей {{---}} 10 чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?Рассмотрим два примера
===Пример 1===
{{Задача
|definition = Имеются <tex>3</tex> одинаковые урны с шарами. В первой из них находится <tex>3</tex> белых и <tex>4</tex> черных шара, во второй {{---}} <tex>2</tex> белых и <tex>5</tex> чёрных, а в третьей {{---}} <tex>10</tex> чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?
}}
'''Решение.''' Будем считать события <tex> B_1, B_2, B_3 </tex> выбором урны с соотвествующим номером, а событие <tex>A</tex> {{---}} выбором белого шара. По условию задачи все события выбора урны равновероятны, значит:
<tex>
{P}(A \mid B_1) = \genfrac{}{}{}{0}{23}{7} ,~ {P}(A \mid B_2) = \genfrac{}{}{}{0}{32}{7} ,~ {P}(A \mid B_3) = 0.
</tex>
В результате получаем
<tex>
{P}(A) ~=~ \genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{23}{7} +\genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{32}{7} +\genfrac{}{}{}{0}{1}{3} \cdot 0 ~\approx ~ 0{.}238</tex> ===Пример 2===Рассмотрим пример из введения. '''Решение.''' Обозначим за событие <tex> A </tex> {{---}} выбрана деталь отличного качества, тогда событие <tex> B_i </tex> {{---}} выбранная деталь изготовлена в <tex>i</tex> цехе (где <tex> i ~=~ 1,2,3 </tex>). <tex> {P}(B_1) = \genfrac{}{}{}{0}{10}{40} = \genfrac{}{}{}{0}{1}{4},~{P}(B_2) = \genfrac{}{}{}{0}{25}{40} = \genfrac{}{}{}{0}{5}{8},~ {P}(B_3) = \genfrac{}{}{}{0}{5}{40} = \genfrac{}{}{}{0}{1}{8}.
</tex>
==Метод фильтрации спама==При проверке письма вычисляется вероятность тогоПо условию задачи, что оно {{---}} спам. Для каждого слова эксперементально подсчитывается его ''вес'' {{---}} процент содержания этого слова вероятности производства продукции отличного качества в письмах, отмеченных пользователем, как спам. Тогда ''весом'' письма является среднее ''весов'' всех его слов. Таким образом, программа(анти-спам бот) считает письмо спамом, если его ''вес'' больше какой-то заданной пользователем планки (обычно 60-80%). После вынесения решения о полученном письме происходит пересчёт в базе данных весов слов, составляющих текст письма. Почтовый фильтр, основанный на такой системе, называется ''байесовским.''каждом цехе:
Недостаток метода заключается в том<tex> {P}(A \mid B_1) = {P}(A \mid B_3) = \genfrac{}{}{}{0}{9}{10}, что он основан на предположении, что одни слова чаще встречаются в спаме, а другие ~{P}(A \mid B_2) = \genfrac{}{}{}{0}{---7}{10} в обычных письмах. Таким образом, если данное предположение неверно, то метод неэффективен.</tex>
'''Замечание.''' Если 80% писем, содержащих фразу Теперь воспользуемся формулой полной вероятности для нахождения искомой вероятности: <tex>"</tex>Привет :{P}(A) ~=~ \sum\limits_{i=1}^3 {P}(A \mid B_i) Как дела?{P}(B_i)<tex>"</tex>, являлись спамом, то и следующее письмо с этим словосочетанием c большой вероятностью ~=~ \genfrac{}{}{}{0}{9}{10} \cdot \genfrac{}{}{}{0}{1}{4} +\genfrac{}{}{}{0}{7}{10} \cdot \genfrac{}{}{}{0}{5}{8} +\genfrac{}{}{}{0}{9}{10} \cdot \genfrac{}{}{}{0}{---1}{8} спам~=~ 0{.}775</tex>
==См. также==
* [[Формула Байеса]]
== Источники информации ==
* [http://nsu.ru/mmf/tvims/chernova/tv/lec/node14.html NSU | Формула полной вероятности]
* [http://vm.psati.ru/downloads/uch-pos-tv.pdf Конспект лекций | Теория вероятностей]
[[Категория: Дискретная математика и алгоритмы]]
[[Категория: Теория вероятностейвероятности]]
1632
правки

Навигация