Формула полной вероятности — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м (rollbackEdits.php mass rollback)
 
(не показано 17 промежуточных версий 8 участников)
Строка 1: Строка 1:
'''Формула полной вероятности''' позволяет вычислить [[Вероятностное пространство, элементарный исход, событие | вероятность]] интересующего события <tex> A </tex> через вероятности его произойти при выполнении ''гипотез'' с заданной вероятностью.
+
'''Формула полной вероятности''' (англ. ''law of total probability'') позволяет вычислить [[Вероятностное пространство, элементарный исход, событие | вероятность]] интересующего события <tex> A </tex> через вероятности его произойти при выполнении ''гипотез'' с заданной вероятностью. Формула полной вероятности требуется, когда необходимо узнать вероятность совершения некоторого события, если его совершение зависит от нескольких условий. Например, можно узнать вероятность принятия законопроекта, зная, с какой вероятностью его примет каждая партия. Ещё формула применяется в задачах о нахождении среднего качества продукции, выпускаемой цехом. Вот пример:
 +
{{Задача
 +
|definition =
 +
Из <tex>40</tex> деталей <tex>10</tex> изготовлены в первом цехе, <tex>25</tex> {{---}} во втором, а остальные {{---}} в третьем. Первый и третий цехи дают продукцию отличного качества с вероятностью <tex>0.9</tex>, второй цех {{---}} с вероятностью <tex>0.7</tex>. Какова вероятность того, что взятая наудачу деталь будет отличного качества?
 +
}}
  
 
==Теорема==
 
==Теорема==
 
{{Определение
 
{{Определение
 
|definition =  
 
|definition =  
[[Мощность множества | Не более чем счётное]] [[Множества | множество]] событий <tex> B_1, B_2, ..., B_{n} </tex>, таких что:
+
'''Полной системой событий''' называется [[Мощность множества | не более чем счётное]] [[Множества | множество]] событий <tex> B_1,B_2,\ \dots,\ B_{n} </tex>, таких что:
# все события попарно несовместны: <tex> \forall i,~j = 1, 2, ..., n~B_{i} \cap B_{j} = \varnothing </tex>
+
# все события попарно несовместны: <tex> \forall i,\ j = 1,\ 2,\ \dots,\ n\ B_{i} \cap B_{j} = \varnothing </tex>
# их объединение образует пространство элементарных исходов: <tex>P(B_{i})~>~0,~B_1~\cup ~B_2~\cup ...~\cup ~B_n = \Omega </tex>
+
# их объединение образует пространство элементарных исходов: <tex>P(B_{i})~>~0,~B_1~\cup ~B_2~\cup\ \dots ~\cup ~B_n = \Omega </tex>
 
}}
 
}}
 
В этом случае события <tex>B_i</tex> ещё называются гипотезами.
 
В этом случае события <tex>B_i</tex> ещё называются гипотезами.
Строка 14: Строка 18:
 
формула полной вероятности
 
формула полной вероятности
 
| statement =  
 
| statement =  
Вероятность события <tex> A~\subset ~\Omega </tex>, которое может произойти только вместе с одним из событий <tex> B_1, B_2, ..., B_{n} </tex>, образующих
+
Вероятность события <tex> A~\subset ~\Omega </tex>, которое может произойти только вместе с одним из событий <tex> B_1, B_2, \dots, B_{n} </tex>, образующих
  
полную группу, равна сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соотвественно при каждой из гипотез.
+
полную систему событий, равна сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соотвественно при каждой из гипотез.
  
 
<tex> {P}(A) = \sum\limits_{i=1}^{n} {P}( A \mid B_i) {P}(B_i) </tex>  
 
<tex> {P}(A) = \sum\limits_{i=1}^{n} {P}( A \mid B_i) {P}(B_i) </tex>  
 
| proof =  
 
| proof =  
  
Так как события <tex>\{B_i\}_{i=1}^{n} </tex> образуют полную группу, то по определению событие <tex> A </tex> можно представить следующим образом:
+
Так как события <tex>\{B_i\}_{i=1}^{n} </tex> образуют полную систему событий, то по определению событие <tex> A </tex> можно представить следующим образом:
  
 
<tex>  
 
<tex>  
Строка 27: Строка 31:
 
</tex>
 
</tex>
  
События <tex>\{B_i\}_{i=1}^{n} </tex> попарно несовместны, значит и события <tex> (A\cap B_{i}) </tex> тоже несовместны. Тогда после применения теоремы о сложении вероятностей несовместных событий, а также воспользовавшись определением условной вероятности, получаем:
+
События <tex>\{B_i\}_{i=1}^{n} </tex> попарно несовместны, значит, события <tex> (A\cap B_{i}) </tex> тоже несовместны. Тогда, воспользовавшись определением условной вероятности, получаем:
  
 
<tex>  
 
<tex>  
Строка 35: Строка 39:
 
}}
 
}}
  
==Пример==
+
==Использование формулы полной вероятности==
'''Условие.''' Имеются 3 одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй {{---}} 2 белых и 5 чёрных, а в третьей {{---}} 10 чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?
+
 
 +
Рассмотрим два примера
  
 +
===Пример 1===
 +
{{Задача
 +
|definition = Имеются <tex>3</tex> одинаковые урны с шарами. В первой из них находится <tex>3</tex> белых и <tex>4</tex> черных шара, во второй {{---}} <tex>2</tex> белых и <tex>5</tex> чёрных, а в третьей {{---}} <tex>10</tex> чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?
 +
}}
 
'''Решение.''' Будем считать события <tex> B_1, B_2, B_3 </tex> выбором урны с соотвествующим номером, а событие <tex>A</tex> {{---}} выбором белого шара. По условию задачи все события выбора урны равновероятны, значит:
 
'''Решение.''' Будем считать события <tex> B_1, B_2, B_3 </tex> выбором урны с соотвествующим номером, а событие <tex>A</tex> {{---}} выбором белого шара. По условию задачи все события выбора урны равновероятны, значит:
 
   
 
   
Строка 45: Строка 54:
  
 
<tex>
 
<tex>
{P}(A \mid B_1) = \genfrac{}{}{}{0}{2}{7} ,~ {P}(A \mid B_2) = \genfrac{}{}{}{0}{3}{7} ,~ {P}(A \mid B_3) = 0.
+
{P}(A \mid B_1) = \genfrac{}{}{}{0}{3}{7} ,~ {P}(A \mid B_2) = \genfrac{}{}{}{0}{2}{7} ,~ {P}(A \mid B_3) = 0.
 
</tex>
 
</tex>
  
 
В результате получаем
 
В результате получаем
 
<tex>
 
<tex>
{P}(A) ~=~ \genfrac{}{}{}{0}{1}{3}  \cdot \genfrac{}{}{}{0}{2}{7} +\genfrac{}{}{}{0}{1}{3}  \cdot \genfrac{}{}{}{0}{3}{7} +\genfrac{}{}{}{0}{1}{3} \cdot 0 ~\approx ~ 0{.}238
+
{P}(A) ~=~ \genfrac{}{}{}{0}{1}{3}  \cdot \genfrac{}{}{}{0}{3}{7} +\genfrac{}{}{}{0}{1}{3}  \cdot \genfrac{}{}{}{0}{2}{7} +\genfrac{}{}{}{0}{1}{3} \cdot 0 ~\approx ~ 0{.}238
 +
</tex>
 +
 
 +
===Пример 2===
 +
Рассмотрим пример из введения.
 +
 
 +
'''Решение.''' Обозначим за событие <tex> A </tex> {{---}} выбрана деталь отличного качества, тогда событие <tex> B_i </tex> {{---}} выбранная деталь изготовлена в <tex>i</tex> цехе (где <tex> i ~=~ 1,2,3 </tex>).
 +
 
 +
<tex>
 +
{P}(B_1) = \genfrac{}{}{}{0}{10}{40} = \genfrac{}{}{}{0}{1}{4},~
 +
{P}(B_2) = \genfrac{}{}{}{0}{25}{40} = \genfrac{}{}{}{0}{5}{8},~
 +
{P}(B_3) = \genfrac{}{}{}{0}{5}{40} = \genfrac{}{}{}{0}{1}{8}.
 
</tex>
 
</tex>
  
==Метод фильтрации спама==
+
По условию задачи, вероятности производства продукции отличного качества в каждом цехе:
При проверке письма вычисляется вероятность того, что оно {{---}} спам. Для каждого слова эксперементально подсчитывается его ''вес'' {{---}} процент содержания этого слова в письмах, отмеченных пользователем, как спам. Тогда ''весом'' письма является среднее ''весов'' всех его слов. Таким образом, программа(анти-спам бот) считает письмо спамом, если его ''вес'' больше какой-то заданной пользователем планки (обычно 60-80%). После вынесения решения о полученном письме происходит пересчёт в базе данных весов слов, составляющих текст письма. Почтовый фильтр, основанный на такой системе, называется ''байесовским.''
 
  
Недостаток метода заключается в том, что он основан на предположении, что одни слова чаще встречаются в спаме, а другие {{---}} в обычных письмах. Таким образом, если данное предположение неверно, то метод неэффективен.
+
<tex>
 +
{P}(A \mid B_1) = {P}(A \mid B_3) = \genfrac{}{}{}{0}{9}{10},~
 +
{P}(A \mid B_2) = \genfrac{}{}{}{0}{7}{10}.  
 +
</tex>
  
'''Замечание.''' Если 80% писем, содержащих фразу <tex>"</tex>Привет :) Как дела?)<tex>"</tex>, являлись спамом, то и следующее письмо с этим словосочетанием c большой вероятностью {{---}} спам.
+
Теперь воспользуемся формулой полной вероятности для нахождения искомой вероятности:
 +
 
 +
<tex>  
 +
{P}(A) ~=~ \sum\limits_{i=1}^3 {P}(A \mid B_i) {P}(B_i) ~=~ \genfrac{}{}{}{0}{9}{10}  \cdot \genfrac{}{}{}{0}{1}{4} +\genfrac{}{}{}{0}{7}{10}  \cdot \genfrac{}{}{}{0}{5}{8} +\genfrac{}{}{}{0}{9}{10} \cdot \genfrac{}{}{}{0}{1}{8} ~=~ 0{.}775
 +
</tex>
  
 
==См. также==
 
==См. также==
Строка 65: Строка 91:
 
* [[Формула Байеса]]
 
* [[Формула Байеса]]
  
== Источники ==
+
== Источники информации ==
 
* [http://nsu.ru/mmf/tvims/chernova/tv/lec/node14.html NSU | Формула полной вероятности]
 
* [http://nsu.ru/mmf/tvims/chernova/tv/lec/node14.html NSU | Формула полной вероятности]
 
* [http://vm.psati.ru/downloads/uch-pos-tv.pdf Конспект лекций | Теория вероятностей]
 
* [http://vm.psati.ru/downloads/uch-pos-tv.pdf Конспект лекций | Теория вероятностей]
  
 
[[Категория: Дискретная математика и алгоритмы]]
 
[[Категория: Дискретная математика и алгоритмы]]
[[Категория: Теория вероятностей]]
+
[[Категория: Теория вероятности]]

Текущая версия на 19:35, 4 сентября 2022

Формула полной вероятности (англ. law of total probability) позволяет вычислить вероятность интересующего события [math] A [/math] через вероятности его произойти при выполнении гипотез с заданной вероятностью. Формула полной вероятности требуется, когда необходимо узнать вероятность совершения некоторого события, если его совершение зависит от нескольких условий. Например, можно узнать вероятность принятия законопроекта, зная, с какой вероятностью его примет каждая партия. Ещё формула применяется в задачах о нахождении среднего качества продукции, выпускаемой цехом. Вот пример:

Задача:
Из [math]40[/math] деталей [math]10[/math] изготовлены в первом цехе, [math]25[/math] — во втором, а остальные — в третьем. Первый и третий цехи дают продукцию отличного качества с вероятностью [math]0.9[/math], второй цех — с вероятностью [math]0.7[/math]. Какова вероятность того, что взятая наудачу деталь будет отличного качества?


Теорема

Определение:
Полной системой событий называется не более чем счётное множество событий [math] B_1,\ B_2,\ \dots,\ B_{n} [/math], таких что:
  1. все события попарно несовместны: [math] \forall i,\ j = 1,\ 2,\ \dots,\ n\ B_{i} \cap B_{j} = \varnothing [/math]
  2. их объединение образует пространство элементарных исходов: [math]P(B_{i})~\gt ~0,~B_1~\cup ~B_2~\cup\ \dots ~\cup ~B_n = \Omega [/math]

В этом случае события [math]B_i[/math] ещё называются гипотезами.

Теорема (формула полной вероятности):
Вероятность события [math] A~\subset ~\Omega [/math], которое может произойти только вместе с одним из событий [math] B_1, B_2, \dots, B_{n} [/math], образующих

полную систему событий, равна сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соотвественно при каждой из гипотез.

[math] {P}(A) = \sum\limits_{i=1}^{n} {P}( A \mid B_i) {P}(B_i) [/math]
Доказательство:
[math]\triangleright[/math]

Так как события [math]\{B_i\}_{i=1}^{n} [/math] образуют полную систему событий, то по определению событие [math] A [/math] можно представить следующим образом:

[math] A~=~A \cap \Omega ~=~ A \cap \big( \bigcup\limits_{i=1}^{n} B_{i} \big) ~=~ \bigcup\limits_{i=1}^{n} ( A \cap B_{i} ) [/math]

События [math]\{B_i\}_{i=1}^{n} [/math] попарно несовместны, значит, события [math] (A\cap B_{i}) [/math] тоже несовместны. Тогда, воспользовавшись определением условной вероятности, получаем:

[math] {P}(A)~=~{P}\Big( \bigcup\limits_{i=1}^{n} ( A \cap B_{i} ) \Big) ~=~ \sum\limits_{i=1}^{n} {P}(A\cap B_i) ~=~ \sum\limits_{i=1}^{n} {P}(A \mid B_i){P}(B_i) [/math]
[math]\triangleleft[/math]

Использование формулы полной вероятности

Рассмотрим два примера

Пример 1

Задача:
Имеются [math]3[/math] одинаковые урны с шарами. В первой из них находится [math]3[/math] белых и [math]4[/math] черных шара, во второй — [math]2[/math] белых и [math]5[/math] чёрных, а в третьей — [math]10[/math] чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?

Решение. Будем считать события [math] B_1, B_2, B_3 [/math] выбором урны с соотвествующим номером, а событие [math]A[/math] — выбором белого шара. По условию задачи все события выбора урны равновероятны, значит:

[math] {P}(B_1)~=~{P}(B_2)~=~{P}(B_3)~=~ \genfrac{}{}{}{0}{1}{3} [/math]

Теперь найдём вероятность события [math]A[/math] при выборе каждой урны:

[math] {P}(A \mid B_1) = \genfrac{}{}{}{0}{3}{7} ,~ {P}(A \mid B_2) = \genfrac{}{}{}{0}{2}{7} ,~ {P}(A \mid B_3) = 0. [/math]

В результате получаем [math] {P}(A) ~=~ \genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{3}{7} +\genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{2}{7} +\genfrac{}{}{}{0}{1}{3} \cdot 0 ~\approx ~ 0{.}238 [/math]

Пример 2

Рассмотрим пример из введения.

Решение. Обозначим за событие [math] A [/math] — выбрана деталь отличного качества, тогда событие [math] B_i [/math] — выбранная деталь изготовлена в [math]i[/math] цехе (где [math] i ~=~ 1,2,3 [/math]).

[math] {P}(B_1) = \genfrac{}{}{}{0}{10}{40} = \genfrac{}{}{}{0}{1}{4},~ {P}(B_2) = \genfrac{}{}{}{0}{25}{40} = \genfrac{}{}{}{0}{5}{8},~ {P}(B_3) = \genfrac{}{}{}{0}{5}{40} = \genfrac{}{}{}{0}{1}{8}. [/math]

По условию задачи, вероятности производства продукции отличного качества в каждом цехе:

[math] {P}(A \mid B_1) = {P}(A \mid B_3) = \genfrac{}{}{}{0}{9}{10},~ {P}(A \mid B_2) = \genfrac{}{}{}{0}{7}{10}. [/math]

Теперь воспользуемся формулой полной вероятности для нахождения искомой вероятности:

[math] {P}(A) ~=~ \sum\limits_{i=1}^3 {P}(A \mid B_i) {P}(B_i) ~=~ \genfrac{}{}{}{0}{9}{10} \cdot \genfrac{}{}{}{0}{1}{4} +\genfrac{}{}{}{0}{7}{10} \cdot \genfrac{}{}{}{0}{5}{8} +\genfrac{}{}{}{0}{9}{10} \cdot \genfrac{}{}{}{0}{1}{8} ~=~ 0{.}775 [/math]

См. также

Источники информации