Изменения

Перейти к: навигация, поиск

Формула полной вероятности

2701 байт добавлено, 05:22, 6 декабря 2011
Добавлены примеры, и дополнена теоретическая часть
{{Определение
|definition =
[[Мощность множества | Не более чем счётное]] [[Множества | множество]] событий <tex> B_1, B_2, ..., B_n B_{n} </tex>, таких что:# все события попарно несовместны: <tex> \forall i,~j = 1, 2, ..., n~B_i B_{i} \cap B_j B_{j} = \varnothing </tex># их объединение образует пространство элементарных исходов: <tex>P(B_iB_{i})~>~0,~B_1~\cup ~B_2~\cup ...~\cup ~B_n = \Omega </tex>
}}
В этом случае события <tex>B_i</tex> ещё называются гипотезами.
формула полной вероятности
| statement =
Вероятность события <tex> A~\subset ~\Omega </tex>, которое может произойти только вместе с одним из событий <tex>\{B_i\}_{i=1}^B_1, B_2, ..., B_{n} </tex>, образующих  полную группу, равна сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соотвественно при каждой из гипотез. <tex> p{P}(A) = \sum\limits_{i=1}^{n} p{P}( A \mid B_i) p{P}(B_i) </tex>
| proof =
События Так как события <tex>\{B_i\}_{i=1}^{n} </tex> образуют полную группу событий, значит то по определению событие <tex> A </tex> можно представить в виде следующей суммыследующим образом:
<tex> A ~= ~A\cap B_\Omega ~=~ A \cap \big( \bigcup\limits_{i=1} + A\cap B_^{2n} + ... + A\cap B_{ni} \big) ~= ~ \sumbigcup\limits_{i=1}^{n} ( A\cap B_{i} ) </tex> (Для удобства чтения формулы обозначим операцию объединения <tex> \cup </tex> за <tex> + </tex>)
События <tex>\{B_i\}_{i=1}^{n} </tex> попарно несовместны, значит и события <tex> (A\cap B_{i}) </tex> тоже несовместны. Тогда после применения теоремы о сложении вероятностей несовместных событий, а также воспользовавшись определением условной вероятности, получаем:
События <tex>{P}(A)~=~{P}\Big( \bigcup\limits_{B_ii=1}^{n} ( A \cap B_{i}_) \Big) ~=~ \sum\limits_{i=1}^{n} </tex> несовместны, значит и события <tex> {P}(A\cap B_B_i) ~=~ \sum\limits_{i=1} ^{n} {P}(A \mid B_i){P}(B_i)</tex> тоже несовместны. Тогда можно применить теорему о сложении вероятностей несовместных событий:
<tex>{p}(A) = \sum\limits_{i=1}^{n} {p}( A\cap B_i)</tex> При этом
<tex> ==Пример=='''Условие.''' Имеются 3 одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй {p{---}( A\cap B_i) = } 2 белых и 5 чёрных, а в третьей {{p---} (B_i) {p} (A \mid B_i) </tex>10 чёрных шаров. Из случайно выбранной урны наудачу вынут шар. С какой вероятностью он окажется белым?
Окончательно получаем'''Решение.''' Будем считать события <tex> B_1, B_2, B_3 </tex> выбором урны с соотвествующим номером, а событие <tex>A</tex> {{---}} выбором белого шара. По условию задачи все события выбора урны равновероятны, значит: <tex> {P}(B_1)~=~{P}(B_2)~=~{P}(B_3)~=~ \genfrac{}{}{}{0}{1}{3} </tex>
Теперь найдём вероятность события <tex>A</tex> при выборе каждой урны: <tex>{pP}(A\mid B_1) = \sum\limits_genfrac{}{}{}{0}{i=12}^{n7} ,~ {pP}( A \mid B_iB_2) = \genfrac{}{}{}{0}{3}{7} ,~ {pP}(B_iA \mid B_3)= 0.</tex> В результате получаем<tex>{P}(A) ~=~ \genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{2}{7} +\genfrac{}{}{}{0}{1}{3} \cdot \genfrac{}{}{}{0}{3}{7} +\genfrac{}{}{}{0}{1}{3} \cdot 0 ~\approx ~ 0{.}238</tex> ==ЗамечаниеМетод фильтрации спама==При проверке письма вычисляется вероятность того, что оно {{---}} спам. Для каждого слова эксперементально подсчитывается его ''вес'' {{---}} % содержания этого слова в письмах, отмеченных пользователем, как спам. Тогда ''весом'' письма является среднее ''весов'' всех его слов. Таким образом программа(анти-спам бот) считает письмо спамом, если его ''вес'' больше какой-то заданной пользователем планки (обычно 60-80%). После вынесения решения о полученном письме происходит пересчёт в базе данных весов слов, составляющих текст письма. Недостаток метода заключается в том, что одни слова чаще встречаются в спаме, а другие {{---}} в обычных письмах. Тогда метод неэффективен, если данное предположение неверно.
Формула полной вероятности также имеет следующую интерпретацию'''Замечание. Пусть ''' Если 80% писем, содержащих фразу <tex>N"</tex> — случайная величина, имеющая распределениеПривет :<tex>{p}(N=n) = {p}(B_nКак дела?)</tex>.Тогда :"</tex>, являлись спамом, то и следующее письмо с этим словосочетанием c большой вероятностью {p}(A) = {E---}\left[{p}(A\mid N)\right]</tex>,т.е. априорная вероятность события равна среднему его апостериорной вероятностиспам.
==См. также==
== Источники ==
*[http://nsu.ru.wikipedia.org/wikimmf/tvims/chernova/tv/lec/Формула_полной_вероятности node14.html NSU | Формула полной вероятности]* [http://ruvm.wikipediapsati.orgru/wikidownloads/Формула_полной_вероятностиuch-pos-tv.pdf Конспект лекций | Теория вероятностей] [[Категория: Дискретная математика и алгоритмы]][[Категория: Формула полной вероятности]]

Навигация