Изменения

Перейти к: навигация, поиск

Формула Байеса

286 байт добавлено, 00:02, 5 марта 2018
Нет описания правки
== Формула Байеса ==По '''формуле Байеса ''' можно более точно пересчитать вероятность, беря в расчет как ранее известную информацию, так и данные новых наблюдений.
Формула Байеса позволяет '''«переставить причину и следствие»''': по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.
События, отражающие действие «причин», в данном случае называют гипотезами, так как они {{---}} предполагаемые события, повлекшие данное.==Теорема==
{{Определение
|definition='''Формула Байеса''' (или теорема Байеса) (англ. ''Bayes' theorem'') {{---}} формуласоотношение различных предполагаемых вероятностей различных событий, позволяющая определить которое дает вероятность какого-либо события при условии, что произошло другое статистически взаимозависимое с ним какое-то событие<tex>A</tex> является результатом <tex>X</tex> ряда независимых друг от друга событий <tex>B_1,B_2 \ldots B_n</tex>, который, возможно, привел к <tex>A</tex>.
}}
{{Теорема| about == Формулировка =формула Байеса| statement =:<tex>P(B_i|A)=\genfrac{}{}{}{0}dfrac{P(A|B_i)P(B_i)}{\sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>,
где
: <tex>P(A)</tex> {{---}} вероятность события <tex>A</tex>,: <tex>P(A|B)</tex> {{---}} вероятность события <tex>A</tex> при наступлении события <tex>B</tex>,: <tex>P(B|A)</tex> {{---}} вероятность наступления события <tex>B</tex> при истинности события <tex>A</tex>,: <tex>P(B)</tex> {{---}} вероятность наступления события <tex>B</tex>.| proof =
== Доказательство ==Формула Байеса вытекает из Из замечания определения [[Условная вероятность|условной вероятности]].следует, что вероятность произведения двух событий равна:
: <tex>P(B \cap A)=P(A \cap B)=P(A|B)P(B)</tex>
По [[Формула полной вероятности|формуле полной вероятности]]:: <tex>P(A)=\sum\limits_{j=1}^N P(A|B_j)P(B_j)</tex> (по [[Формула полной вероятности|формуле полной вероятности]])
Если вероятности под знаком суммы известны или допускают экспериментальную оценку, то
: <tex>P(B_i|A)=\genfrac{}{}{}{0}dfrac{P(A|B_i)P(B_i)}{\sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>  }}
== Примеры ==
===Определение вероятности заболевания===
Пусть событие <tex>A</tex> наступило в результате осуществления одной из гипотез <tex>B_1,B_2...\ldots B_n</tex> . Как определить вероятность того, что имела место та или иная гипотеза?
Вероятность заразиться гриппом <tex>0.01</tex>. После проведения анализа вероятность, что это грипп <tex>0.9</tex>, другая болезнь <tex>0.001</tex>.
Событие <tex>A</tex> истинно, если анализ на грипп положительный, событие <tex>B_1</tex> отвечает за грипп, <tex>B_2</tex> отвечает за другую болезнь.
Рассмотрим вероятность гриппа при положительном анализе:
<tex>P(B_1|A)=\genfrac{}{}{}{0}dfrac{P(B_1 \cap A)}{P(A)}=\genfrac{}{}{}{0}dfrac{P(A|B_1)P(B_1)}{P(A|B_1)P(B_1)+P(A|B_2)P(B_2)}=\genfrac{}{}{}{0}dfrac{100}{111}</tex>
===Парадокс теоремы Байеса===
При рентгеновском обследовании вероятность обнаружить заболевание ''<tex>N'' </tex> у больного равна <tex>0.95</tex>, вероятность принять здорового человека за больного равна <tex>0.05</tex>. Доля больных по отношению ко всему населению равна <tex>0.01</tex>. Найти вероятность того, что человек здоров, если он был признан больным при обследовании.
Предположим, что:
: <tex>P(B_1|B)=0.95</tex>,
Вероятность «здоров» при диагнозе «болен»:
<tex>Р P(A|B_1) = \genfrac{}{}{}{0}dfrac{0.99 \cdot 0.05}{0.99 \cdot 0.05 + 0.01 \cdot 0.95}= 0.839</tex>
Таким образом, <tex>83.9\% </tex> людей, у которых обследование показало результат «болен», на самом деле здоровые люди. Удивительный результат возникает по причине значительной разницы в долях больных и здоровых. Болезнь ''<tex>N'' — </tex> {{---}} редкое явление, поэтому и возникает такой парадокс Байеса. При возникновении такого результата лучше всего сделать повторное обследование.
===Метод фильтрации спама===
Существует метод для фильтрации спама, основанный на применении '''наивного байесовского классификатора'''<ref>[http://www.machinelearning.ru/wiki/images/9/98/Voron-ML-Bayes-slides.pdf К.В.Воронцов {{---}} Наивный байесовский классификатор] </ref>, в основе которого лежит применение теоремы Байеса.Допустим, у нас есть Имеется набор писем: спам и не спам. Считаем Подсчитаем для каждого слова вероятность встречи в спаме, количество в спаме ко всему количеству в тексте.Аналогично для слов из не спама. Считаем Подсчитаем произведения вероятностей для каждого из класса, и где максимум, туда и определяем письмо. 
== См. также ==
*[http://schegl2g.bget.ru/bayes/YudkowskyBayes.html Scheg12g {{---}} Наглядное объяснение теоремы Байеса]
*[http://habrahabr.ru/company/surfingbird/blog/150207/ Habrahabr {{---}} Теорема Байеса и наивный байесовский классификатор]
* Гмурман В. Е. Теория вероятностей и математическая статистика, {{---}} М.: Высшее образование. 2005{{---}} 52 с.
286
правок

Навигация