Изменения

Перейти к: навигация, поиск

Формула Байеса

4756 байт добавлено, 19:05, 4 сентября 2022
м
rollbackEdits.php mass rollback
По '''формуле Байеса''' можно более точно пересчитать вероятность, беря в расчет как ранее известную информацию, так и данные новых наблюдений.
Формула Байеса позволяет '''«переставить причину и следствие»''': по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.
События, отражающие действие «причин», в данном случае называют гипотезами, так как они {{---}} предполагаемые события, повлекшие данное.
==Теорема==
{{Определение
|definition='''Формула Байеса''' — одна из основных формул элементарной теории (или теорема Байеса) (англ. ''Bayes' theorem'') {{---}} соотношение различных предполагаемых вероятностейразличных событий, которая позволяет определить которое дает вероятность того, что произошло какое-либо то событие<tex>A</tex> является результатом <tex>X</tex> ряда независимых друг от друга событий <tex>B_1,B_2 \ldots B_n</tex>, который, имея на руках лишь косвенные тому подтверждениявозможно, которые могут быть неточныпривел к <tex>A</tex>.
}}
{{Теорема| about == Формулировка =формула Байеса| statement =:<tex>P(B_i|A)=\fracdfrac{P(A|B_i)P(B_i)}{\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>,
где
: <tex>P(A)</tex> {{---}} вероятность события ''<tex>A'';</tex>,: <tex>P(A|B)</tex> {{---}} вероятность события ''<tex>A'' </tex> при наступлении события ''<tex>B'';</tex>,: <tex>P(B|A)</tex> {{---}} вероятность наступления события ''<tex>B'' </tex> при истинности события ''<tex>A'';</tex>,: <tex>P(B)</tex> {{---}} вероятность наступления события ''<tex>B''</tex>.| proof =
== Доказательство ==Из замечания определения [[Условная вероятность|условной вероятности]] следует, что вероятность произведения двух событий равна: <tex>P(B|A) = \frac{P(B \cap A)}{P(A)}</tex>
: <tex>P(B \cap A)=P(A \cap B)=P(A|B)P(B)</tex>
По [[Формула полной вероятности|формуле полной вероятности]]:: <tex>P(A)=\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)</tex> (по [[Формула полной вероятности|формуле полной Если вероятности]])под знаком суммы известны или допускают экспериментальную оценку, то: <tex>\Rightarrow P(B_i|A)=\fracdfrac{P(A|B_i)P(B_i)}{\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>
 }} == Пример Примеры == ===Определение вероятности заболевания=== Пусть событие А <tex>A</tex> наступило в результате осуществления одной из гипотез <tex>B_1,B_2 \ldots B_n</tex>. Как определить вероятность того, что имела место та или иная гипотеза?Вероятность заразиться гриппом <tex>0.01</tex>. После проведения анализа вероятность, что это грипп <tex>0.9</tex>, другая болезнь <tex>0.001</tex>.Событие <tex>A</tex> истинно, если анализ на грипп положительный, событие B<subtex>1B_1</subtex> отвечает за грипп, B<subtex>2B_2</subtex> отвечает за другую болезнь.
Также предположим, что:
: <tex>P(A|B_1)=0.01</tex>=0,9,: <tex>P(A|B_2)=0.99</tex>=0,001,{{---}} ''априорные'' (оцененные до испытания) вероятности. : <tex>P(A|B_1)=0.9</tex>=0,01,: <tex>P(A|B_2)=0.001</tex>=0{{---}} ''апостериорные'' (оцененные после испытания) вероятности тех же гипотез, пересчитанные в связи «со вновь открывшимися обстоятельствами » {{---}} с учётом того факта,99что событие достоверно произошло.
Рассмотрим вероятность гриппа при положительном анализе:
<tex>P(B_1|A)=\fracdfrac{P(B_1 \cap A)}{P(A)}=\fracdfrac{P(A|B_1)P(B_1)}{P(A|B_1)P(B_1)+P(A|B_2)P(B_2)}=\fracdfrac{100}{111}</tex>
==Метод фильтрации спама=Парадокс теоремы Байеса===При проверке письма вычисляется рентгеновском обследовании вероятность обнаружить заболевание <tex>N</tex> у больного равна <tex>0.95</tex>, вероятность принять здорового человека за больного равна <tex>0.05</tex>. Доля больных по отношению ко всему населению равна <tex>0.01</tex>. Найти вероятность того, что оно {{---}} спамчеловек здоров, если он был признан больным при обследовании. Для каждого слова эксперементально подсчитывается его ''вес'' {{---}} процент содержания этого слова в письмахПредположим, отмеченных пользователем, как спам. Тогда ''весом'' письма является среднее ''весов'' всех его словчто:: <tex>P(B_1|B)=0. Таким образом95</tex>, программа: <tex>P(анти-спам ботB_1|A) считает письмо спамом=0.05</tex>, если его ''вес'' больше какой-то заданной пользователем планки : <tex>P(обычно 60-80%B)=0. После вынесения решения о полученном письме происходит пересчёт в базе данных весов слов01</tex>, составляющих текст письма: <tex>P(A)=0. Почтовый фильтр, основанный на такой системе, называется ''байесовским99</tex>.''
'''Пример.''' Если 80% писем, содержащих фразу Вычислим сначала полную вероятность признания больным:<tex>"0.99 \cdot 0.05 + 0.01 \cdot 0.95 =0.059</tex>Привет  Вероятность «здоров» при диагнозе «болен»:<tex>P(A|B_1) Как дела?)= \dfrac{0.99 \cdot 0.05}{0.99 \cdot 0.05 + 0.01 \cdot 0.95}= 0.839</tex> Таким образом, <tex>"83.9\%</tex>людей, являлись спамому которых обследование показало результат «болен», на самом деле здоровые люди. Удивительный результат возникает по причине значительной разницы в долях больных и здоровых. Болезнь <tex>N</tex> {{---}} редкое явление, то поэтому и следующее письмо с этим словосочетанием c большой вероятностью возникает такой парадокс Байеса. При возникновении такого результата лучше всего сделать повторное обследование. ===Метод фильтрации спама===Существует метод для фильтрации спама, основанный на применении '''наивного байесовского классификатора'''<ref>[http://www.machinelearning.ru/wiki/images/9/98/Voron-ML-Bayes-slides.pdf К.В.Воронцов {{---}} Наивный байесовский классификатор] </ref>, в основе которого лежит применение теоремы Байеса.Имеется набор писем: спам и не спам. Подсчитаем для каждого слова вероятность встречи в спаме, количество в спаме ко всему количеству в тексте. Аналогично для слов из не спама. Подсчитаем произведения вероятностей для каждого из класса, и где максимум, туда и определяем письмо.
== См. также ==
* [[Дискретная случайная величина]]* [[Дисперсия случайной величины]]* [[Ковариация случайных величин]] == Примечания ==<references/> == Источники информации ==*[http://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%B0 Теорема_Байеса Википедия {{---}} Теорема Байеса]* [http://ruen.wikipedia.org/wiki/Теорема_БайесаBayes%27_theorem Wikipedia {{---}} Bayes' theorem]*[http://schegl2g.bget.ru/bayes/YudkowskyBayes.html Scheg12g {{---}} Наглядное объяснение теоремы Байеса]*[http://habrahabr.ru/company/surfingbird/blog/150207/ Habrahabr {{---}} Теорема Байеса и наивный байесовский классификатор]* Гмурман В. Е. Теория вероятностей и математическая статистика, {{---}} М.: Высшее образование. 2005 {{---}} 52 с.  [[Категория:Дискретная математика и алгоритмы]] [[Категория: Теория вероятности ]]
1632
правки

Навигация