1632
правки
Изменения
м
== Доказательство ==Из замечания определения [[Условная вероятность|условной вероятности]] следует, что вероятность произведения двух событий равна: <tex>P(B|A) = \frac{P(B \cap A)}{P(A)}</tex>
Недостаток метода заключается в томТаким образом, <tex>83.9\%</tex> людей, у которых обследование показало результат «болен», что он основан на предположении, что одни слова чаще встречаются самом деле здоровые люди. Удивительный результат возникает по причине значительной разницы в спаме, а другие долях больных и здоровых. Болезнь <tex>N</tex> {{---}} в обычных письмахредкое явление, поэтому и возникает такой парадокс Байеса. Таким образом, если данное предположение неверно, то метод неэффективенПри возникновении такого результата лучше всего сделать повторное обследование.
rollbackEdits.php mass rollback
По '''формуле Байеса''' можно более точно пересчитать вероятность, беря в расчет как ранее известную информацию, так и данные новых наблюдений.
Формула Байеса позволяет '''«переставить причину и следствие»''': по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.
События, отражающие действие «причин», в данном случае называют гипотезами, так как они {{---}} предполагаемые события, повлекшие данное.
==Теорема==
{{Определение
|definition='''Формула Байеса''' — одна из основных формул элементарной теории (или теорема Байеса) (англ. ''Bayes' theorem'') {{---}} соотношение различных предполагаемых вероятностейразличных событий, которая позволяет определить которое дает вероятность того, что произошло какое-либо то событие<tex>A</tex> является результатом <tex>X</tex> ряда независимых друг от друга событий <tex>B_1,B_2 \ldots B_n</tex>, который, имея на руках лишь косвенные тому подтверждениявозможно, которые могут быть неточныпривел к <tex>A</tex>.
}}
{{Теорема| about == Формулировка =формула Байеса| statement =:<tex>P(B_i|A)=\fracdfrac{P(A|B_i)P(B_i)}{\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>,
где
: <tex>P(A)</tex> — {{---}} вероятность события ''<tex>A'';</tex>,: <tex>P(A|B)</tex> — {{---}} вероятность события ''<tex>A'' </tex> при наступлении события ''<tex>B'';</tex>,: <tex>P(B|A)</tex> — {{---}} вероятность наступления события ''<tex>B'' </tex> при истинности события ''<tex>A'';</tex>,: <tex>P(B)</tex> — {{---}} вероятность наступления события ''<tex>B''</tex>.| proof =
: <tex>P(B \cap A)=P(A \cap B)=P(A|B)P(B)</tex>
По [[Формула полной вероятности|формуле полной вероятности]]:: <tex>P(A)=\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)</tex> (по [[Формула полной вероятности|формуле полной Если вероятности]])под знаком суммы известны или допускают экспериментальную оценку, то: <tex>\Rightarrow P(B_i|A)=\fracdfrac{P(A|B_i)P(B_i)}{\sum_sum\limits_{j=1}^N P(A|B_j)P(B_j)}</tex>
}} == Пример Примеры == ===Определение вероятности заболевания=== Пусть событие А <tex>A</tex> наступило в результате осуществления одной из гипотез <tex>B_1,B_2 \ldots B_n</tex>. Как определить вероятность того, что имела место та или иная гипотеза?Вероятность заразиться гриппом <tex>0.01</tex>. После проведения анализа вероятность, что это грипп <tex>0.9</tex>, другая болезнь <tex>0.001</tex>.Событие <tex>A</tex> истинно, если анализ на грипп положительный, событие B<subtex>1B_1</subtex> отвечает за грипп, B<subtex>2B_2</subtex> отвечает за другую болезнь.
Также предположим, что:
: <tex>P(A|B_1)=0.01</tex>=0,9,: <tex>P(A|B_2)=0.99</tex>=0,001,{{---}} ''априорные'' (оцененные до испытания) вероятности. : <tex>P(A|B_1)=0.9</tex>=0,01,: <tex>P(A|B_2)=0.001</tex>=0{{---}} ''апостериорные'' (оцененные после испытания) вероятности тех же гипотез, пересчитанные в связи «со вновь открывшимися обстоятельствами » {{---}} с учётом того факта,99что событие достоверно произошло.
Рассмотрим вероятность гриппа при положительном анализе:
<tex>P(B_1|A)=\fracdfrac{P(B_1 \cap A)}{P(A)}=\fracdfrac{P(A|B_1)P(B_1)}{P(A|B_1)P(B_1)+P(A|B_2)P(B_2)}=\fracdfrac{100}{111}</tex> ===Парадокс теоремы Байеса===При рентгеновском обследовании вероятность обнаружить заболевание <tex>N</tex> у больного равна <tex>0.95</tex>, вероятность принять здорового человека за больного равна <tex>0.05</tex>. Доля больных по отношению ко всему населению равна <tex>0.01</tex>. Найти вероятность того, что человек здоров, если он был признан больным при обследовании.Предположим, что:: <tex>P(B_1|B)=0.95</tex>,: <tex>P(B_1|A)=0.05</tex>,: <tex>P(B)=0.01</tex>,: <tex>P(A)=0.99</tex>. Вычислим сначала полную вероятность признания больным:<tex>0.99 \cdot 0.05 + 0.01 \cdot 0.95 =0.059</tex>
Вероятность «здоров» при диагнозе «болен»:<tex>P(A|B_1) ==Метод фильтрации спама==При проверке письма вычисляется вероятность того, что оно \dfrac{{---0.99 \cdot 0.05}} спам. Для каждого слова эксперементально подсчитывается его ''вес'' {{---}} процент содержания этого слова в письмах, отмеченных пользователем, как спам0. Тогда ''весом'' письма является среднее ''весов'' всех его слов99 \cdot 0. Таким образом, программа(анти-спам бот) считает письмо спамом, если его ''вес'' больше какой-то заданной пользователем планки (обычно 60-80%)05 + 0. После вынесения решения о полученном письме происходит пересчёт в базе данных весов слов, составляющих текст письма01 \cdot 0. Почтовый фильтр, основанный на такой системе, называется ''байесовским95}= 0.''839</tex>
===Метод фильтрации спама===Существует метод для фильтрации спама, основанный на применении '''Замечание.наивного байесовского классификатора''' Если 80% писем, содержащих фразу <texref>"<[http://www.machinelearning.ru/wiki/images/9/tex>Привет :) Как дела?)<tex>"<98/tex>, являлись спамом, то и следующее письмо с этим словосочетанием c большой вероятностью Voron-ML-Bayes-slides.pdf К.В.Воронцов {{---}} Наивный байесовский классификатор] </ref>, в основе которого лежит применение теоремы Байеса.Имеется набор писем: спами не спам. Подсчитаем для каждого слова вероятность встречи в спаме, количество в спаме ко всему количеству в тексте. Аналогично для слов из не спама. Подсчитаем произведения вероятностей для каждого из класса, и где максимум, туда и определяем письмо.
== См. также ==
* [[Дискретная случайная величина]]* [[Дисперсия случайной величины]]* [[Ковариация случайных величин]] == Примечания ==<references/> == Источники информации ==*[http://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%B0 Теорема_Байеса Википедия {{---}} Теорема Байеса]* [http://ruen.wikipedia.org/wiki/Теорема_БайесаBayes%27_theorem Wikipedia {{---}} Bayes' theorem]*[http://schegl2g.bget.ru/bayes/YudkowskyBayes.html Scheg12g {{---}} Наглядное объяснение теоремы Байеса]*[http://habrahabr.ru/company/surfingbird/blog/150207/ Habrahabr {{---}} Теорема Байеса и наивный байесовский классификатор]* Гмурман В. Е. Теория вероятностей и математическая статистика, {{---}} М.: Высшее образование. 2005 {{---}} 52 с. [[Категория:Дискретная математика и алгоритмы]] [[Категория: Теория вероятности ]]