Изменения

Перейти к: навигация, поиск

Байесовские сети

111 байт убрано, 01:16, 19 марта 2019
Нет описания правки
== Пример ==
[[Файл:Bayesian Student NetworkМодель студента.png|мини|600px|Рис. 1: Байесовская сеть "Студент"]]
Байесовская сеть, представленная на рисунке 1, отображает следующие зависимости. Оценка студента (Grade) зависит от его интеллекта (Intelligence) и сложности курса (Difficulty). Студент просит у преподавателя рекомендательное письмо (Letter)рекомендацию, предположим, что преподаватель может написать плохое плохую или хорошее письмо хорошую рекомендацию в зависимости от оценки студента. Также студент сдаёт экзамен для поступления в колледж (SAT)госэкзамен, результаты экзамена не зависят от письма рекомендации преподавателя, оценки за его курс и сложности курса. Представление этой модели в Байесовской сети представлено на рисунке ниже.
С помощью цепного правила рассчитаем вероятность того, что умный студент получает B по лёгкому курсу, высокий балл по SAT за госэкзамен и плохое рекомендательное письмоплохую рекомендацию: <math> P(i1, d0, g2, s1, l0) = P(i1)P(d0)P(g2 | i1, d0)P(s1 | i1)P(l0 | g2) = 0.3*0.6*0.08*0.8*0.4 = 0.004608. </math>
Байесовская сеть представляет корректное вероятностное распределение:
Прямой вывод — определение вероятности события при наблюдаемых причинах.
Пример к рисунку 1: вероятность получения хорошего рекомендательного письмахорошей рекомендации, если известно, что студент обладает низким интеллектом, <math>P(l1 | i0) \approx 0.39</math>, если известно, что курс был лёгким, вероятность повысится, <math>P(l1 | i0, d0) \approx 0.51 </math>.
'''Обратный вывод, или диагностирование (англ. Evidential Reasoning)'''
}}
Если о <math>B</math> можно думать как о некоторой случайной величине, принявшей данное значение, маргинальная вероятность <math>A</math> может быть получена суммированием (или более широко интегрированием) совместных вероятностей по всем значениям этой случайной величины. Эту процедуру иногда называют '''маргинализацией''' вероятности. На рисунке 1 вероятность того, что студент умный (<math>i=1</math>), является маргинальной, так как у вершины <math>i</math> нет родителей, с помощью маргинализации эту же вероятность можно получить, сложив вероятности того, что студент умный и он получит высокий балл по SATза госэкзамен, и того , что, студент умный и получит низкий балл по SATза госэкзамен.
{{Определение
}}
Знак <math>\models</math> следует читать как "удовлетворяет", <math>\propto</math> — "пропорционально".
{{Определение
{{Утверждение
|statement=<math>P \models (X \bot Y | Z)</math>, если <math>P(X,Y,Z) \propto \phi_1(X,Z) \phi_2(Y,Z)</math>, где <math>\phi_i</math> — факторы, <math>\propto</math> следует читать как "пропорционально".
}}
|statement=Если <math>P</math> факторизуется над <math>G</math> и <math>dsep_G(X, Y|Z)</math>, то <math>P \models (X \bot Y|Z)</math>.
|proof=
<math>dsep_G(D, S|G)</math>, <math>P(D,I,G,S,L) = P(D)P(I)P(G|I,D)P(S|I)P(L|G)</math> — цепное правило, <math>P</math> факторизуется над <math>G</math>, <math>P(D,S) = \sum\limits_{G, L, I} P(D)P(I)P(G|D,I)P(S|I)P(L|G)=</math> <math>\sum\limits_{I}P(D)P(I)P(S|I)\sum\limits_{G}(P(C|D,I)\sum\limits_{L}P(L|G))=P(D)(\sum\limits_{I}P(I)P(S|I))=\phi_1(D)\phi_2(S)</math>. 
Значит, <math>P\models (X\bot Y | Z)</math>.
}}
63
правки

Навигация