Изменения

Перейти к: навигация, поиск

Байесовские сети

28 байт добавлено, 15:33, 26 марта 2019
Нет описания правки
Байесовская сеть, представленная на рисунке 1, отображает следующие зависимости. Оценка студента зависит от его интеллекта и сложности курса. Студент просит у преподавателя рекомендацию, предположим, что преподаватель может написать плохую или хорошую рекомендацию в зависимости от оценки студента. Также студент сдаёт госэкзамен, результаты экзамена не зависят от рекомендации преподавателя, оценки за его курс и сложности курса. Представление этой модели в Байесовской сети представлено на рисунке ниже.
С помощью цепного правила рассчитаем вероятность того, что умный студент получает B по лёгкому курсу, высокий балл за госэкзамен и плохую рекомендацию: <math> P(i1i_1, d0d_0, g2g_2, s1s_1, l0l_0) = P(i1i_1)P(d0d_0)P(g2 g_2 | i1i_1, d0d_0)P(s1 s_1 | i1i_1)P(l0 l_0 | g2g_2) = 0.3*0.6*0.08*0.8*0.4 = 0.004608. </math>
Байесовская сеть представляет корректное вероятностное распределение:
Прямой вывод — определение вероятности события при наблюдаемых причинах.
Пример к рисунку 1: вероятность получения хорошей рекомендации, если известно, что студент обладает низким интеллектом, <math>P(l1 l_1 | i0i_0) \approx 0.39</math>, если известно, что курс был лёгким, вероятность повысится, <math>P(l1 l_1 | i0i_0, d0d_0) \approx 0.51 </math>.
'''Обратный вывод, или диагностирование (англ. Evidential Reasoning)'''
Обратный вывод — определение вероятности причины при наблюдаемых следствиях.
Пример к рисунку 1: вероятность того, что курс сложный, если студент получил оценку С, <math>P(d1 d_1 | g3g_3) \approx 0.63</math>, вероятность того, что студент умный, если он получил оценку С, <math> P(i1 i_1 | g3g_3) \approx 0.08 </math>.
'''Межпричинный (смешанный) вывод (англ. Intercausal Reasoning)'''
Межпричинный вывод — определение вероятности одной из причин наступившего события при условии наступления одной или нескольких других причин этого события.
Рассмотрим вероятность из прошлого примера, <math> P(i1 i_1 | g3g_3) \approx 0.08 </math>, вероятность того, что студент умный, слегка увеличивается, если также известно, что курс сложный, <math> P(i1 i_1 | g3g_3, d1d_1) \approx 0.11 </math>, сложность курса (D) и интеллект студента (I) не связаны ребром, рассмотрим, как получается, что они влияют друг на друга, на более простом примере.
Предположим, у пациента температура, это сильно повышает вероятность как простуды, так и отравления, хотя они не влияют друг на друга, но если станет известно, что пациент отравился, вероятность простуды сильно уменьшится, симптом уже объяснён одной из возможных причин, и вторая становится менее вероятной. Таким образом, если общее следствие получает '''означивание''', причины становятся зависимыми. По-английски этот феномен называется '''«explaining away»'''.
63
правки

Навигация