Изменения

Перейти к: навигация, поиск

Байесовские сети

881 байт добавлено, 14:08, 11 марта 2019
Нет описания правки
Прямой вывод — определение вероятности события при наблюдаемых причинах.
Пример: вероятность получения хорошего рекомендательного письма, если известно, что студент обладает низким интеллектом, <math>P(l1 | i0) \approx 0.39</math>, если известно, что курс был лёгким, вероятность повысится, <math>P(l1 | i0, d0) \approx 0.51 </math>.
'''Обратный вывод, или диагностирование (англ. Evidential Reasoning)'''
Обратный вывод — определение вероятности причины при наблюдаемых следствиях.
Пример: вероятность получения оценки С за сложный курс, <math> P(d1 | g3)\approx 0.63</math>, вероятность получения оценки С умным студентом, <math> P(i1 | g3) \approx 0.08 </math>.
'''Межпричинный (смешанный) вывод (англ. Intercausal Reasoning)'''
Межпричинный вывод — определение вероятности одной из причин наступившего события при условии наступления одной или нескольких других причин этого события.
Пример: рассмотрим вероятности из прошлого примера <math>P(d1 | g3) \approx 0.63</math>, <math> P(i1 | g3) \approx 0.08 </math>, вероятность получить оценку С умному студенту слегка увеличивается, если известно, что курс сложный, <math> P(i1 | g3, d1) \approx 0.11 </math>, сложность курса (D) и интеллект студента (I) не связаны ребром, рассмотрим, как получается, что они влияют друг на друга, на более простом примере.  
== Источники информации ==
* Andrew D. Gordon, Thomas A. Henzinger, Aditya V. Nori, and Sriram K. Rajamani. 2014. Probabilistic programming. In Proceedings of the on Future of Software Engineering (FOSE 2014). ACM, New York, NY, USA, 167-181. DOI=10.1145/2593882.2593900 doi.acm.org/10.1145/2593882.2593900
Анонимный участник

Навигация