Изменения

Перейти к: навигация, поиск

Энтропия случайного источника

37 байт добавлено, 23:24, 1 июня 2017
Условная и взаимная энтропия
== Условная и взаимная энтропия ==
{{Определение
|definition = '''Условная энтропия''' (англ. ''conditional entropy'') {{---}} определяет количество остающейся энтропии (то есть, остающейся неопределенности) события <tex>A</tex> после того, как становится известным результат события <tex>B</tex>. Она называется ''энтропия <tex>A</tex> при условии <tex>B</tex>'', и обозначается <tex>H(A|B)</tex>
}}
<tex>H(A|B)= - \sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex>
Из двух полученных равенств следует, что <tex> H(A|B)+H(B)=H(B|A)+H(A) </tex>
}}
 
== Источники информации ==
* И.В. Романовский "Дискретный анализ"
133
правки

Навигация