Изменения

Перейти к: навигация, поиск

Энтропия случайного источника

1000 байт добавлено, 20:10, 22 декабря 2010
Новая страница: «__TOC__ == Определение == {{Определение |definition = Энтропией случайной схемы называется мера соде…»
__TOC__
== Определение ==

{{Определение
|definition =
Энтропией случайной схемы называется мера содержащейся в этой схеме неопределенности.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.


Пусть мы имеем вероятностную схему <tex>\mathcal{P}</tex> с <tex>n</tex> исходами и вероятности этих исходов равны <tex>p_1, p_2, ..., p_n</tex>.

Тогда энтропия задается как вполне конкретная функция от вероятностей исходов.

: <tex>H: \bigcup\limits_{i=1}^{\infty} \mathbb{R}^i \rightarrow \mathbb{R} </tex>
: <tex>H(p_1, p_2, ..., p_n)</tex>
|
}}
147
правок

Навигация