Энтропия случайного источника
Версия от 15:21, 23 декабря 2010; 192.168.0.2 (обсуждение)
Определение
| Определение: |
| Энтропией случайной схемы называется мера содержащейся в этой схеме неопределенности. Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. |
Пусть задан случайный источник.
Пусть мы имеем вероятностную схему от этого источника с исходами, и вероятности этих исходов равны .
Тогда энтропия задается как вполне конкретная функция от вероятностей исходов.