Энтропия случайного источника
Определение
| Определение: |
| Энтропия случайного источника — функция от вероятностей исходов: , характеризующая количество информации, приходящейся на одно сообщение источника. |
Свойства
Энтропия должна удовлетворять следующим требованиям:
- Функция определена и непрерывна для всех
Рассмотрим схему c исходами и вероятностями и схему с исходами и вероятностями .
Образуем комбинированную схему c исходами следующим образом:
Выбирается случайным образом один из исходов схемы , и если произошел -й исход, выбирается случайно один из исходов схемы , а остальные исходов схемы считаются окончательными.
В этой комбинированной схеме мы получаем исходы с вероятностями
Легко видеть, что .
Потребуем выполнения этого свойства для любой меры неопределенности.
Вычисление энтропии
Для доказательства формулы вычисления энтропии сначала докажем лемму.
| Лемма: |
| Доказательство: |
|
Будем рассматривать для (бит). Рассмотрим функцию : Пусть: , тогда и Рассмотрим такое , что Можно заметить, что если , то неравенство останется верным. По предыдущим рассуждениям получаем, что: Делим неравенство на :
|
| Теорема: |
| Доказательство: |
|
Теперь рассмотрим функцию Приведем дроби внутри функции к одному знаменателю, получаем: Далее по свойству энтропии и доказанной лемме: |
Ограниченность энтропии
| Теорема: |
| Доказательство: |
|
1) Докажем первую часть неравенства: Так как , тогда . Таким образом 2) Докажем вторую часть неравенства: — выпуклая вверх функция, и , тогда для нее выполняется неравенство Йенсена: Таким образом получаем, что |
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны.
Условная и взаимная энтропия
Литература
- И.В. Романовский "Дискретный анализ"