Энтропия случайного источника — различия между версиями
Odintsova (обсуждение | вклад) |
Odintsova (обсуждение | вклад) |
||
Строка 84: | Строка 84: | ||
<tex dpi="140"> f(x)=\log_2x </tex> — выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется [http://ru.wikipedia.org/wiki/Неравенство_Йенсена: неравенство Йенсена]: | <tex dpi="140"> f(x)=\log_2x </tex> — выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется [http://ru.wikipedia.org/wiki/Неравенство_Йенсена: неравенство Йенсена]: | ||
− | <tex dpi="140"> \sum\limits_{i=1}^{n} p_i | + | <tex dpi="140"> \sum\limits_{i=1}^{n} p_i f(\frac{1}{p_i}) \leqslant f(\sum\limits_{i=1}^{n} (p_i \cdot\frac{1}{p_i})) </tex> |
Таким образом получаем, что <tex> H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex> | Таким образом получаем, что <tex> H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex> | ||
}} | }} | ||
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны. | Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны. | ||
== Условная и взаимная энтропия == | == Условная и взаимная энтропия == | ||
+ | {{Определение | ||
+ | |definition = '''Условная энтропия''' — определяет количество остающейся энтропии (то есть, остающейся неопределенности) события <tex>A</tex> после того, как становится известным результат события <tex>B</tex>. Она называется ''энтропия <tex>A</tex> при условии <tex>B</tex>'', и обозначается <tex>H(A|B)</tex> | ||
+ | }} | ||
+ | <tex>H(A|B)= - \sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex> | ||
+ | {{Определение | ||
+ | |definition = '''Взаимная энтропия''' — энтропия объединения двух событий A и B. | ||
+ | }} | ||
+ | <tex> H(A \cap B) = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(a_j \cap b_i) </tex> | ||
+ | {{Утверждение | ||
+ | |statement= <tex> H(A|B)+H(B)=H(B|A)+H(A) </tex> | ||
+ | |proof= По формуле условной вероятности <tex dpi="130"> p(a_j|b_i)=\frac{p(a_j \cap b_i)}{p(b_i)} </tex> | ||
+ | |||
+ | <tex dpi="140"> H(A|B)=-\sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex> <tex dpi="140">= - \sum\limits_{i=1}^{m}p(b_i) \sum\limits_{j=1}^{n} \frac{p(a_j \cap b_i)}{p(b_i)}\log_2 \frac {p(a_j \cap b_i)}{p(b_i)} = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2 \frac {p(a_j \cap b_i)}{p(b_i)} = </tex> | ||
+ | <tex dpi="140"> = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(a_j \cap b_i) + \sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) </tex><tex dpi="140">= H(A \cap B) +\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) = </tex> | ||
+ | |||
+ | <tex dpi="140"> = H(A \cap B) +\sum\limits_{i=1}^{m} \log_2p(b_i)\sum\limits_{j=1}^{n} p(a_j \cap b_i) = H(A \cap B) +\sum\limits_{i=1}^{m} \log_2p(b_i)p(b_i) = </tex><tex dpi="140">H(A \cap B) - H(B) </tex> | ||
+ | Таким образом получаем, что: <tex> H(A \cap B)= H(B|A)+H(A) </tex> | ||
+ | |||
+ | Аналогично: <tex>H(B \cap A)= H(A|B)+H(B) </tex> | ||
+ | |||
+ | Из двух полученных равенств следует, что <tex> H(A|B)+H(B)=H(B|A)+H(A) </tex> | ||
+ | }} | ||
== Литература == | == Литература == | ||
* И.В. Романовский "Дискретный анализ" | * И.В. Романовский "Дискретный анализ" | ||
− | + | * [http://ru.wikipedia.org/wiki/Информационная_энтропия: Информационная энтропия] | |
[[Категория:Дискретная математика и алгоритмы]] | [[Категория:Дискретная математика и алгоритмы]] | ||
[[Категория: Теория вероятности ]] | [[Категория: Теория вероятности ]] |
Версия 06:36, 14 января 2013
Содержание
Определение
Определение: |
Энтропия случайного источника — функция от вероятностей исходов: | , характеризующая количество информации, приходящейся на одно сообщение источника.
Свойства
Энтропия должна удовлетворять следующим требованиям:
- Функция определена и непрерывна для всех
Рассмотрим схему
c исходами и вероятностями и схему с исходами и вероятностями .Образуем комбинированную схему c
исходами следующим образом:Выбирается случайным образом один из исходов схемы
, и если произошел -й исход, выбирается случайно один из исходов схемы , а остальные исходов схемы считаются окончательными.В этой комбинированной схеме
мы получаем исходы с вероятностямиЛегко видеть, что
.Потребуем выполнения этого свойства для любой меры неопределенности.
Вычисление энтропии
Для доказательства формулы вычисления энтропии сначала докажем лемму.
Лемма: |
Доказательство: |
Будем рассматривать для (бит).Рассмотрим функцию :Пусть: , тогда иРассмотрим такое , чтоМожно заметить, что если , то неравенство останется верным.По предыдущим рассуждениям получаем, что: Делим неравенство на :
|
Теорема: |
Доказательство: |
Теперь рассмотрим функцию Приведем дроби внутри функции к одному знаменателю, получаем: Далее по свойству энтропии и доказанной лемме: |
Ограниченность энтропии
Теорема: |
Доказательство: |
1) Докажем первую часть неравенства: Так как , тогда . Таким образом2) Докажем вторую часть неравенства: Таким образом получаем, что — выпуклая вверх функция, и , тогда для нее выполняется |
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны.
Условная и взаимная энтропия
Определение: |
Условная энтропия — определяет количество остающейся энтропии (то есть, остающейся неопределенности) события | после того, как становится известным результат события . Она называется энтропия при условии , и обозначается
Определение: |
Взаимная энтропия — энтропия объединения двух событий A и B. |
Утверждение: |
По формуле условной вероятности
Таким образом получаем, что: Аналогично: Из двух полученных равенств следует, что |
Литература
- И.В. Романовский "Дискретный анализ"
- Информационная энтропия