Энтропия случайного источника — различия между версиями
Odintsova (обсуждение | вклад) |
Odintsova (обсуждение | вклад) |
||
| Строка 84: | Строка 84: | ||
<tex dpi="140"> f(x)=\log_2x </tex> — выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется [http://ru.wikipedia.org/wiki/Неравенство_Йенсена: неравенство Йенсена]: | <tex dpi="140"> f(x)=\log_2x </tex> — выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется [http://ru.wikipedia.org/wiki/Неравенство_Йенсена: неравенство Йенсена]: | ||
| − | <tex dpi="140"> \sum\limits_{i=1}^{n} p_i | + | <tex dpi="140"> \sum\limits_{i=1}^{n} p_i f(\frac{1}{p_i}) \leqslant f(\sum\limits_{i=1}^{n} (p_i \cdot\frac{1}{p_i})) </tex> |
Таким образом получаем, что <tex> H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex> | Таким образом получаем, что <tex> H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex> | ||
}} | }} | ||
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны. | Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны. | ||
== Условная и взаимная энтропия == | == Условная и взаимная энтропия == | ||
| + | {{Определение | ||
| + | |definition = '''Условная энтропия''' — определяет количество остающейся энтропии (то есть, остающейся неопределенности) события <tex>A</tex> после того, как становится известным результат события <tex>B</tex>. Она называется ''энтропия <tex>A</tex> при условии <tex>B</tex>'', и обозначается <tex>H(A|B)</tex> | ||
| + | }} | ||
| + | <tex>H(A|B)= - \sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex> | ||
| + | {{Определение | ||
| + | |definition = '''Взаимная энтропия''' — энтропия объединения двух событий A и B. | ||
| + | }} | ||
| + | <tex> H(A \cap B) = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(a_j \cap b_i) </tex> | ||
| + | {{Утверждение | ||
| + | |statement= <tex> H(A|B)+H(B)=H(B|A)+H(A) </tex> | ||
| + | |proof= По формуле условной вероятности <tex dpi="130"> p(a_j|b_i)=\frac{p(a_j \cap b_i)}{p(b_i)} </tex> | ||
| + | |||
| + | <tex dpi="140"> H(A|B)=-\sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex> <tex dpi="140">= - \sum\limits_{i=1}^{m}p(b_i) \sum\limits_{j=1}^{n} \frac{p(a_j \cap b_i)}{p(b_i)}\log_2 \frac {p(a_j \cap b_i)}{p(b_i)} = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2 \frac {p(a_j \cap b_i)}{p(b_i)} = </tex> | ||
| + | <tex dpi="140"> = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(a_j \cap b_i) + \sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) </tex><tex dpi="140">= H(A \cap B) +\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) = </tex> | ||
| + | |||
| + | <tex dpi="140"> = H(A \cap B) +\sum\limits_{i=1}^{m} \log_2p(b_i)\sum\limits_{j=1}^{n} p(a_j \cap b_i) = H(A \cap B) +\sum\limits_{i=1}^{m} \log_2p(b_i)p(b_i) = </tex><tex dpi="140">H(A \cap B) - H(B) </tex> | ||
| + | Таким образом получаем, что: <tex> H(A \cap B)= H(B|A)+H(A) </tex> | ||
| + | |||
| + | Аналогично: <tex>H(B \cap A)= H(A|B)+H(B) </tex> | ||
| + | |||
| + | Из двух полученных равенств следует, что <tex> H(A|B)+H(B)=H(B|A)+H(A) </tex> | ||
| + | }} | ||
== Литература == | == Литература == | ||
* И.В. Романовский "Дискретный анализ" | * И.В. Романовский "Дискретный анализ" | ||
| − | + | * [http://ru.wikipedia.org/wiki/Информационная_энтропия: Информационная энтропия] | |
[[Категория:Дискретная математика и алгоритмы]] | [[Категория:Дискретная математика и алгоритмы]] | ||
[[Категория: Теория вероятности ]] | [[Категория: Теория вероятности ]] | ||
Версия 06:36, 14 января 2013
Содержание
Определение
| Определение: |
| Энтропия случайного источника — функция от вероятностей исходов: , характеризующая количество информации, приходящейся на одно сообщение источника. |
Свойства
Энтропия должна удовлетворять следующим требованиям:
- Функция определена и непрерывна для всех
Рассмотрим схему c исходами и вероятностями и схему с исходами и вероятностями .
Образуем комбинированную схему c исходами следующим образом:
Выбирается случайным образом один из исходов схемы , и если произошел -й исход, выбирается случайно один из исходов схемы , а остальные исходов схемы считаются окончательными.
В этой комбинированной схеме мы получаем исходы с вероятностями
Легко видеть, что .
Потребуем выполнения этого свойства для любой меры неопределенности.
Вычисление энтропии
Для доказательства формулы вычисления энтропии сначала докажем лемму.
| Лемма: |
| Доказательство: |
|
Будем рассматривать для (бит). Рассмотрим функцию : Пусть: , тогда и Рассмотрим такое , что Можно заметить, что если , то неравенство останется верным. По предыдущим рассуждениям получаем, что: Делим неравенство на :
|
| Теорема: |
| Доказательство: |
|
Теперь рассмотрим функцию Приведем дроби внутри функции к одному знаменателю, получаем: Далее по свойству энтропии и доказанной лемме: |
Ограниченность энтропии
| Теорема: |
| Доказательство: |
|
1) Докажем первую часть неравенства: Так как , тогда . Таким образом 2) Докажем вторую часть неравенства: — выпуклая вверх функция, и , тогда для нее выполняется неравенство Йенсена: Таким образом получаем, что |
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны.
Условная и взаимная энтропия
| Определение: |
| Условная энтропия — определяет количество остающейся энтропии (то есть, остающейся неопределенности) события после того, как становится известным результат события . Она называется энтропия при условии , и обозначается |
| Определение: |
| Взаимная энтропия — энтропия объединения двух событий A и B. |
| Утверждение: |
|
По формуле условной вероятности
Таким образом получаем, что: Аналогично: Из двух полученных равенств следует, что |
Литература
- И.В. Романовский "Дискретный анализ"
- Информационная энтропия