18
правок
Изменения
м
Нет описания правки
* Функция <tex>H(p_1, p_2, ..., p_n)</tex> определена и непрерывна для всех таких наборов <tex>p_i\in[0,\;1]</tex>, что <tex> \sum\limits_{i = 1}^{n} p_i = 1</tex>
* <tex dpi ="130">H(\underbrace{\fracdfrac{1}{n}, \fracdfrac{1}{n}, ..., \fracdfrac{1}{n}}_\text{n}) < H(\underbrace{\fracdfrac{1}{n+1}, \fracdfrac{1}{n+1}, ..., \fracdfrac{1}{n+1}}_\text{n+1})</tex>
* <tex dpi ="130"> H(p_{1}q_{11}, p_{1}q_{12}, ..., p_{n}q_{nk_n}) = H(p_1, p_2, ..., p_n) + \sum\limits_{i=1}^{n} p_iH(q_{i1}, ..., q_{ik_i})</tex>
Для доказательства формулы вычисления энтропии сначала докажем лемму.
{{Лемма
|statement = <tex dpi="140">g(n) = H(\fracdfrac{1}{n}, \fracdfrac{1}{n}, ..., \fracdfrac{1}{n}) = -k \log_2 \fracdfrac{1}{n} = k \log_2n</tex>
|proof =
Будем рассматривать для <tex>k=1</tex> (бит).
Рассмотрим функцию <tex>g(mn)</tex>:
: <tex>g(mn)=g(m)+ \sum\limits_{i=1}^{m} \fracdfrac{1}{m} g(n) = g(m)+g(n)</tex>
Пусть: <tex>g(2)=1 \quad</tex>, тогда <tex>g(2^t)=t</tex> и <tex> \quad g(n^t)=t \cdot g(n)</tex>
Рассмотрим такое <tex> i </tex>, что <tex>2^i \leqslant n^t < 2^{i+1}</tex>
Можно заметить, что если <tex> i=[ \log_2 n^t ] </tex>, то неравенство останется верным.
По предыдущим рассуждениям получаем, что:
:<tex>g(2^i) \leq leqslant g(n^t) < g(2^{i+1})</tex>
: <tex> i \leq leqslant t \cdot g(n) <i+1 \quad \quad </tex>
Делим неравенство на <tex>t</tex>:
: <tex dpi="140">\fracdfrac{i}{t} \leq leqslant g(n) < \fracdfrac{i+1}{t}</tex>, то есть <tex dpi="140">\fracdfrac{[ \log_2 n^t ]}{t} \leq leqslant g(n) < \fracdfrac{[ \log_2 n^t ]+1}{t}</tex>
Отсюда ясно, что если <tex> t\rightarrow \infty</tex>, то получаем <tex>g(n) = \log_2n</tex>
{{Теорема
|statement= <tex dpi="140">H(p_1, p_2, ..., p_n) = -k \sum\limits_{i=1}^{n} p_i\log_2p_i = k \sum\limits_{i=1}^{n} p_i\log_2\fracdfrac{1}{p_i}</tex>
|proof =
Теперь рассмотрим функцию <tex dpi="140">H(\fracdfrac{a_1}{b_1}, \fracdfrac{a_2}{b_2}, ..., \fracdfrac{a_n}{b_n})</tex>
Приведем дроби внутри функции к одному знаменателю, получаем: <tex dpi="140"> H(\fracdfrac{a_1}{b_1}, \fracdfrac{a_2}{b_2}, ..., \fracdfrac{a_n}{b_n}) = H(\fracdfrac{x_1}{b}, \fracdfrac{x_2}{b}, ..., \fracdfrac{x_n}{b})</tex>
Далее по свойству энтропии и доказанной лемме:
: <tex dpi="140">g(b)= H(\fracdfrac{x_1}{b}, \fracdfrac{x_2}{b}, ..., \fracdfrac{x_n}{b}) + \sum\limits_{i=1}^{n} \fracdfrac{x_i}{b} g(x_i)</tex>
: <tex dpi="140">H(\fracdfrac{x_1}{b}, \fracdfrac{x_2}{b}, ..., \fracdfrac{x_n}{b}) = \log_2b - \sum\limits_{i=1}^{n} \fracdfrac{x_i}{b} \log_2x_i = -\sum\limits_{i=1}^{n} \fracdfrac{x_i}{b} \log_2 \fracdfrac{x_i}{b}</tex>При <tex dpi="140"> p_i = \fracdfrac{x_i}{b} </tex> получаем, что <tex dpi="140">H(p_1, p_2, ..., p_n) = -\sum\limits_{i=1}^{n} p_i \log_2p_i = \sum\limits_{i=1}^{n} p_i \log_2 \fracdfrac{1}{p_i}</tex>
}}
== Примеры ==
Рассмотрим [[Вероятностное пространство, элементарный исход, событие|вероятностное пространство]] {{---}} честная монета.
Найдем для нее энтропию:
:<tex dpi="140">H(X) = -\sum\limits_{i=1}^{n} pi \log_2p_i = -\sum\limits_{i=1}^{2} {(1 / 2) \log_2 (1 / 2)} = -\sum\limits_{i=1}^{2} {(1 / 2) \cdot (-1)} = 1</tex>
Это означает что после броска честной монеты мы получим информацию в размере 1 бит, уменьшив степень неопределенности вдвое, что нельзя сказать про [[Вероятностное пространство, элементарный исход, событие|вероятностное пространство]] {{---}} нечестная монета
Найдем энтропию для монеты с [[Схема Бернулли| распределением Бернулли]] {0,2; 0,8}:
:<tex dpi="140">H(X) = -\sum\limits_{i=1}^{n} pi \log_2p_i = -0.2\log_2(0.2)-0.8\log_2(0.8) \approx 0.722 < 1 </tex>
== Ограниченность энтропии ==
{{Теорема
|statement= <tex>0 \leqslant H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex>
|proof =
1) Докажем первую часть неравенства:
Так как <tex> p_i\in[0,\;1]</tex>, тогда <tex dpi="140">\log_2\fracdfrac{1}{p_i} \geqslant 0 </tex>. Таким образом <tex dpi="140"> H(p_1, p_2, ..., p_n) = \sum\limits_{i=1}^{n} p_i\log_2 \fracdfrac{1}{p_i} \geqslant 0 </tex>
2) Докажем вторую часть неравенства:
<tex dpi="140"> f(x)=\log_2x </tex> {{---}} выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется неравенство Йенсена:
<tex dpi="140"> \sum\limits_{i=1}^{n} p_i f(\fracdfrac{1}{p_i}) \leqslant f(\sum\limits_{i=1}^{n} (p_i \cdot\fracdfrac{1}{p_i})) </tex>Таким образом получаем, что <tex> H(p_1, p_2, ..., p_n) \leqslant \log_2n </tex>
}}
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны.
{{Утверждение
|statement= <tex> H(A \cap B) = H(A|B)+H(B)=H(B|A)+H(A) </tex>
|proof= По формуле условной вероятности <tex dpi="130"> p(a_j|b_i)=\fracdfrac{p(a_j \cap b_i)}{p(b_i)} </tex>
<tex dpi="140"> H(A|B)=-\sum\limits_{i=1}^{m}p(b_i)\sum\limits_{j=1}^{n} p(a_j|b_i)\log_2p(a_j|b_i) </tex> <tex dpi="140">= - \sum\limits_{i=1}^{m}p(b_i) \sum\limits_{j=1}^{n} \fracdfrac{p(a_j \cap b_i)}{p(b_i)}\log_2 \frac dfrac {p(a_j \cap b_i)}{p(b_i)} = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2 \frac dfrac {p(a_j \cap b_i)}{p(b_i)} = </tex>
<tex dpi="140"> = -\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(a_j \cap b_i) + \sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) </tex><tex dpi="140">= H(A \cap B) +\sum\limits_{i=1}^{m} \sum\limits_{j=1}^{n} p(a_j \cap b_i)\log_2p(b_i) = </tex>
== Источники информации ==
* И.В. Романовский "Дискретный анализ"
* [http://ru.wikipedia.org/wiki/Информационная_энтропия: Википедия {{---}} Информационная энтропия]* [https://en.wikipedia.org/wiki/Entropy_(information_theory) Wkipedia {{---}} Entropy(information_theory)]
[[Категория:Дискретная математика и алгоритмы]]
[[Категория: Теория вероятности ]]