Энтропия случайного источника — различия между версиями
(Beta) |
|||
Строка 1: | Строка 1: | ||
+ | __TOC__ | ||
== Определение == | == Определение == | ||
Строка 54: | Строка 55: | ||
: <tex> k\rightarrow \infty \quad \quad g(n) = \log_2n = -k \log_2 \frac{1}{n}</tex> | : <tex> k\rightarrow \infty \quad \quad g(n) = \log_2n = -k \log_2 \frac{1}{n}</tex> | ||
+ | |||
}} | }} | ||
+ | |||
Теперь рассмотрим функцию <tex>H(\frac{a_1}{b_1}, \frac{a_2}{b_2}, ..., \frac{a_n}{b_n})</tex> | Теперь рассмотрим функцию <tex>H(\frac{a_1}{b_1}, \frac{a_2}{b_2}, ..., \frac{a_n}{b_n})</tex> | ||
+ | Приведем дроби внутри функции к одному знаменателю, получаем: <tex>H(\frac{a'_1}{b}, \frac{a'_2}{b}, ..., \frac{a'_n}{b})</tex> | ||
+ | |||
+ | Далее по свойству 3: | ||
+ | : <tex>g(b)= H(\frac{a'_1}{b}, \frac{a'_2}{b}, ..., \frac{a'_n}{b}) + \sum\limits_{i=1}^{n} \frac{a'_i}{b} g(a'_i)</tex> | ||
+ | |||
+ | |||
+ | : <tex>H(\frac{a_1}{b_1}, \frac{a_2}{b_2}, ..., \frac{a_n}{b_n}) = \log_2b - \sum\limits_{i=1}^{n} \frac{a_i}{b_i} \log_2a'_i = -\sum\limits_{i=1}^{n} \frac{a_i}{b_i} \log_2 \frac{a_i}{b_i}</tex> | ||
}} | }} | ||
+ | |||
+ | == Литература == | ||
+ | * И.В. Романовкий "Дискретный анализ" |
Версия 01:03, 24 декабря 2010
Содержание
Определение
Определение: |
Энтропией случайной схемы называется мера содержащейся в этой схеме неопределенности. Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. |
Пусть задан случайный источник.
Пусть мы имеем вероятностную схему
от этого источника с исходами, и вероятности этих исходов равны .Тогда энтропия задается как вполне конкретная функция от вероятностей исходов.
Свойства
- Функция непрерывна.
Вычисление энтропии
Теорема: | ||||||
Доказательство: | ||||||
Для доказательства теоремы сначала докажем лемму.
Приведем дроби внутри функции к одному знаменателю, получаем: Далее по свойству 3:
| ||||||
Литература
- И.В. Романовкий "Дискретный анализ"