Изменения

Перейти к: навигация, поиск

Участник:Mk17.ru

101 байт убрано, 19:21, 25 мая 2020
Ограниченность энтропии
:<tex dpi="140">H(X) = -\sum\limits_{i=1}^{n} p_i \log_2p_i = -0.2\log_2(0.2)-0.8\log_2(0.8) \approx 0.722 < 1 </tex>
== Ограниченность энтропии Задача о разорении игрока =={{ТеоремаОбсудим блуждание на примере задачи о разорении. Пусть начальный капитал <tex>\xi_0</tex> первого|statement= игрока составляет <tex>k</tex> рублей, а капитал второго игрока – <tex>0 \leqslant H(p_1n − k)</tex> рублей. Первый игрок выигрываетили проигрывает рубль с вероятностями <tex>p</tex> и <tex>q</tex> соответственно. Игра продолжается до тех пор, p_2покакапитал первого игрока не уменьшится до нуля, \dotsлибо не возрастет до <tex>n</tex>. Поглощение точки в правомконце отрезка <tex>[0, p_n) \leqslant \log_2n n]</tex>соответствует выигрышу первого игрока.Рассмотрим конечную цепь Маркова<tex>\xi_t+1 = \xi_t + \eta_t, P{\eta_t = 1|\xi_t 6= 0 ∨ \xi_t 6= n} = p, P{\eta_t = −1|proof \xi_t 6=0 ∨ \xi_t 6= n} = qи P{\eta = 0|\xi_t = 0 ∨ \xi_t = n} = 1) Докажем первую часть неравенства:. </tex>
Так как <tex> p_i\in[0,\;1]</tex>, тогда <tex dpi="140">\log_2\dfrac{1}{p_i} \geqslant 0 </tex>. Таким образом <tex dpi="140"> H(p_1, p_2, \dots, p_n) = \sum\limits_{i=1}^{n} p_i\log_2 \dfrac{1}{p_i} \geqslant 0 </tex>
 
2) Докажем вторую часть неравенства:
 
<tex dpi="140"> f(x)=\log_2x </tex> {{---}} выпуклая вверх функция, <tex> p_1,p_2,\ldots,p_n>0</tex> и <tex> \sum \limits_{i=1}^{n} p_i = 1 </tex>, тогда для нее выполняется неравенство Йенсена:
<tex dpi="140"> \sum\limits_{i=1}^{n} p_i f(\dfrac{1}{p_i}) \leqslant f(\sum\limits_{i=1}^{n} (p_i \cdot\dfrac{1}{p_i})) </tex>
Таким образом получаем, что <tex> H(p_1, p_2, \dots, p_n) \leqslant \log_2n </tex>
}}
Тогда из теоремы и доказанной выше леммы следует, что для n исходов энтропия максимальна, если они все равновероятны.
== Условная и взаимная энтропия ==
{{Определение
7
правок

Навигация