Изменения

Перейти к: навигация, поиск

Граница Чернова

169 байт добавлено, 16:27, 20 апреля 2019
Нет описания правки
{{Определение
|definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает ,более .
}}
== Граница Чернова Неравенство и его доказательство==  {{Определение |definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает оценку вероятности того, что сумма <tex>n</tex> одинаково распределенных независимых случайных величин больше (или меньше) некоторого значения.}}
{{Теорема
| id = thChernov
| statement = Пусть даны <tex>X_1 X_2 \ldots X_n</tex> {{---}} одинаково распределенные независимые случайные величины, принимающие значения из множества <tex>\{0, 1\}</tex>,
<tex>m = \mathbb{E} \sum_sum\limits_{i=1}^{n} X_i</tex>,
Тогда:
<tex>\mathbb{P} (|\dfrac{1}{n} \sum_sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}</tex>
| proof = Так как <tex>X_1 X_2 \ldots X_n</tex> {{---}} одинаково распределенные и принимают значения из множества <tex>\{0, 1\}</tex>:
<tex>\mathbb {P}(X_i = 1) = p</tex>
<tex>\mathbb{P}{(X_i = 0) = 1 - p = q}</tex>
<tex>\mathbb {E} X_i = p</tex>
Пусть <tex>\bar{X_i} = X_i - p</tex>, тогда <tex>\mathbb {E}\bar{X_i} = 0</tex>
Преобразуем выражение <tex>\mathbb{P} (\dfrac{1}{n} \sum_sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta)</tex>. (<tex>t</tex> {{---}} любое положительное число):
<tex>\mathbb{P}(\dfrac{1}{n}\sum_sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta) = \mathbb {P} (\dfrac{1}{n}\sum_sum\limits_{i=1}^{n}\bar{X_i} \geqslant \delta) = \mathbb {P}(e^{t\sum_sum\limits_{i=1}^{n} \bar{X_i}} \geqslant e^{t \delta n})</tex>
Используем [[Неравенство Маркова| неравенство Маркова]] для оценки полученного выражения:
<tex>\mathbb {P}(e^{ t\sum_sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{\mathbb{E} (e^{ t\sum_sum\limits_{i=1}^{n}\bar{X_i}})}{e^{t \delta n}}</tex>
[[Математическое ожидание случайной величины| Матожидание]] можно преобразовать:
<tex>\mathbb{E} (e^{ t\sum_sum\limits_{i=1}^{n}\bar{X_i}}) = \prod_{i = 1}^{n}\mathbb{E}(e^{t \bar{X_i}})</tex>
Оценим <tex>\mathbb{E}(e^{t \bar{X_i}})</tex> с учётом того, что <tex>p \in [0, 1]</tex>
<tex>\mathbb{E}(e^{t \bar{X_i}}) = p e^{tq} + qe^{-pt} \leqslant e ^ {\frac{t^2}{8}}</tex>
<tex>\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{e^{n\frac{t^2}{8}}}{e^{t \delta n}}</tex>
При <tex>t = 4\delta</tex>:
<tex>\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant e^{-2 \delta^2 n}</tex>
Аналогично доказывается, что: <tex>\mathbb{P} (\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m \leqslant -\delta) \leqslant e^{-2 \delta^2 n}</tex>
Таким образом: <tex>\mathbb{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}</tex>
}}
== Пример ==
Граница Чернова используется, когда нужно оценить вероятность того, что сумма одинаково распределенных событий будет отличаться от матожидания этой суммы больше чем на <tex>\delta</tex>
Пусть монетку подбросили 1000 раз. Оценить вероятность того, что выпало больше 550 орлов.
<tex>m = \mathbb{E} \sum_{i=1}^{n} X_i = n\mathbb{E} X_i = \dfrac{n}{2}</tex>
<tex>\delta = \dfrac{1}{20}</tex>
<tex>\mathbb{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{2}| \geqslant \dfrac{1}{20}) \leqslant 2e^{-2 \dfrac{1000}{400}} = 2e^{-5}</tex>
== См. также ==
== Источники информации ==
* [https://www.lektorium.tv/lecture/12871 Лекториум CS-центра {{---}} Лекция Дмитрия Ицыксона]
 
[[Категория: Дискретная математика и алгоритмы]]
[[Категория: Теория вероятности]]
Анонимный участник

Навигация