Изменения

Перейти к: навигация, поиск

Граница Чернова

3483 байта добавлено, 20:04, 6 апреля 2019
Новая страница: « == Граница Чернова == {{Определение |definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает оц…»


== Граница Чернова ==

{{Определение
|definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает оценку вероятности того, что сумма <tex>n</tex> одинаково распределенных независимых случайных величин больше (или меньше) некоторого значения.
}}
{{Теорема
| id = thChernov
| about = Граница Чернова
| statement = Пусть даны <tex>X_1 X_2 \ldots X_n</tex> {{---}} одинаково распределенные независимые случайные величины, принимающие значения из множества <tex>\{0, 1\}</tex>,

<tex>m = \mathbb{E} \sum_{i=1}^{n} X_i</tex>,

Тогда:

<tex>\mathbb{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}</tex>
| proof = Так как <tex>X_1 X_2 \ldots X_n</tex> {{---}} одинаково распределенные и принимают значения из множества <tex>\{0, 1\}</tex>:

<tex>\mathbb {P}(X_i = 1) = p</tex>

<tex>\mathbb{P}{(X_i = 0) = 1 - p = q}</tex>

<tex>\mathbb {E} X_i = p</tex>


Пусть <tex>\bar{X_i} = X_i - p</tex>, тогда <tex>\mathbb E\bar{X_i} = 0</tex>

Преобразуем выражение <tex>\mathbb{P} (\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta)</tex>. (<tex>t</tex> {{---}} любое положительное число):

<tex>\mathbb{P}(\dfrac{1}{n}\sum_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta) = \mathbb {P} (\dfrac{1}{n}\sum_{i=1}^{n}\bar{X_i} \geqslant \delta) = \mathbb {P}(e^{t\sum_{i=1}^{n} \bar{X_i}} \geqslant e^{t \delta n})</tex>

Используем [[Неравенство Маркова| неравенство Маркова]] для оценки полученного выражения:

<tex>\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{\mathbb{E} (e^{ t\sum_{i=1}^{n}\bar{X_i}})}{e^{t \delta n}}</tex>

[[Математическое ожидание случайной величины| Матожидание]] можно преобразовать:

<tex>\mathbb{E} (e^{ t\sum_{i=1}^{n}\bar{X_i}}) = \prod_{i = 1}^{n}\mathbb{E}(e^{t \bar{X_i}})</tex>

Оценим <tex>\mathbb{E}(e^{t \bar{X_i}})</tex> с учётом того, что <tex>p \in [0, 1]</tex>

<tex>\mathbb{E}(e^{t \bar{X_i}}) = p e^{tq} + qe^{-pt} \leqslant e ^ {\frac{t^2}{8}}</tex>

<tex>\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{e^{n\frac{t^2}{8}}}{e^{t \delta n}}</tex>

При <tex>t = 4\delta</tex>:
<tex>\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant e^{-2 \delta^2 n}</tex>

Аналогично доказывается, что: <tex>\mathbb{P} (\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m \leqslant -\delta) \leqslant e^{-2 \delta^2 n}</tex>

Таким образом: <tex>\mathbb{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}</tex>
}}

== См. также ==
* [[Неравенство Маркова]]
* [[Математическое ожидание случайной величины]]

== Источники информации ==
* [https://www.lektorium.tv/lecture/12871 Лекториум CS-центра {{---}} Лекция Дмитрия Ицыксона]
89
правок

Навигация