<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=176.59.3.0&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=176.59.3.0&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/176.59.3.0"/>
		<updated>2026-04-28T15:37:37Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71108</id>
		<title>Граница Чернова</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71108"/>
				<updated>2019-04-20T13:33:32Z</updated>
		
		<summary type="html">&lt;p&gt;176.59.3.0: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Определение&lt;br /&gt;
  |definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает оценку вероятности того, что сумма n одинаково распределенных независимых случайных величин больше (или меньше) некоторого значения.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Неравенство и его доказательство==&lt;br /&gt;
{{Теорема&lt;br /&gt;
| id = thChernov&lt;br /&gt;
| about = Граница Чернова&lt;br /&gt;
| statement = Пусть даны &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные независимые случайные величины, принимающие значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum\limits_{i=1}^{n} X_i&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
Тогда:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
| proof = Так как &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные и принимают значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(X_i = 1) = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}{(X_i = 0) = 1 - p = q}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} X_i = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\bar{X_i} = X_i - p&amp;lt;/tex&amp;gt;, тогда &amp;lt;tex&amp;gt;{E}\bar{X_i} = 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Преобразуем выражение &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta)&amp;lt;/tex&amp;gt;. (&amp;lt;tex&amp;gt;t&amp;lt;/tex&amp;gt; {{---}} любое положительное число):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(\dfrac{1}{n}\sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta) = {P} (\dfrac{1}{n}\sum\limits_{i=1}^{n}\bar{X_i} \geqslant \delta) = {P}(e^{t\sum\limits_{i=1}^{n} \bar{X_i}} \geqslant e^{t \delta n})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Используем [[Неравенство Маркова| неравенство Маркова]] для оценки полученного выражения:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}})}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Математическое ожидание случайной величины| Матожидание]] можно преобразовать:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}}) = \prod\limits_{i = 1}^{n}{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Оценим &amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt; с учётом того, что &amp;lt;tex&amp;gt;p \in [0, 1]&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}}) = p e^{tq} + qe^{-pt} \leqslant e ^ {\frac{t^2}{8}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{e^{n\frac{t^2}{8}}}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
При &amp;lt;tex&amp;gt;t = 4\delta&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathbb {P}(e^{ t\sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Аналогично доказывается, что: &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \leqslant -\delta) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Таким образом: &amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Пример ==&lt;br /&gt;
Граница Чернова используется, когда нужно оценить вероятность того, что сумма одинаково распределенных событий будет отличаться от матожидания этой суммы больше чем на &amp;lt;tex&amp;gt;\delta&amp;lt;/tex&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Пусть монетку подбросили 1000 раз. Оценить вероятность того, что выпало больше 550 орлов.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum\limits_{i=1}^{n} X_i  = n{E} X_i = \dfrac{n}{2}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\delta = \dfrac{1}{20}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{2}| \geqslant \dfrac{1}{20}) \leqslant 2e^{-2 \dfrac{1000}{400}} = 2e^{-5}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Неравенство Маркова]]&lt;br /&gt;
* [[Математическое ожидание случайной величины]]&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
* [https://www.lektorium.tv/lecture/12871 Лекториум CS-центра {{---}} Лекция Дмитрия Ицыксона]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Дискретная математика и алгоритмы]]&lt;br /&gt;
[[Категория: Теория вероятности]]&lt;/div&gt;</summary>
		<author><name>176.59.3.0</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71107</id>
		<title>Граница Чернова</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71107"/>
				<updated>2019-04-20T13:30:18Z</updated>
		
		<summary type="html">&lt;p&gt;176.59.3.0: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Определение&lt;br /&gt;
  |definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает оценку вероятности того, что сумма n одинаково распределенных независимых случайных величин больше (или меньше) некоторого значения.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Неравенство и его доказательство==&lt;br /&gt;
{{Теорема&lt;br /&gt;
| id = thChernov&lt;br /&gt;
| about = Граница Чернова&lt;br /&gt;
| statement = Пусть даны &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные независимые случайные величины, принимающие значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum\limits_{i=1}^{n} X_i&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
Тогда:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
| proof = Так как &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные и принимают значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(X_i = 1) = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}{(X_i = 0) = 1 - p = q}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} X_i = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\bar{X_i} = X_i - p&amp;lt;/tex&amp;gt;, тогда &amp;lt;tex&amp;gt;{E}\bar{X_i} = 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Преобразуем выражение &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta)&amp;lt;/tex&amp;gt;. (&amp;lt;tex&amp;gt;t&amp;lt;/tex&amp;gt; {{---}} любое положительное число):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(\dfrac{1}{n}\sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta) = {P} (\dfrac{1}{n}\sum\limits_{i=1}^{n}\bar{X_i} \geqslant \delta) = {P}(e^{t\sum\limits_{i=1}^{n} \bar{X_i}} \geqslant e^{t \delta n})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Используем [[Неравенство Маркова| неравенство Маркова]] для оценки полученного выражения:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}})}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Математическое ожидание случайной величины| Матожидание]] можно преобразовать:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}}) = \prod_{i = 1}^{n}{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Оценим &amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt; с учётом того, что &amp;lt;tex&amp;gt;p \in [0, 1]&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}}) = p e^{tq} + qe^{-pt} \leqslant e ^ {\frac{t^2}{8}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{e^{n\frac{t^2}{8}}}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
При &amp;lt;tex&amp;gt;t = 4\delta&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Аналогично доказывается, что: &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m \leqslant -\delta) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Таким образом: &amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Пример ==&lt;br /&gt;
Граница Чернова используется, когда нужно оценить вероятность того, что сумма одинаково распределенных событий будет отличаться от матожидания этой суммы больше чем на &amp;lt;tex&amp;gt;\delta&amp;lt;/tex&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Пусть монетку подбросили 1000 раз. Оценить вероятность того, что выпало больше 550 орлов.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum_{i=1}^{n} X_i  = n{E} X_i = \dfrac{n}{2}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\delta = \dfrac{1}{20}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{2}| \geqslant \dfrac{1}{20}) \leqslant 2e^{-2 \dfrac{1000}{400}} = 2e^{-5}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Неравенство Маркова]]&lt;br /&gt;
* [[Математическое ожидание случайной величины]]&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
* [https://www.lektorium.tv/lecture/12871 Лекториум CS-центра {{---}} Лекция Дмитрия Ицыксона]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Дискретная математика и алгоритмы]]&lt;br /&gt;
[[Категория: Теория вероятности]]&lt;/div&gt;</summary>
		<author><name>176.59.3.0</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71106</id>
		<title>Граница Чернова</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0_%D0%A7%D0%B5%D1%80%D0%BD%D0%BE%D0%B2%D0%B0&amp;diff=71106"/>
				<updated>2019-04-20T13:27:02Z</updated>
		
		<summary type="html">&lt;p&gt;176.59.3.0: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Определение&lt;br /&gt;
  |definition = '''Граница Чернова''' (англ. ''Chernoff bound'') дает ,более .&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Неравенство и его доказательство==&lt;br /&gt;
{{Теорема&lt;br /&gt;
| id = thChernov&lt;br /&gt;
| about = Граница Чернова&lt;br /&gt;
| statement = Пусть даны &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные независимые случайные величины, принимающие значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum\limits_{i=1}^{n} X_i&amp;lt;/tex&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
Тогда:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
| proof = Так как &amp;lt;tex&amp;gt;X_1 X_2 \ldots X_n&amp;lt;/tex&amp;gt; {{---}} одинаково распределенные и принимают значения из множества &amp;lt;tex&amp;gt;\{0, 1\}&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(X_i = 1) = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}{(X_i = 0) = 1 - p = q}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} X_i = p&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\bar{X_i} = X_i - p&amp;lt;/tex&amp;gt;, тогда &amp;lt;tex&amp;gt;{E}\bar{X_i} = 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Преобразуем выражение &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta)&amp;lt;/tex&amp;gt;. (&amp;lt;tex&amp;gt;t&amp;lt;/tex&amp;gt; {{---}} любое положительное число):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(\dfrac{1}{n}\sum\limits_{i=1}^{n} X_i - \dfrac{1}{n} m \geqslant \delta) = {P} (\dfrac{1}{n}\sum\limits_{i=1}^{n}\bar{X_i} \geqslant \delta) = {P}(e^{t\sum\limits_{i=1}^{n} \bar{X_i}} \geqslant e^{t \delta n})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Используем [[Неравенство Маркова| неравенство Маркова]] для оценки полученного выражения:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum\limits_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}})}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Математическое ожидание случайной величины| Матожидание]] можно преобразовать:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E} (e^{ t\sum\limits_{i=1}^{n}\bar{X_i}}) = \prod_{i = 1}^{n}{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Оценим &amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}})&amp;lt;/tex&amp;gt; с учётом того, что &amp;lt;tex&amp;gt;p \in [0, 1]&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{E}(e^{t \bar{X_i}}) = p e^{tq} + qe^{-pt} \leqslant e ^ {\frac{t^2}{8}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant \dfrac{e^{n\frac{t^2}{8}}}{e^{t \delta n}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
При &amp;lt;tex&amp;gt;t = 4\delta&amp;lt;/tex&amp;gt;:&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathbb {P}(e^{ t\sum_{i=1}^{n}\bar{X_i}} \geqslant e^{t \delta n}) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Аналогично доказывается, что: &amp;lt;tex&amp;gt;{P} (\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m \leqslant -\delta) \leqslant e^{-2 \delta^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Таким образом: &amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{n} m| \geqslant \delta) \leqslant 2e^{-2 \delta ^2 n}&amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Пример ==&lt;br /&gt;
Граница Чернова используется, когда нужно оценить вероятность того, что сумма одинаково распределенных событий будет отличаться от матожидания этой суммы больше чем на &amp;lt;tex&amp;gt;\delta&amp;lt;/tex&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Пусть монетку подбросили 1000 раз. Оценить вероятность того, что выпало больше 550 орлов.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;m = {E} \sum_{i=1}^{n} X_i  = n{E} X_i = \dfrac{n}{2}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\delta = \dfrac{1}{20}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;{P} (|\dfrac{1}{n} \sum_{i=1}^{n} X_i - \dfrac{1}{2}| \geqslant \dfrac{1}{20}) \leqslant 2e^{-2 \dfrac{1000}{400}} = 2e^{-5}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Неравенство Маркова]]&lt;br /&gt;
* [[Математическое ожидание случайной величины]]&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
* [https://www.lektorium.tv/lecture/12871 Лекториум CS-центра {{---}} Лекция Дмитрия Ицыксона]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Дискретная математика и алгоритмы]]&lt;br /&gt;
[[Категория: Теория вероятности]]&lt;/div&gt;</summary>
		<author><name>176.59.3.0</name></author>	</entry>

	</feed>