Граница Чернова — различия между версиями
м |
м (rollbackEdits.php mass rollback) |
||
(не показаны 3 промежуточные версии 3 участников) | |||
Строка 88: | Строка 88: | ||
Тогда: | Тогда: | ||
− | <tex>{P} (X \geqslant (1 + \delta)m) \leqslant e^{- \frac{\delta^2}{2 + \delta}m }</tex>, для <tex>\delta > 0</tex> | + | <tex>{P} (X \geqslant (1 + \delta)m) \leqslant e^{m(\delta - (1 + \delta)\ln(1 + \delta))} \leqslant e^{- \frac{\delta^2}{2 + \delta}m }</tex>, для <tex>\delta > 0</tex> |
<tex>{P} (X \leqslant (1 - \delta)m) \leqslant e^{- \frac{\delta^2}{2}m }</tex>, для <tex>0 < \delta < 1</tex> | <tex>{P} (X \leqslant (1 - \delta)m) \leqslant e^{- \frac{\delta^2}{2}m }</tex>, для <tex>0 < \delta < 1</tex> | ||
| proof = | | proof = | ||
По [[Неравенство Маркова| неравенству Маркова]]: | По [[Неравенство Маркова| неравенству Маркова]]: | ||
− | <tex>{P}( | + | <tex>{P}(X \geqslant a) =</tex> <tex>{P}(e^{tX} \geqslant e^{ta}) \leqslant </tex> <tex>\dfrac{{E}(e^{tX})}{e^{ta}}</tex> |
Воспользуемся [[#lemma1|леммой о производящей функции моментов суммы случайных величин ]] и [[#lemma2|леммой об ограниченности производящей функции моментов]]: | Воспользуемся [[#lemma1|леммой о производящей функции моментов суммы случайных величин ]] и [[#lemma2|леммой об ограниченности производящей функции моментов]]: | ||
− | <tex>\dfrac{{E}(e^{tX})}{e^ | + | <tex>\dfrac{{E}(e^{tX})}{e^{ta}} \leqslant</tex> <tex>\dfrac{\prod\limits_{i = 1}^{n}e^{p(e^t - 1)}}{e^{ta}} =</tex> <tex>\dfrac{e^{(e^t - 1)\sum\limits_{i = 1}^{n}p}}{e^{ta}}</tex> |
Заметим, что <tex>\sum\limits_{i = 1}^{n} p = m</tex>, кроме того <tex>a = (1 + \delta)m</tex> (по замене). | Заметим, что <tex>\sum\limits_{i = 1}^{n} p = m</tex>, кроме того <tex>a = (1 + \delta)m</tex> (по замене). | ||
− | <tex>\dfrac{e^{(e^t - 1)\sum\limits_{i = 1}^{n}p}}{e^{ | + | <tex>\dfrac{e^{(e^t - 1)\sum\limits_{i = 1}^{n}p}}{e^{ta}} = </tex> <tex>e^{m(e^t - 1 - t - t\delta)}</tex> |
Функция <tex>e^{m(e^t - 1 - t - t\delta)}</tex> принимает своё минимальное значение в точке <tex>t = \ln (1 + \delta)</tex> | Функция <tex>e^{m(e^t - 1 - t - t\delta)}</tex> принимает своё минимальное значение в точке <tex>t = \ln (1 + \delta)</tex> | ||
Строка 121: | Строка 121: | ||
Пусть честную монету подбросили <tex>N</tex> раз. Оценим вероятность того, что сумма бросков <tex>S</tex> отклонилась от матожидания больше, чем на <tex>\delta = \sqrt{\dfrac{\ln N}{N}}</tex> с помощью [[Неравенство Маркова#Неравенство Чебышева | неравенства Чебышева]] и [[Граница Чернова#Абсолютная оценка | аддитивной формы границы Чернова]] | Пусть честную монету подбросили <tex>N</tex> раз. Оценим вероятность того, что сумма бросков <tex>S</tex> отклонилась от матожидания больше, чем на <tex>\delta = \sqrt{\dfrac{\ln N}{N}}</tex> с помощью [[Неравенство Маркова#Неравенство Чебышева | неравенства Чебышева]] и [[Граница Чернова#Абсолютная оценка | аддитивной формы границы Чернова]] | ||
− | По неравенству Чебышева: <tex>P(|\dfrac{S}{N} - \dfrac{1}{2}| \geqslant \delta) \leqslant \dfrac{1}{4N\delta^2} = \dfrac{1}{4\ln | + | По неравенству Чебышева: <tex>P(|\dfrac{S}{N} - \dfrac{1}{2}| \geqslant \delta) \leqslant \dfrac{1}{4N\delta^2} = \dfrac{1}{4\ln N}</tex> |
Оценка границей Чернова: <tex>P(|\dfrac{S}{N} - \dfrac{1}{2}| \geqslant \delta) \leqslant 2e^{-2N\delta^2} = \dfrac{2}{N^2}</tex> | Оценка границей Чернова: <tex>P(|\dfrac{S}{N} - \dfrac{1}{2}| \geqslant \delta) \leqslant 2e^{-2N\delta^2} = \dfrac{2}{N^2}</tex> |
Текущая версия на 19:17, 4 сентября 2022
Определение: |
Граница Чернова (англ. Chernoff bound) дает оценку вероятности того, что сумма n одинаково распределенных независимых случайных величин больше (или меньше) некоторого значения. |
Содержание
Производящая функция моментов
Определение: |
Производящая функция моментов (англ. moment-generating function) случайной величины
| — функция из в и определяется как:
Лемма (О производящей функции моментов суммы случайных величин): |
Если , где — независимые случайные величины, то: |
Доказательство: |
Лемма (Об ограниченности производящей функции моментов): |
Доказательство: |
Абсолютная оценка
Теорема (Граница Чернова (аддитивная форма)): |
Пусть даны — одинаково распределенные независимые случайные величины, принимающие значения из множества ,
, Тогда: |
Доказательство: |
Так как — одинаково распределенные и принимают значения из множества :
Преобразуем выражение . ( — любое положительное число):
Используем неравенство Маркова для оценки полученного выражения:
Матожидание можно преобразовать по :
Оценим с учётом того, что
При :Аналогично доказывается, что: Таким образом: |
Относительная оценка
Теорема (Граница Чернова (мультипликативная форма)): |
Пусть даны — независимые случайные величины, принимающие значения из множества , ,
Тогда: , для , для |
Доказательство: |
Воспользуемся леммой о производящей функции моментов суммы случайных величин и леммой об ограниченности производящей функции моментов:
Заметим, что , кроме того (по замене).
Функция принимает своё минимальное значение в точкеВоспользуемся неравенством ( ): , для оценки выражения :
Отсюда: Второе неравенство доказывается аналогично. , для |
Сравнение с оценкой неравенством Чебышева
Граница Чернова даёт намного более точную оценку, чем неравенство Чебышева.
Пусть честную монету подбросили неравенства Чебышева и аддитивной формы границы Чернова
раз. Оценим вероятность того, что сумма бросков отклонилась от матожидания больше, чем на с помощьюПо неравенству Чебышева:
Оценка границей Чернова:
Применение
Оценка границей Чернова используется в решении проблем уравновешивания множеств [1] и маршрутизации пакетов в разреженных сетях.
Задача уравновешивания двух множеств возникает при планировании статистических экспериментов. Обычно при планировании эксперимента известны свойства каждого участника, задача состоит в том, чтобы разделить участников на две группы: контрольную и тестовую, так, чтобы каждое свойство было как можно более сбалансированно между двумя группами.
Граница Чернова используется в теории вычислительного обучения для оценки того, что алгоритм с большой вероятностью имеет небольшую ошибку на достаточно большом наборе обучающих данных.
См. также
Примечания
Источники информации
- Лекториум CS-центра — Лекция Дмитрия Ицыксона
- Wikipedia — Chernoff bound
- Michael Mitzenmacher, Eli Upfal. «Probability and Computing: Randomized Algorithms and Probabilistic Analysis» — «Cambridge University Press», 2005 г. — 61-83 стр. — ISBN 0-521-83540-2
- M. Kearns, U. Vazirani. «An Introduction to Computational Learning Theory» — «MIT Press», 1994 г. — 190-192 стр. — ISBN 0-262-11193-4