Изменения

Перейти к: навигация, поиск

Симуляция одним распределением другого

8452 байта добавлено, 19:07, 4 сентября 2022
м
rollbackEdits.php mass rollback
 
==Распределение==
{{Определение|definition =Пусть <tex>\xi</tex> является случайной величиной, а <tex>A</tex> {{---}} ее множеством значений. Функция <tex>P: 2^A \rightarrow \mathbb R,</tex> определенная как <tex>P(B) = P(\xi \in B),</tex> называется '''распределением случайной величины''' (англ. ''probability distribution''), то есть представляет собой набор вероятностей, с которыми случайная величина принимает те или иные значения. }}[[Файл:Распределение1_4РаспределениеUPD.JPG‎jpeg‎|200px|thumb|right|Геометрическое распределение с <tex>p = \dfrac {3} {4}</4tex>]][[ФайлЗакон распределения дискретной случайной величины <tex>\xi</tex> задается таблицей: <tex>\xi: \begin{pmatrix}x_1 & x_2 & \ldots & x_n \\ p_1 & p_2 & \ldots & p_n\end{pmatrix}, </tex> где <tex>x_1 < x_2 < \ldots < x_n</tex> {{---}} всевозможные значения величины <tex>\xi,</tex> а <tex>p_i(i = 1, \ldots, n)</tex> {{---}} их вероятности, то есть <tex>p_i = P(\xi = x_i).</tex> При этом должно выполняться равенство:p_and_q<tex>p_1 + p_2 + \ldots + p_n = 1.JPG|200px|thumb|right|Симуляция распределений]]</tex> '''Распределение — '''Это равенство означает, что при испытании одно из основных понятий теории вероятностей и математической статистикизначений заведомо реализуется. Распределение вероятностей какой-либо Таблица показывает, как суммарная вероятность <tex>100\%</tex> распределяется по возможным значениям случайной величины задается .  Для непрерывных случайных величин задание закона распределения в простейшем случае указанием возможных значений этой величины и соответствующих им вероятностейвиде такой таблицы невозможно, в более сложных — тпоэтому его задают двумя другими способами: :#С помощью [[Дискретная_случайная_величина#.D0.A4.D1.83.D0.BD.D0.BA.D1.86.D0.B8.D1.8F_.D1.80.D0.B0.D1.81.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.B5.D0.BD.D0.B8. нD1. функцией 8F|функции распределения или плотностью ]] <tex>F (x);</tex>:#С помощью [[Дискретная_случайная_величина#.D0.A4.D1.83.D0.BD.D0.BA.D1.86.D0.B8.D1.8F_.D0.BF.D0.BB.D0.BE.D1.82.D0.BD.D0.BE.D1.81.D1.82.D0.B8_.D1.80.D0.B0.D1.81.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.B5.D0.BD.D0.B8.D1.8F_.D0.B2.D0.B5.D1.80.D0.BE.D1.8F.D1.82.D0.BD.D0.BE.D1.81.D1.82.D0.B5.D0.B9|плотности вероятности]] <tex>f (x).</tex>
==Примеры распределений==
* ===Биномиальное распределение(закон Бернулли)===* {{Определение|definition=Дискретная случайная величина <tex>\xi</tex> называется '''биномиальной''' (англ. ''binomial random variable'') с параметрами <tex>(n, p),</tex> если она принимает значения от <tex>0</tex> до <tex>n</tex> и вероятности вычисляются по формуле <tex>p_i = P(\xi = i) = \dbinom{n}{k} p^k q^{n - k},</tex> где <tex>i = 1, \ldots, n;</tex> <tex>q = 1 - p,</tex> <tex>p \in (0, 1).</tex>}} ===Нормальное распределение(распределение Гаусса)==={{Определение|definition=Непрерывную случайную величину <tex>\xi</tex> называют '''нормальной''' (англ. ''normal deviate'') с параметрами <tex>(a, \sigma)</tex> и пишут <tex>\xi = N (a, \sigma),</tex> если ее плотность вероятности дается формулой<tex>f(x) = \dfrac {1} {\sigma \sqrt{2\pi}} {\large e^{-\frac {(x - a)^2} {2\sigma^2}}}.</tex>}} * ===Равномерное распределение==={{Определение|definition=Непрерывная случайная величина <tex>\xi</tex> называется '''равномерно распределенной''' (англ. ''uniformly distributed random variable'') на <tex>[a, b],</tex> если ее плотность вероятности дается формулой <tex>f(x)=\begin{cases}\dfrac {1} {b - a}, & \mbox{if } x \in [a, b] \\0, & \mbox{otherwise.}\end{cases}</tex>}}
==Симуляция распределений==
Рассмотрим следующий случайДля того, чтобы создать необходимое распределение вероятностей, достаточно иметь последовательность независимых случайных величин типа "честной монеты". Допустим Например, для создания схемы с двумя исходами $A_1$ и $A_2$:$P(A_1)=\dfrac{3}{4}$ $,$ $P(A_2)=\dfrac{1}{4}$можно из датчика случайных двоичных величин получить два результата "честной монеты" $\delta_1$ и $\delta_2$ и, например, при $\delta_1 = \delta_2 = 1$ выработать исход $A_2$, у нас есть честная монетаа в остальных случаях $A_1$. А нам надо получить распределения  Аналогично для схемы с вероятностями <tex>четырьмя исходами$P(A_1)=\dfrac{3}{16}$ $,$ $P(A_2)=\dfrac{1/3</tex>}{16}$ $,$ $P(A_3)=\dfrac{8}{16}$ $,$ $P(A_4)=\dfrac{4}{16}$можно получить четыре результата "честной монеты" $\delta_1$ $,$ $\delta_2$ $,$ $\delta_3$ $,$ $\delta_4$ и любым способом сопоставить трём из 16 возможных наборов исход $A_1$, одному $-$ $A_2$, восьми $-$ $A_3$, четырём $-$ $A_4$. Если же вероятности исходов не кратны $2^{-k}$, можно применить два различных варианта действий. Проведем селдующий эксперимент:#Можно приблизить вероятности двоичными дробями (с любой точностью), далее работать с полученными приближёнными значениями:#Пусть все вероятности $n_i$ $-$ дроби со знаменателем $r$. Подкинем монету дваждыНайдём $k$, для которого $r < 2^k$. И если выпадет два раза орел Предложим схему с $k$ результатами "честной монеты", в которой $r$ наборов используются для выработки случайного исхода, а остальные $2^{k}- эксперимент r$ наборов объявляются "неудачными" и требуют повторного эксперимента (пока не удалсявстретится удачный). Чем выше доля полезных исходов равная $r2^{-k}$, повторим еготем схема будет эффективнее.ПредположимКоличество результатов "честной монеты" $\lambda$, которые необходимы для формирования случайного исхода, $-$ это случайная величина. Её математическое ожидание: $E\lambda = \dfrac{1}{2}\cdot1+\dfrac{1}{4}\cdot2+\dfrac{1}{8}\cdot3+\dfrac{1}{16}\cdot3+\dfrac{1}{16}\cdot4 = 1\dfrac{7}{8}.$ Можно сделать схему более экономной, если использовать датчик, равномерно формирующий число из диапазона $[0, 1]$. Образуем по данному набору вероятностей $p_i$ накопленные суммы $s_i$, такие, что у нас есть последовательность экспериментов$s_0 = 0; s_i = s_{i-1} + p_i,$ для $i > 0$. Случайный исход будет вырабатываться так: по полученному из датчика случайному числу $\gamma$ находится такой индекс $i$, для которого $s_{i-1} < \gamma \leqslant s_i$. Найденное значение индекса $i$ и определяет исход $A_i$. Индекс $i$ можно определять непосредственно просмотром $s_i$ подряд.  Рассмотрим приведенный выше пример с четырьмя исходам. Вероятность успеха В данном случае суммы $s_0, \ldots, s_4$ будут принимать значения <tex>0,</tex> <tex dpi = "140">p = \fracdfrac{3}{16},</tex> <tex>\dfrac{4}{16},</tex>. Вероятность неудачи <tex dpi = "140">q = 1 - p = \fracdfrac{112}{416}</tex> Сколько экспериментов и <tex>1</tex> соответственно. Значению $\gamma = 0,5$ будет проведено до тогосоответствовать $i = 3$, как то есть оно будет достигнут успех? Пусть случайная величина определять исход события $A_3.$ Таким же образом, $\gamma = 0,985$ определяет исход события $A_4.$ Если $k$ велико, можно применять специальные приёмы ускоренного поиска, например, деление множества индексов примерно пополам. ==Общий случай=={|class = "wikitable" style="text-align:center;"| рис. <tex>X1</tex> равна количествуэкспериментов, необходимых для достижения успеха|| рис. Тогда <tex>X2</tex> принимает значения || рис. <tex>3</tex>\{1,2,|-|width = "280px"| [[Файл:Sim pic1.JPG|270px]] ||width = "280px"|[[Файл:Sim pic2.JPG‎|270px]] ||width = "280px"|[[Файл:Sim pic3.\JPG‎|270px]] |Допустим у нас есть распределение <tex>p.</tex> и для Нам нужно получить распределение <tex> k \ge 1 q</tex>. : Для начала рассмотрим случай, когда все <tex dpi >p_i = "140">\dfrac{p1}(X = k) = q^{k-1}p,</tex>поскольку перед наступлением успешного эксперимента было проведено а в распределении <tex>q </tex> количество элементарных исходов равно <tex>2</tex> <tex> k - 1 (</tex> неуспешныхрис. Распределение вероятности, удовлетворяющее этому уравнению называется геометрическим распределением<tex>1).</tex> Так как Проводим эксперимент: если попадаем в область пересекающуюся с <tex> q_1 </tex> и <tex> q q_2,</tex> то увеличиваем ее и повторяем эксперимент. На рис. < tex>1 </tex> можно посчитать математическое ожидание геометрического распределениякрасным обозначено распределение <tex> q. : </tex dpi = "140">E(X) = \sum\limits_Вероятность того, что на этом шаге эксперимент не закончится {k = 0}^{\infty---}kq^{k-1}p = <tex>\fracdfrac{p1}{qk}\sum\limits_.</tex> Математическое ожидание количества экспериментов {k = 0}^{\infty---}kq^{k} = <tex> \fracdfrac{pk}{qk-1} , max(\fracdfrac{qk}{(k-1 - q})^{= 2</tex> <tex>(</tex>при <tex>k = 2}} ).</tex>  Теперь рассмотрим случай, когда все элементарные исходы <tex>p_i</tex> по-прежнему равновероятны <tex>(p_i = \fracdfrac{1}{pk} =),</tex>а количество элементарных исходов распределения <tex>q</tex> равно <tex>n (\sum\fraclimits_{j=1}^{\frac{3}{4}n} q_j = \frac{4}{3}1)</tex> <tex>(</tex>рис. <tex>2). </tex>Повторим эксперимент <tex> t </tex> раз.Дисперсия вычисляется аналогично.: <tex dpi = "140">D(X) = k^t \geqslant 2n, t \geqslant \log\fraclimits_{qk}{p2n </tex>  Отрезок разбился на <tex> k^{2}} = t </tex> отрезков. Стык будет не более, чем в половине отрезков. Математическое ожидание количества экспериментов <tex> \frac{4}{9} approx 2t </tex>Рассмотрим теперь общий случай. Допустим у нас есть распределение с вероятностями   <tex dpi = "140">p_i, \sum\limits_{i}p_i = 1.,</tex> Нам нужно получить распределение с вероятностями <tex dpi = "140">q_j, \sum\limits_{j}q_j = 1.</tex>Алгоритм состоит в следующем: при выпадании Берем <tex>p_i</tex>, и пусть оно максимальной длины <tex dpi = "140">p_k(</tex> пересекаем его с отрезками рис. <tex dpi = "140">q_j3).</tex>Потом делим отрезок Проводим <tex dpi = "140">p_kt</tex> на отрезки длины экспериментов. <tex dpi = "140">p_ip_k, ({p_i}^t < \sum\limits_dfrac{1}{i2n}p_ip_k = p_k). , </tex> Потом эксперимент повторяется, до тех пор, пока выбраный нами отрезок все остальные еще меньше. Суммарная длина отрезков не больше <tex dpi = "140"> \dfrac{p_n1}{2}_k .</tex> полностью не будет содержаться в некотором Нужно <tex dpi = "140">q_jt \geqslant \log\limits_{p}\dfrac{1}{2n} .</tex>  Таким образом, из любого исходного распределения мы можем получить нужное нам распределение.
==См. также==
*[[Дисперсия случайной величины]]
==ЛитератураИсточники информации==*Боровков А.А. Математическая статистика: оценка параметров, проверка гипотез. {{- --}} М., Физматлит, 1984, {{---}} стр. 71.*[http://sheen.me/books/spec/apia.djvu Т. Кормен, Ч. Лейзерсон, Р. Ривест, К. Штайн {{-- -}} Алгоритмы. Построение и анализ 1244c{{---}} М. : ООО "И. Д. Вильямс", 2013.{{---}} 1328 с. {{---}} стр. 1254.]*Романовский И. В. {{---}} Элементы теории вероятностей и математической статистики (теория и задачи): учебное пособие. {{---}} Омск, издатель ИП Скорнякова Е.В., 2012. {{---}} 189 с. {{---}} стр. 34.  [[Категория:Дискретная математика и алгоритмы]] [[Категория: Теория вероятности ]]
1632
правки

Навигация