Изменения

Перейти к: навигация, поиск

Математическое ожидание случайной величины

3020 байт добавлено, 18:52, 15 января 2015
8-8
}}
===Пример===
Пусть наше вероятностное пространство {{---}} «честная кость»
<tex> \xi(i) = i </tex>
<tex> E\xi = 1\cdot \genfrac{}{}{1pt}{0}{1}{6}+2\cdot \genfrac{}{}{1pt}{0}{1}{6} \dots +6\cdot \genfrac{}{}{1pt}{0}{1}{6} = 3.5</tex>
==Свойства математического ожидания==
* {{Утверждение|statement=Математическое ожидание числа есть само число.:|proof=<tex>E(a) = a</tex>, где <tex>a \in R</tex> {{---}} константа.* }} {{Утверждение|statement=Математическое ожидание сохраняет неравенства.:|proof=Если <tex>0 \le leqslant a \le leqslant b</tex>, и <tex>b</tex> {{---}} случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины <tex>a</tex> также конечно, и <tex>0 \le leqslant E(a) \le leqslant E(b)</tex>.* }} {{Утверждение|statement=Математическое ожидание не зависит от поведения случайной величины на событии вероятности нуль.:|proof=Если <tex>a = b</tex>, то <tex>E(a) = E(b)</tex>.* }} {{Утверждение|statement=Математическое ожидание произведения двух независимых случайных величин <tex>a</tex> и <tex>b</tex> равно произведению их математических ожиданий.:|proof=<tex>E(a \cdot b) = E(a) \cdot E(b)</tex>}}
==Линейность математического ожидания==
Посчитаем <tex>E(\xi)</tex>.
<tex>E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \fracgenfrac{}{}{1pt}{0}{1}{7}=3</tex>
Получаем ответ
Найдем математическое ожидание этой величины
<tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])</tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк.
Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\fracgenfrac{}{}{1pt}{0}{1}{k}</tex>.
Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\fracgenfrac{}{}{1pt}{0}{n}{k} </tex>
===Пример 3===
Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает количество инверсий в перестановке.
Очевидно, что вероятность любой перестановки равна <tex> \genfrac{}{}{1pt}{0}{1 \over }{n!} </tex>
Тогда <tex> E\xi = \genfrac{}{}{1pt}{0}{1 \over }{n!}\cdot{\sum_{i=1}^{n!}}E(\xi^i) </tex>
Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>.
Тогда <tex> A = (p_n, p_{n-1}, \dots, p_1) </tex> является перевернутой перестановкой <tex> P </tex>.
Докажем, что количество инверсий в этих двух перестановках равно <tex> \genfrac{}{}{1pt}{0}{n\cdot(n-1) }{2} </tex> Рассмотрим все пары <tex> 1 \leqslant i < j \leqslant n </tex>, таких пар всего <tex> \over genfrac{}{}{1pt}{0}{n\cdot(n-1)}{2 } </tex>. Тогда пара этих чисел образуют инверсию или в <tex>P</tex>, или в <tex>A</tex>. Если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>P</tex>, то <tex>j</tex> будет стоять после <tex>i</tex> и уже не будет давать инверсию. Аналогично, если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>A</tex>. Всего таких пар из перестановки и перевернутой перестановки будет <tex> \genfrac{}{}{1pt}{0}{n!}{2} </tex>. Итого: <tex> E\xi = \genfrac{}{}{1pt}{0}{1}{n!}\cdot\genfrac{}{}{1pt}{0}{n\cdot(n-1)}{2}\cdot\genfrac{}{}{1pt}{0}{n!}{2} = \genfrac{}{}{1pt}{0}{n\cdot(n-1)}{4} </tex> ==Примеры распределений== ===Распределение Бернулли===Случайная величина <tex>a</tex> имеет распределение Бернулли, если она принимает всего два значения: <tex>1</tex> и <tex>0</tex> с вероятностями <tex>p</tex> и <tex>q \equiv 1-p</tex> соответственно. Таким образом: :<tex>P(a = 1) = p</tex>:<tex>P(a = 0) = q</tex> Тогда несложно догадаться, чему будет равно математическое ожидание::<tex>E(a) = 1 \cdot p + 0 \cdot q = p</tex> ===Гипергеометрическое распределение===Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности. Пусть имеется конечная совокупность, состоящая из <tex>N</tex> элементов. Предположим, что <tex>D</tex> из них обладают нужным нам свойством. Оставшиеся <tex>N-D</tex> этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из <tex>n</tex> элементов. Пусть <tex>a</tex> {{---}} случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности <tex>a</tex>имеет вид:
Рассмотрим все пары :<tex> 1 P_a(k) \equiv P(a = k) = \leqslant i < j genfrac{}{}{1pt}{0}{C_D^k \leqslant cdot C_{N-D}^{n-k}}{C_N^n }</tex>, таких пар всего где <tex> C_n^k \equiv \genfrac{}{}{1pt}{0}{n!}{k! \cdot(n-1k) \over 2 </tex>. Тогда пара этих чисел образуют инверсию или в <tex>P</tex>, или в <tex>A</tex>. Если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>P</tex>, то <tex>j</tex> будет стоять после <tex>i</tex> и уже не будет давать инверсию. Аналогично, если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>A!}</tex>обозначает биномиальный коэффициент.
Всего таких пар из перестановки и перевернутой перестановки будет Гипергеометрическое распределение обозначается <tex> a \sim \mathrm{HG}(D,N,n! \over 2} )</tex>.
ИтогоФормула математического ожидания для гипергеометрического распределения имеет вид:: <tex> E(a) = \xi = genfrac{}{1 \over n!}\cdot{n \cdot (n-1) \over 21pt}\cdot{n! \over 20} = {n \cdot (n-1) \over 4D}{N} </tex>
==Смотри также==
== Источники информации ==
* [http://ru.wikipedia.org/wiki/Математическое_ожидание Wikipedia {{---}} Математическое ожидание]
* [https://ru.wikipedia.org/wiki/Гипергеометрическое_распределение Wikipedia {{---}} Гипергеометрическое распределение]
* [https://ru.wikipedia.org/wiki/Распределение_Бернулли Wikipedia {{---}} Распределение Бернулли]
[[Категория: Дискретная математика и алгоритмы]]
[[Категория: Теория вероятности]]
48
правок

Навигация