Изменения

Перейти к: навигация, поиск

Математическое ожидание случайной величины

7188 байт добавлено, 16:42, 14 мая 2019
Математическое ожидание случайной величины: исправил умножения
==Математическое ожидание случайной величины==
{{Определение
|definition='''Математическое ожидание'''(англ. ''mean value'') <tex>\left( E\xi\right) </tex>) {{--- }} мера среднего значения случайной величины, равна равная <tex>E\xi = \sum \xi(\omega)\cdot p(\omega)</tex>
}}
{{Теорема
|statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega)\cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>|proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)\cdot p(\omega) = \sum\limits_a a \cdot \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>
}}
===Пример===Пусть наше вероятностное пространство {{---}} «честная кость»
<tex> \xi(i) = i </tex>
<tex> E\xi = 1\cdot \dfrac{1/}{6}+2\cdot \dfrac{1/}{6 } \dots +6\cdot \dfrac{1/}{6 } = 3.5</tex>
==Свойства математического ожидания==
{{Утверждение
|about=о матожидании константы
|statement=<tex>E(a) = a</tex>, где <tex>a \in R</tex> {{---}} константа.
}}
 
{{Утверждение
|about=о матожидании неравенств
|statement=Если <tex>0 \leqslant \xi \leqslant \eta</tex>, и <tex>\eta</tex> {{---}} случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины <tex>\xi</tex> также конечно, и <tex>0 \leqslant E(\xi) \leqslant E(\eta)</tex>.
}}
 
{{Утверждение
|about=о матожидании случайной величины на событии вероятности нуль
|statement=Если <tex>\xi = \eta</tex>, то <tex>E(\xi) = E(\eta)</tex>.
}}
 
{{Утверждение
|about=о матожидании двух независимых случайных величин
|statement=Если <tex>\xi</tex> и <tex>\eta</tex> {{---}} две независимые случайные величины, то <tex>E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)</tex>
|proof=
Согласно определению математического ожидания, <tex>E(\xi \cdot \eta) = \sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)</tex>.
 
По теореме, <tex>\sum\limits_{\omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>. Поэтому <tex>\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b)</tex>.
 
Поскольку <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые величины, <tex>p(\xi = a,\eta = b) = p(\xi = a)\cdot p(\eta = b)</tex>.
 
Тогда получаем, что <tex>\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b) = \sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a)\cdot p(\eta = b)=\sum\limits_a a\cdot p(\xi=a) \cdot \sum\limits_b b \cdot p(\eta = b)=E(\xi) \cdot E(\eta)</tex>.
}}
==Линейность математического ожидания==
Математическое ожидание <tex>E</tex> линейно.
|proof=
1. # <tex>E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w))\cdot p(w) = {\sum_w sum\limits}limits_w \xi(w)\cdot p(w) + {\sum_w \limits}\eta(w)\cdot p(w) = E(\xi) + E(\eta) </tex> 2. # <tex>E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)</tex>, где <tex>\alpha</tex> {{---}} действительное число.
}}
==Использование линейности==
Рассмотрим два примератри задачи.
===Пример 1===
Найти математическое ожидание суммы цифр на случайной кости домино.
Пусть <tex> \xi </tex> {{---}} случайная величина , которая возвращает первое число на кости домино, а <tex> \eta </tex> {{---}} возвращает второе число.
Очевидно, что <tex> E(\xi)= E(\eta)</tex>.
Посчитаем <tex>E(\xi)</tex>.
 <tex> E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \fracdfrac{1}{7}=3</tex>
Получаем ответ
===Пример 2===
Пусть у нас есть строка <tex>s</tex>. Строка <tex>t </tex> генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен <tex>k</tex>, а длина строки <tex>n</tex>.
Рассмотрим случайные величины <tex>\xi^i</tex> {{---}} совпал ли у строк <tex> i </tex>-тый символ.
Найдем математическое ожидание этой величины
<tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])\ </tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк.Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\fracdfrac{1}{k}</tex>. Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{n}{k} </tex> ===Пример 3===Найти математическое ожидание количества инверсий на всех перестановках чисел от <tex>1</tex> до <tex>n</tex>. Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает количество инверсий в перестановке. Очевидно, что вероятность любой перестановки равна <tex> \dfrac{1}{n!} </tex> Тогда <tex> E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}{\xi^i} </tex> Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>. Тогда <tex> A = (p_n, p_{n-1}, \dots, p_1) </tex> является перевёрнутой перестановкой <tex> P </tex>. Докажем, что количество инверсий в этих двух перестановках равно <tex> \dfrac{n\cdot(n-1)}{2} </tex> Рассмотрим все пары <tex> 1 \leqslant i < j \leqslant n </tex>, таких пар всего <tex> \dfrac{n\cdot(n-1)}{2} </tex>. Тогда пара этих чисел образуют инверсию или в <tex>P</tex>, или в <tex>A</tex>. Если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>P</tex>, то <tex>j</tex> будет стоять после <tex>i</tex> и уже не будет давать инверсию. Аналогично, если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>A</tex>. Всего таких пар из перестановки и перевернутой перестановки будет <tex> \dfrac{n!}{2} </tex>. Итого: <tex> E\xi = \dfrac{1}{n!}\cdot\dfrac{n\cdot(n-1)}{2}\cdot\dfrac{n!}{2} = \dfrac{n\cdot(n-1)}{4} </tex> ==Примеры распределений== ===Распределение Бернулли===Случайная величина <tex>\xi</tex> имеет распределение Бернулли, если она принимает всего два значения: <tex>1</tex> и <tex>0</tex> с вероятностями <tex>p</tex> и <tex>q \equiv 1-p</tex> соответственно. Таким образом: :<tex>P(\xi = 1) = p</tex>:<tex>P(\xi = 0) = q</tex> Тогда несложно догадаться, чему будет равно математическое ожидание::<tex>E(\xi) = 1\cdot p + 0 \cdot q = p</tex> ===Гипергеометрическое распределение===Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности. Пусть имеется конечная совокупность, состоящая из <tex>N</tex> элементов. Предположим, что <tex>D</tex> из них обладают нужным нам свойством. Оставшиеся <tex>N-D</tex> этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из <tex>n</tex> элементов. Пусть <tex>a</tex> {{---}} случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности <tex>a</tex> имеет вид: :<tex>P_\xi(k) \equiv P(\xi = k) = \dfrac{C_D^k \cdot C_{N-D}^{n-k}}{C_N^n}</tex>,где <tex>C_n^k \equiv \dfrac{n!}{k! \cdot (n-k)!}</tex> обозначает биномиальный коэффициент. Гипергеометрическое распределение обозначается <tex> \xi \sim \mathrm{HG}(D,N,n)</tex>. Формула математического ожидания для гипергеометрического распределения имеет вид::<tex>E(\xi) = \dfrac{n \cdot D}{N}</tex> ==См. также==* [[Дискретная случайная величина]]* [[Дисперсия случайной величины]] == Источники информации ==* [http://ru.wikipedia.org/wiki/Математическое_ожидание Wikipedia {{---}} Математическое ожидание]* [https://ru.wikipedia.org/wiki/Гипергеометрическое_распределение Wikipedia {{---}} Гипергеометрическое распределение]* [https://ru.wikipedia.org/wiki/Распределение_Бернулли Wikipedia {{---}} Распределение Бернулли]
Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\frac{n}{k} </tex>
[[Категория: Дискретная математика и алгоритмы]]
[[Категория: Теория вероятности]]
390
правок

Навигация