Изменения

Перейти к: навигация, поиск

Математическое ожидание случайной величины

1018 байт добавлено, 16:42, 14 мая 2019
Математическое ожидание случайной величины: исправил умножения
==Математическое ожидание случайной величины==
{{Определение
|definition='''Математическое ожидание''' (англ. ''mean value'') (<tex>\left( E\xi\right) </tex>) {{---}} мера среднего значения случайной величины, равна равная <tex>E\xi = \sum \xi(\omega)\cdot p(\omega)</tex>
}}
{{Теорема
|statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega)\cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>|proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)\cdot p(\omega) = \sum\limits_a a \cdot \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>
}}
|about=о матожидании неравенств
|statement=Если <tex>0 \leqslant \xi \leqslant \eta</tex>, и <tex>\eta</tex> {{---}} случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины <tex>\xi</tex> также конечно, и <tex>0 \leqslant E(\xi) \leqslant E(\eta)</tex>.
|proof=
1
}}
|statement=Если <tex>\xi</tex> и <tex>\eta</tex> {{---}} две независимые случайные величины, то <tex>E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)</tex>
|proof=
2Согласно определению математического ожидания, <tex>E(\xi \cdot \eta) = \sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)</tex>. По теореме, <tex>\sum\limits_{\omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>. Поэтому <tex>\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b)</tex>. Поскольку <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые величины, <tex>p(\xi = a,\eta = b) = p(\xi = a)\cdot p(\eta = b)</tex>. Тогда получаем, что <tex>\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b) = \sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a)\cdot p(\eta = b)=\sum\limits_a a\cdot p(\xi=a) \cdot \sum\limits_b b \cdot p(\eta = b)=E(\xi) \cdot E(\eta)</tex>.
}}
Математическое ожидание <tex>E</tex> линейно.
|proof=
# <tex>E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w))\cdot p(w) = {\sum_w sum\limits}limits_w \xi(w)\cdot p(w) + {\sum_w \limits}\eta(w)\cdot p(w) = E(\xi) + E(\eta) </tex># <tex>E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)</tex>, где <tex>\alpha</tex> {{---}} действительное число.
}}
==Использование линейности==
Рассмотрим три примеразадачи.
===Пример 1===
Посчитаем <tex>E(\xi)</tex>.
<tex>E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \genfrac{}{}{1pt}{0}dfrac{1}{7}=3</tex>
Получаем ответ
Рассмотрим случайные величины <tex>\xi^i</tex> {{---}} совпал ли у строк <tex> i </tex>-тый символ.
Найдем математическое ожидание этой величины
<tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])\ </tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк.
Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\dfrac{1}{k}</tex>.
Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{1n}{nk} </tex>
===Пример 3===
Очевидно, что вероятность любой перестановки равна <tex> \dfrac{1}{n!} </tex>
Тогда <tex> E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}E({\xi^i) } </tex>
Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>.
==См. также==
* [[Дискретная случайная величина]]
* [[Дисперсия случайной величины]]
390
правок

Навигация