Математическое ожидание случайной величины
Определение: |
Математическое ожидание (англ. mean value) ([math]E\xi[/math]) — мера среднего значения случайной величины, равна [math]E\xi = \sum \xi(\omega)p(\omega)[/math] |
Теорема: |
[math]\sum\limits_{\omega\epsilon\Omega} \xi(\omega)p(\omega) = \sum\limits_a a p(\xi = a)[/math] |
Доказательство: |
[math]\triangleright[/math] |
[math]\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)p(\omega) = \sum\limits_a a \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a p(\xi = a)[/math] |
[math]\triangleleft[/math] |
Пример
Пусть наше вероятностное пространство — «честная кость»
[math] \xi(i) = i [/math]
[math] E\xi = 1\cdot \dfrac{1}{6}+2\cdot \dfrac{1}{6} \dots +6\cdot \dfrac{1}{6} = 3.5[/math]
Свойства математического ожидания
Утверждение (о матожидании константы): |
[math]E(a) = a[/math], где [math]a \in R[/math] — константа. |
Утверждение (о матожидании неравенств): |
Если [math]0 \leqslant \xi \leqslant \eta[/math], и [math]\eta[/math] — случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины [math]\xi[/math] также конечно, и [math]0 \leqslant E(\xi) \leqslant E(\eta)[/math]. |
[math]\triangleright[/math] |
1 |
[math]\triangleleft[/math] |
Утверждение (о матожидании случайной величины на событии вероятности нуль): |
Если [math]\xi = \eta[/math], то [math]E(\xi) = E(\eta)[/math]. |
Утверждение (о матожидании двух независимых случайных величин): |
Если [math]\xi[/math] и [math]\eta[/math] — две независимые случайные величины, то [math]E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)[/math] |
[math]\triangleright[/math] |
Согласно определению математического ожидания, [math]E(\xi \cdot \eta) = \sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)[/math]. Как было доказано выше, [math]\sum\limits_{\omega} \xi(\omega)p(\omega) = \sum\limits_a a p(\xi = a)[/math]. Поэтому [math]\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a\sum\limits_b b \cdot p(\xi = a,\eta = b)[/math]. Поскольку [math]\xi[/math] и [math]\eta[/math] — независимые величины, [math]p(\xi = a,\eta = b) = p(\xi = a)\cdot p(\eta = b)[/math]. Тогда получаем, что [math]\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a\sum\limits_b b \cdot p(\xi = a,\eta = b)=\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a\sum\limits_b b \cdot p(\xi = a)\cdot p(\eta = b)[/math] |
[math]\triangleleft[/math] |
Линейность математического ожидания
Теорема: |
Математическое ожидание [math]E[/math] линейно. |
Доказательство: |
[math]\triangleright[/math] |
- [math]E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w))p(w) = {\sum_w \limits}\xi(w)p(w) + {\sum_w \limits}\eta(w)p(w) = E(\xi) + E(\eta) [/math]
- [math]E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)[/math], где [math]\alpha[/math] — действительное число
|
[math]\triangleleft[/math] |
Использование линейности
Рассмотрим три задачи.
Пример 1
Найти математическое ожидание суммы цифр на случайной кости домино.
Пусть [math] \xi [/math] — случайная величина, которая возвращает первое число на кости домино, а [math] \eta [/math] — возвращает второе число.
Очевидно, что [math] E(\xi)= E(\eta)[/math].
Посчитаем [math]E(\xi)[/math].
[math]E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \genfrac{}{}{1pt}{0}{1}{7}=3[/math]
Получаем ответ
[math]E(\xi+\eta)=2E(\xi)=6[/math]
Пример 2
Пусть у нас есть строка [math]s[/math]. Строка [math]t[/math] генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен [math]k[/math], а длина строки [math]n[/math].
Рассмотрим случайные величины [math]\xi^i[/math] — совпал ли у строк [math] i [/math]-тый символ.
Найдем математическое ожидание этой величины
[math]E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])[/math] где [math]s[i],t[i][/math] — [math]i[/math]-тые символы соответствующих строк.
Так как появление каждого символа равновероятно, то [math]p(s[i]=t[i])=\dfrac{1}{k}[/math].
Итоговый результат: [math]E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{1}{n} [/math]
Пример 3
Найти математическое ожидание количества инверсий на всех перестановках чисел от [math]1[/math] до [math]n[/math].
Пусть [math] \xi [/math] — случайная величина, которая возвращает количество инверсий в перестановке.
Очевидно, что вероятность любой перестановки равна [math] \dfrac{1}{n!} [/math]
Тогда [math] E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}E(\xi^i) [/math]
Пусть [math] P = (p_1,p_2,\dots,p_n)[/math] является перестановкой чисел [math] 1, 2,\dots, n[/math].
Тогда [math] A = (p_n, p_{n-1}, \dots, p_1) [/math] является перевёрнутой перестановкой [math] P [/math].
Докажем, что количество инверсий в этих двух перестановках равно [math] \dfrac{n\cdot(n-1)}{2} [/math]
Рассмотрим все пары [math] 1 \leqslant i \lt j \leqslant n [/math], таких пар всего [math] \dfrac{n\cdot(n-1)}{2} [/math]. Тогда пара этих чисел образуют инверсию или в [math]P[/math], или в [math]A[/math]. Если [math]j[/math] стоит раньше [math]i[/math] в перестановке [math]P[/math], то [math]j[/math] будет стоять после [math]i[/math] и уже не будет давать инверсию. Аналогично, если [math]j[/math] стоит раньше [math]i[/math] в перестановке [math]A[/math].
Всего таких пар из перестановки и перевернутой перестановки будет [math] \dfrac{n!}{2} [/math].
Итого: [math] E\xi = \dfrac{1}{n!}\cdot\dfrac{n\cdot(n-1)}{2}\cdot\dfrac{n!}{2} = \dfrac{n\cdot(n-1)}{4} [/math]
Примеры распределений
Распределение Бернулли
Случайная величина [math]\xi[/math] имеет распределение Бернулли, если она принимает всего два значения: [math]1[/math] и [math]0[/math] с вероятностями [math]p[/math] и [math]q \equiv 1-p[/math] соответственно. Таким образом:
- [math]P(\xi = 1) = p[/math]
- [math]P(\xi = 0) = q[/math]
Тогда несложно догадаться, чему будет равно математическое ожидание:
- [math]E(\xi) = 1 \cdot p + 0 \cdot q = p[/math]
Гипергеометрическое распределение
Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности.
Пусть имеется конечная совокупность, состоящая из [math]N[/math] элементов. Предположим, что [math]D[/math] из них обладают нужным нам свойством. Оставшиеся [math]N-D[/math] этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из [math]n[/math] элементов. Пусть [math]a[/math] — случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности [math]a[/math] имеет вид:
- [math]P_\xi(k) \equiv P(\xi = k) = \dfrac{C_D^k \cdot C_{N-D}^{n-k}}{C_N^n}[/math],
где [math]C_n^k \equiv \dfrac{n!}{k! \cdot (n-k)!}[/math] обозначает биномиальный коэффициент.
Гипергеометрическое распределение обозначается [math] \xi \sim \mathrm{HG}(D,N,n)[/math].
Формула математического ожидания для гипергеометрического распределения имеет вид:
- [math]E(\xi) = \dfrac{n \cdot D}{N}[/math]
См. также
Источники информации