Математическое ожидание случайной величины

Материал из Викиконспекты
Перейти к: навигация, поиск

Содержание

[править] Математическое ожидание случайной величины

Определение:
Математическое ожидание (англ. mean value) (E\xi) — мера среднего значения случайной величины, равна E\xi = \sum \xi(\omega)p(\omega)


Теорема:
\sum\limits_{\omega\epsilon\Omega} \xi(\omega)p(\omega) = \sum\limits_a a p(\xi = a)
Доказательство:
\triangleright
\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)p(\omega) = \sum\limits_a a \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a p(\xi = a)
\triangleleft

[править] Пример

Пусть наше вероятностное пространство — «честная кость»

\xi(i) = i

E\xi = 1\cdot \dfrac{1}{6}+2\cdot \dfrac{1}{6} \dots +6\cdot \dfrac{1}{6} = 3.5

[править] Свойства математического ожидания

Утверждение (о матожидании константы):
E(a) = a, где a \in R — константа.
Утверждение (о матожидании неравенств):
Если 0 \leqslant \xi \leqslant \eta, и \eta — случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины \xi также конечно, и 0 \leqslant E(\xi) \leqslant E(\eta).
Утверждение (о матожидании случайной величины на событии вероятности нуль):
Если \xi = \eta, то E(\xi) = E(\eta).
Утверждение (о матожидании двух независимых случайных величин):
Если \xi и \eta — две независимые случайные величины, то E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)

[править] Линейность математического ожидания

Теорема:
Математическое ожидание E линейно.
Доказательство:
\triangleright
  1. E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w))p(w) = {\sum_w \limits}\xi(w)p(w) + {\sum_w \limits}\eta(w)p(w) = E(\xi) + E(\eta)
  2. E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi), где \alpha — действительное число
\triangleleft

[править] Использование линейности

Рассмотрим три примера

[править] Пример 1

Найти математическое ожидание суммы цифр на случайной кости домино.

Пусть \xi — случайная величина, которая возвращает первое число на кости домино, а \eta — возвращает второе число. Очевидно, что E(\xi)= E(\eta). Посчитаем E(\xi).

E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \genfrac{}{}{1pt}{0}{1}{7}=3

Получаем ответ E(\xi+\eta)=2E(\xi)=6

[править] Пример 2

Пусть у нас есть строка s. Строка t генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен k, а длина строки n.

Рассмотрим случайные величины \xi^i — совпал ли у строк i-тый символ. Найдем математическое ожидание этой величины E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i]) где s[i],t[i]i-тые символы соответствующих строк. Так как появление каждого символа равновероятно, то p(s[i]=t[i])=\dfrac{1}{k}.

Итоговый результат: E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{1}{n}

[править] Пример 3

Найти математическое ожидание количества инверсий на всех перестановках чисел от 1 до n.

Пусть \xi — случайная величина, которая возвращает количество инверсий в перестановке.

Очевидно, что вероятность любой перестановки равна \dfrac{1}{n!}

Тогда E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}E(\xi^i)

Пусть P = (p_1,p_2,\dots,p_n) является перестановкой чисел 1, 2,\dots, n.

Тогда A = (p_n, p_{n-1}, \dots, p_1) является перевёрнутой перестановкой P.

Докажем, что количество инверсий в этих двух перестановках равно \dfrac{n\cdot(n-1)}{2}

Рассмотрим все пары 1 \leqslant i < j \leqslant n, таких пар всего \dfrac{n\cdot(n-1)}{2}. Тогда пара этих чисел образуют инверсию или в P, или в A. Если j стоит раньше i в перестановке P, то j будет стоять после i и уже не будет давать инверсию. Аналогично, если j стоит раньше i в перестановке A.

Всего таких пар из перестановки и перевернутой перестановки будет \dfrac{n!}{2}.

Итого: E\xi = \dfrac{1}{n!}\cdot\dfrac{n\cdot(n-1)}{2}\cdot\dfrac{n!}{2} = \dfrac{n\cdot(n-1)}{4}

[править] Примеры распределений

[править] Распределение Бернулли

Случайная величина \xi имеет распределение Бернулли, если она принимает всего два значения: 1 и 0 с вероятностями p и q \equiv 1-p соответственно. Таким образом:

P(\xi = 1) = p
P(\xi = 0) = q

Тогда несложно догадаться, чему будет равно математическое ожидание:

E(\xi) = 1 \cdot p + 0 \cdot q = p

[править] Гипергеометрическое распределение

Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности.

Пусть имеется конечная совокупность, состоящая из N элементов. Предположим, что D из них обладают нужным нам свойством. Оставшиеся N-D этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из n элементов. Пусть a — случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности a имеет вид:

P_\xi(k) \equiv P(\xi = k) = \dfrac{C_D^k \cdot C_{N-D}^{n-k}}{C_N^n},

где C_n^k \equiv \dfrac{n!}{k! \cdot (n-k)!} обозначает биномиальный коэффициент.

Гипергеометрическое распределение обозначается \xi \sim \mathrm{HG}(D,N,n).

Формула математического ожидания для гипергеометрического распределения имеет вид:

E(\xi) = \dfrac{n \cdot D}{N}

[править] Смотри также

[править] Источники информации

Личные инструменты
Пространства имён
Варианты
Действия
Навигация
Инструменты