Математическое ожидание случайной величины — различия между версиями
Eadm (обсуждение | вклад) |
м (rollbackEdits.php mass rollback) |
||
(не показана 41 промежуточная версия 8 участников) | |||
Строка 1: | Строка 1: | ||
==Математическое ожидание случайной величины== | ==Математическое ожидание случайной величины== | ||
{{Определение | {{Определение | ||
− | |definition='''Математическое ожидание''' (англ. '' | + | |definition='''Математическое ожидание''' (англ. ''mean value'') <tex> \left( E\xi \right) </tex> {{---}} мера среднего значения случайной величины, равная <tex>E\xi = \sum \xi(\omega) \cdot p(\omega)</tex> |
}} | }} | ||
{{Теорема | {{Теорема | ||
− | |statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega)p(\omega) = \sum\limits_a a p(\xi = a)</tex> | + | |statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex> |
− | |proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)p(\omega) = \sum\limits_a a \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a p(\xi = a)</tex> | + | |proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex> |
}} | }} | ||
Строка 14: | Строка 14: | ||
<tex> \xi(i) = i </tex> | <tex> \xi(i) = i </tex> | ||
− | <tex> E\xi = 1\cdot \ | + | <tex> E\xi = 1\cdot \dfrac{1}{6}+2\cdot \dfrac{1}{6} \dots +6\cdot \dfrac{1}{6} = 3.5</tex> |
==Свойства математического ожидания== | ==Свойства математического ожидания== | ||
{{Утверждение | {{Утверждение | ||
|about=о матожидании константы | |about=о матожидании константы | ||
− | |statement= | + | |statement=<tex>E(a) = a</tex>, где <tex>a \in R</tex> {{---}} константа. |
− | <tex>E(a) = a</tex>, где <tex>a \in R</tex> {{---}} константа. | ||
}} | }} | ||
{{Утверждение | {{Утверждение | ||
|about=о матожидании неравенств | |about=о матожидании неравенств | ||
− | |statement= | + | |statement=Если <tex>0 \leqslant \xi \leqslant \eta</tex>, и <tex>\eta</tex> {{---}} случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины <tex>\xi</tex> также конечно, и <tex>0 \leqslant E(\xi) \leqslant E(\eta)</tex>. |
}} | }} | ||
{{Утверждение | {{Утверждение | ||
|about=о матожидании случайной величины на событии вероятности нуль | |about=о матожидании случайной величины на событии вероятности нуль | ||
− | |statement= | + | |statement=Если <tex>\xi = \eta</tex>, то <tex>E(\xi) = E(\eta)</tex>. |
}} | }} | ||
{{Утверждение | {{Утверждение | ||
− | |about=о матожидании | + | |about=о матожидании двух независимых случайных величин |
− | |statement= | + | |statement=Если <tex>\xi</tex> и <tex>\eta</tex> {{---}} две независимые случайные величины, то <tex>E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)</tex> |
+ | |proof= | ||
+ | Согласно определению математического ожидания, <tex>E(\xi \cdot \eta) = \sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)</tex>. | ||
+ | |||
+ | По теореме, <tex>\sum\limits_{\omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>. Поэтому <tex>\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b)</tex>. | ||
+ | |||
+ | Поскольку <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые величины, <tex>p(\xi = a,\eta = b) = p(\xi = a)\cdot p(\eta = b)</tex>. | ||
+ | |||
+ | Тогда получаем, что <tex>\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b) = \sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a)\cdot p(\eta = b)=\sum\limits_a a\cdot p(\xi=a) \cdot \sum\limits_b b \cdot p(\eta = b)=E(\xi) \cdot E(\eta)</tex>. | ||
}} | }} | ||
+ | |||
==Линейность математического ожидания== | ==Линейность математического ожидания== | ||
Строка 43: | Строка 51: | ||
Математическое ожидание <tex>E</tex> линейно. | Математическое ожидание <tex>E</tex> линейно. | ||
|proof= | |proof= | ||
− | # <tex>E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w))p(w) = | + | # <tex>E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w)) \cdot p(w) = \sum\limits_w \xi(w) \cdot p(w) + {\sum_w \limits}\eta(w) \cdot p(w) = E(\xi) + E(\eta) </tex> |
− | # <tex>E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)</tex>, где <tex>\alpha</tex> {{---}} действительное число | + | # <tex>E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)</tex>, где <tex>\alpha</tex> {{---}} действительное число. |
}} | }} | ||
==Использование линейности== | ==Использование линейности== | ||
− | Рассмотрим три | + | Рассмотрим три задачи. |
===Пример 1=== | ===Пример 1=== | ||
Строка 58: | Строка 66: | ||
Посчитаем <tex>E(\xi)</tex>. | Посчитаем <tex>E(\xi)</tex>. | ||
− | <tex>E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \ | + | <tex>E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \dfrac{1}{7}=3</tex> |
Получаем ответ | Получаем ответ | ||
Строка 68: | Строка 76: | ||
Рассмотрим случайные величины <tex>\xi^i</tex> {{---}} совпал ли у строк <tex> i </tex>-тый символ. | Рассмотрим случайные величины <tex>\xi^i</tex> {{---}} совпал ли у строк <tex> i </tex>-тый символ. | ||
Найдем математическое ожидание этой величины | Найдем математическое ожидание этой величины | ||
− | <tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])</tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк. | + | <tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i]) \ </tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк. |
− | Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\ | + | Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\dfrac{1}{k}</tex>. |
− | Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\ | + | Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{n}{k} </tex> |
===Пример 3=== | ===Пример 3=== | ||
Строка 78: | Строка 86: | ||
Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает количество инверсий в перестановке. | Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает количество инверсий в перестановке. | ||
− | Очевидно, что вероятность любой перестановки равна <tex> \ | + | Очевидно, что вероятность любой перестановки равна <tex> \dfrac{1}{n!} </tex> |
− | Тогда <tex> E\xi = \ | + | Тогда <tex> E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}{\xi^i} </tex> |
Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>. | Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>. | ||
− | Тогда <tex> A = (p_n, p_{n-1}, \dots, p_1) </tex> является | + | Тогда <tex> A = (p_n, p_{n-1}, \dots, p_1) </tex> является перевёрнутой перестановкой <tex> P </tex>. |
− | Докажем, что количество инверсий в этих двух перестановках равно <tex> \ | + | Докажем, что количество инверсий в этих двух перестановках равно <tex> \dfrac{n\cdot(n-1)}{2} </tex> |
− | Рассмотрим все пары <tex> 1 \leqslant i < j \leqslant n </tex>, таких пар всего <tex> \ | + | Рассмотрим все пары <tex> 1 \leqslant i < j \leqslant n </tex>, таких пар всего <tex> \dfrac{n\cdot(n-1)}{2} </tex>. Тогда пара этих чисел образуют инверсию или в <tex>P</tex>, или в <tex>A</tex>. Если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>P</tex>, то <tex>j</tex> будет стоять после <tex>i</tex> и уже не будет давать инверсию. Аналогично, если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>A</tex>. |
− | Всего таких пар из перестановки и перевернутой перестановки будет <tex> \ | + | Всего таких пар из перестановки и перевернутой перестановки будет <tex> \dfrac{n!}{2} </tex>. |
− | Итого: <tex> E\xi = \ | + | Итого: <tex> E\xi = \dfrac{1}{n!}\cdot\dfrac{n\cdot(n-1)}{2}\cdot\dfrac{n!}{2} = \dfrac{n\cdot(n-1)}{4} </tex> |
==Примеры распределений== | ==Примеры распределений== | ||
===Распределение Бернулли=== | ===Распределение Бернулли=== | ||
− | Случайная величина <tex> | + | Случайная величина <tex>\xi</tex> имеет распределение Бернулли, если она принимает всего два значения: <tex>1</tex> и <tex>0</tex> с вероятностями <tex>p</tex> и <tex>q \equiv 1-p</tex> соответственно. Таким образом: |
− | :<tex>P( | + | :<tex>P(\xi = 1) = p</tex> |
− | :<tex>P( | + | :<tex>P(\xi = 0) = q</tex> |
Тогда несложно догадаться, чему будет равно математическое ожидание: | Тогда несложно догадаться, чему будет равно математическое ожидание: | ||
− | :<tex>E( | + | :<tex>E(\xi) = 1 \cdot p + 0 \cdot q = p</tex> |
===Гипергеометрическое распределение=== | ===Гипергеометрическое распределение=== | ||
Строка 110: | Строка 118: | ||
Пусть имеется конечная совокупность, состоящая из <tex>N</tex> элементов. Предположим, что <tex>D</tex> из них обладают нужным нам свойством. Оставшиеся <tex>N-D</tex> этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из <tex>n</tex> элементов. Пусть <tex>a</tex> {{---}} случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности <tex>a</tex> имеет вид: | Пусть имеется конечная совокупность, состоящая из <tex>N</tex> элементов. Предположим, что <tex>D</tex> из них обладают нужным нам свойством. Оставшиеся <tex>N-D</tex> этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из <tex>n</tex> элементов. Пусть <tex>a</tex> {{---}} случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности <tex>a</tex> имеет вид: | ||
− | :<tex> | + | :<tex>P_\xi(k) \equiv P(\xi = k) = \dfrac{C_D^k \cdot C_{N-D}^{n-k}}{C_N^n}</tex>, |
− | где <tex>C_n^k \equiv \ | + | где <tex>C_n^k \equiv \dfrac{n!}{k! \cdot (n-k)!}</tex> обозначает биномиальный коэффициент. |
− | Гипергеометрическое распределение обозначается <tex> | + | Гипергеометрическое распределение обозначается <tex> \xi \sim \mathrm{HG}(D,N,n)</tex>. |
Формула математического ожидания для гипергеометрического распределения имеет вид: | Формула математического ожидания для гипергеометрического распределения имеет вид: | ||
− | :<tex>E( | + | :<tex>E(\xi) = \dfrac{n \cdot D}{N}</tex> |
− | == | + | ==См. также== |
+ | * [[Дискретная случайная величина]] | ||
* [[Дисперсия случайной величины]] | * [[Дисперсия случайной величины]] | ||
Текущая версия на 19:35, 4 сентября 2022
Содержание
Математическое ожидание случайной величины
Определение: |
Математическое ожидание (англ. mean value) | — мера среднего значения случайной величины, равная
Теорема: |
Доказательство: |
Пример
Пусть наше вероятностное пространство — «честная кость»
Свойства математического ожидания
Утверждение (о матожидании константы): |
, где — константа. |
Утверждение (о матожидании неравенств): |
Если , и — случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины также конечно, и . |
Утверждение (о матожидании случайной величины на событии вероятности нуль): |
Если , то . |
Утверждение (о матожидании двух независимых случайных величин): |
Если и — две независимые случайные величины, то |
Согласно определению математического ожидания, .По теореме, . Поэтому .Поскольку Тогда получаем, что и — независимые величины, . . |
Линейность математического ожидания
Теорема: |
Математическое ожидание линейно. |
Доказательство: |
|
Использование линейности
Рассмотрим три задачи.
Пример 1
Найти математическое ожидание суммы цифр на случайной кости домино.
Пусть
— случайная величина, которая возвращает первое число на кости домино, а — возвращает второе число. Очевидно, что . Посчитаем .
Получаем ответ
Пример 2
Пусть у нас есть строка
. Строка генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен , а длина строки .Рассмотрим случайные величины
— совпал ли у строк -тый символ. Найдем математическое ожидание этой величины где — -тые символы соответствующих строк. Так как появление каждого символа равновероятно, то .Итоговый результат:
Пример 3
Найти математическое ожидание количества инверсий на всех перестановках чисел от
до .Пусть
— случайная величина, которая возвращает количество инверсий в перестановке.Очевидно, что вероятность любой перестановки равна
Тогда
Пусть
является перестановкой чисел .Тогда
является перевёрнутой перестановкой .Докажем, что количество инверсий в этих двух перестановках равно
Рассмотрим все пары
, таких пар всего . Тогда пара этих чисел образуют инверсию или в , или в . Если стоит раньше в перестановке , то будет стоять после и уже не будет давать инверсию. Аналогично, если стоит раньше в перестановке .Всего таких пар из перестановки и перевернутой перестановки будет
.Итого:
Примеры распределений
Распределение Бернулли
Случайная величина
имеет распределение Бернулли, если она принимает всего два значения: и с вероятностями и соответственно. Таким образом:Тогда несложно догадаться, чему будет равно математическое ожидание:
Гипергеометрическое распределение
Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности.
Пусть имеется конечная совокупность, состоящая из
элементов. Предположим, что из них обладают нужным нам свойством. Оставшиеся этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из элементов. Пусть — случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности имеет вид:- ,
где
обозначает биномиальный коэффициент.Гипергеометрическое распределение обозначается
.Формула математического ожидания для гипергеометрического распределения имеет вид: