Математическое ожидание случайной величины — различия между версиями
(создал по материалу из других конспектов) |
м (rollbackEdits.php mass rollback) |
||
(не показано 49 промежуточных версий 11 участников) | |||
Строка 1: | Строка 1: | ||
==Математическое ожидание случайной величины== | ==Математическое ожидание случайной величины== | ||
{{Определение | {{Определение | ||
− | |definition='''Математическое ожидание'''(<tex>E\xi</tex> | + | |definition='''Математическое ожидание''' (англ. ''mean value'') <tex> \left( E\xi \right) </tex> {{---}} мера среднего значения случайной величины, равная <tex>E\xi = \sum \xi(\omega) \cdot p(\omega)</tex> |
}} | }} | ||
{{Теорема | {{Теорема | ||
− | |statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega)p(\omega) = \sum\limits_a a p(\xi = a)</tex> | + | |statement= <tex>\sum\limits_{\omega\epsilon\Omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex> |
− | |proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega)p(\omega) = \sum\limits_a a \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a p(\xi = a)</tex> | + | |proof= <tex>\sum\limits_a \sum\limits_{\omega|\xi(\omega) = a} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot \sum\limits_{\omega|\xi(\omega)=a}p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex> |
}} | }} | ||
− | ==Пример== | + | ===Пример=== |
− | Пусть наше вероятностное пространство | + | Пусть наше вероятностное пространство {{---}} «честная кость» |
<tex> \xi(i) = i </tex> | <tex> \xi(i) = i </tex> | ||
− | <tex> E\xi = 1\cdot 1 | + | <tex> E\xi = 1\cdot \dfrac{1}{6}+2\cdot \dfrac{1}{6} \dots +6\cdot \dfrac{1}{6} = 3.5</tex> |
+ | ==Свойства математического ожидания== | ||
+ | {{Утверждение | ||
+ | |about=о матожидании константы | ||
+ | |statement=<tex>E(a) = a</tex>, где <tex>a \in R</tex> {{---}} константа. | ||
+ | }} | ||
+ | |||
+ | {{Утверждение | ||
+ | |about=о матожидании неравенств | ||
+ | |statement=Если <tex>0 \leqslant \xi \leqslant \eta</tex>, и <tex>\eta</tex> {{---}} случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины <tex>\xi</tex> также конечно, и <tex>0 \leqslant E(\xi) \leqslant E(\eta)</tex>. | ||
+ | }} | ||
+ | |||
+ | {{Утверждение | ||
+ | |about=о матожидании случайной величины на событии вероятности нуль | ||
+ | |statement=Если <tex>\xi = \eta</tex>, то <tex>E(\xi) = E(\eta)</tex>. | ||
+ | }} | ||
+ | |||
+ | {{Утверждение | ||
+ | |about=о матожидании двух независимых случайных величин | ||
+ | |statement=Если <tex>\xi</tex> и <tex>\eta</tex> {{---}} две независимые случайные величины, то <tex>E(\xi \cdot \eta) = E(\xi) \cdot E(\eta)</tex> | ||
+ | |proof= | ||
+ | Согласно определению математического ожидания, <tex>E(\xi \cdot \eta) = \sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)</tex>. | ||
+ | |||
+ | По теореме, <tex>\sum\limits_{\omega} \xi(\omega) \cdot p(\omega) = \sum\limits_a a \cdot p(\xi = a)</tex>. Поэтому <tex>\sum\limits_{\omega} \xi(\omega)\cdot\eta(\omega)\cdot p(\omega)=\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b)</tex>. | ||
+ | |||
+ | Поскольку <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые величины, <tex>p(\xi = a,\eta = b) = p(\xi = a)\cdot p(\eta = b)</tex>. | ||
+ | |||
+ | Тогда получаем, что <tex>\sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a,\eta = b) = \sum\limits_a a \cdot \sum\limits_b b \cdot p(\xi = a)\cdot p(\eta = b)=\sum\limits_a a\cdot p(\xi=a) \cdot \sum\limits_b b \cdot p(\eta = b)=E(\xi) \cdot E(\eta)</tex>. | ||
+ | }} | ||
==Линейность математического ожидания== | ==Линейность математического ожидания== | ||
Строка 23: | Строка 51: | ||
Математическое ожидание <tex>E</tex> линейно. | Математическое ожидание <tex>E</tex> линейно. | ||
|proof= | |proof= | ||
− | + | # <tex>E(\xi + \eta) = {\sum_w \limits}(\xi(w) + \eta(w)) \cdot p(w) = \sum\limits_w \xi(w) \cdot p(w) + {\sum_w \limits}\eta(w) \cdot p(w) = E(\xi) + E(\eta) </tex> | |
− | + | # <tex>E(\alpha\xi) = {\sum_w \limits}\alpha\xi(w) = \alpha{\sum_w \limits}\xi(w) = \alpha E(\xi)</tex>, где <tex>\alpha</tex> {{---}} действительное число. | |
− | |||
}} | }} | ||
==Использование линейности== | ==Использование линейности== | ||
− | Рассмотрим | + | Рассмотрим три задачи. |
===Пример 1=== | ===Пример 1=== | ||
Найти математическое ожидание суммы цифр на случайной кости домино. | Найти математическое ожидание суммы цифр на случайной кости домино. | ||
− | Пусть <tex> \xi </tex> | + | Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает первое число на кости домино, а <tex> \eta </tex> {{---}} возвращает второе число. |
Очевидно, что <tex> E(\xi)= E(\eta)</tex>. | Очевидно, что <tex> E(\xi)= E(\eta)</tex>. | ||
Посчитаем <tex>E(\xi)</tex>. | Посчитаем <tex>E(\xi)</tex>. | ||
− | + | <tex>E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \dfrac{1}{7}=3</tex> | |
− | <tex> E(\xi)={\sum_{i=0}^6 \limits}i \cdot p(\xi=i)={\sum_{i=0}^6 \limits}i \cdot \ | ||
Получаем ответ | Получаем ответ | ||
Строка 46: | Строка 72: | ||
===Пример 2=== | ===Пример 2=== | ||
− | Пусть у нас есть строка s. Строка t генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен <tex>k</tex>, а длина строки <tex>n</tex>. | + | Пусть у нас есть строка <tex>s</tex>. Строка <tex>t</tex> генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен <tex>k</tex>, а длина строки <tex>n</tex>. |
− | Рассмотрим случайные величины <tex>\xi^i</tex> | + | Рассмотрим случайные величины <tex>\xi^i</tex> {{---}} совпал ли у строк <tex> i </tex>-тый символ. |
Найдем математическое ожидание этой величины | Найдем математическое ожидание этой величины | ||
− | <tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i])</tex> где <tex>s[i],t[i]</tex> | + | <tex>E(\xi^i)=0 \cdot p(\xi^i=0)+1 \cdot p(\xi^i=1)=p(s[i]=t[i]) \ </tex> где <tex>s[i],t[i]</tex> {{---}} <tex>i</tex>-тые символы соответствующих строк. |
− | Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\ | + | Так как появление каждого символа равновероятно, то <tex>p(s[i]=t[i])=\dfrac{1}{k}</tex>. |
+ | |||
+ | Итоговый результат: <tex>E(\xi)={\sum_{i=1}^n \limits}E(\xi^i)=\dfrac{n}{k} </tex> | ||
+ | |||
+ | ===Пример 3=== | ||
+ | Найти математическое ожидание количества инверсий на всех перестановках чисел от <tex>1</tex> до <tex>n</tex>. | ||
+ | |||
+ | Пусть <tex> \xi </tex> {{---}} случайная величина, которая возвращает количество инверсий в перестановке. | ||
+ | |||
+ | Очевидно, что вероятность любой перестановки равна <tex> \dfrac{1}{n!} </tex> | ||
+ | |||
+ | Тогда <tex> E\xi = \dfrac{1}{n!}\cdot{\sum_{i=1}^{n!} \limits}{\xi^i} </tex> | ||
+ | |||
+ | Пусть <tex> P = (p_1,p_2,\dots,p_n)</tex> является перестановкой чисел <tex> 1, 2,\dots, n</tex>. | ||
+ | |||
+ | Тогда <tex> A = (p_n, p_{n-1}, \dots, p_1) </tex> является перевёрнутой перестановкой <tex> P </tex>. | ||
+ | |||
+ | Докажем, что количество инверсий в этих двух перестановках равно <tex> \dfrac{n\cdot(n-1)}{2} </tex> | ||
+ | |||
+ | Рассмотрим все пары <tex> 1 \leqslant i < j \leqslant n </tex>, таких пар всего <tex> \dfrac{n\cdot(n-1)}{2} </tex>. Тогда пара этих чисел образуют инверсию или в <tex>P</tex>, или в <tex>A</tex>. Если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>P</tex>, то <tex>j</tex> будет стоять после <tex>i</tex> и уже не будет давать инверсию. Аналогично, если <tex>j</tex> стоит раньше <tex>i</tex> в перестановке <tex>A</tex>. | ||
+ | |||
+ | Всего таких пар из перестановки и перевернутой перестановки будет <tex> \dfrac{n!}{2} </tex>. | ||
+ | |||
+ | Итого: <tex> E\xi = \dfrac{1}{n!}\cdot\dfrac{n\cdot(n-1)}{2}\cdot\dfrac{n!}{2} = \dfrac{n\cdot(n-1)}{4} </tex> | ||
+ | |||
+ | ==Примеры распределений== | ||
+ | |||
+ | ===Распределение Бернулли=== | ||
+ | Случайная величина <tex>\xi</tex> имеет распределение Бернулли, если она принимает всего два значения: <tex>1</tex> и <tex>0</tex> с вероятностями <tex>p</tex> и <tex>q \equiv 1-p</tex> соответственно. Таким образом: | ||
+ | |||
+ | :<tex>P(\xi = 1) = p</tex> | ||
+ | :<tex>P(\xi = 0) = q</tex> | ||
+ | |||
+ | Тогда несложно догадаться, чему будет равно математическое ожидание: | ||
+ | :<tex>E(\xi) = 1 \cdot p + 0 \cdot q = p</tex> | ||
+ | |||
+ | ===Гипергеометрическое распределение=== | ||
+ | Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности. | ||
+ | |||
+ | Пусть имеется конечная совокупность, состоящая из <tex>N</tex> элементов. Предположим, что <tex>D</tex> из них обладают нужным нам свойством. Оставшиеся <tex>N-D</tex> этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из <tex>n</tex> элементов. Пусть <tex>a</tex> {{---}} случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности <tex>a</tex> имеет вид: | ||
+ | |||
+ | :<tex>P_\xi(k) \equiv P(\xi = k) = \dfrac{C_D^k \cdot C_{N-D}^{n-k}}{C_N^n}</tex>, | ||
+ | где <tex>C_n^k \equiv \dfrac{n!}{k! \cdot (n-k)!}</tex> обозначает биномиальный коэффициент. | ||
+ | |||
+ | Гипергеометрическое распределение обозначается <tex> \xi \sim \mathrm{HG}(D,N,n)</tex>. | ||
+ | |||
+ | Формула математического ожидания для гипергеометрического распределения имеет вид: | ||
+ | :<tex>E(\xi) = \dfrac{n \cdot D}{N}</tex> | ||
+ | |||
+ | ==См. также== | ||
+ | * [[Дискретная случайная величина]] | ||
+ | * [[Дисперсия случайной величины]] | ||
+ | |||
+ | == Источники информации == | ||
+ | * [http://ru.wikipedia.org/wiki/Математическое_ожидание Wikipedia {{---}} Математическое ожидание] | ||
+ | * [https://ru.wikipedia.org/wiki/Гипергеометрическое_распределение Wikipedia {{---}} Гипергеометрическое распределение] | ||
+ | * [https://ru.wikipedia.org/wiki/Распределение_Бернулли Wikipedia {{---}} Распределение Бернулли] | ||
+ | |||
− | + | [[Категория: Дискретная математика и алгоритмы]] | |
+ | [[Категория: Теория вероятности]] |
Текущая версия на 19:35, 4 сентября 2022
Содержание
Математическое ожидание случайной величины
Определение: |
Математическое ожидание (англ. mean value) | — мера среднего значения случайной величины, равная
Теорема: |
Доказательство: |
Пример
Пусть наше вероятностное пространство — «честная кость»
Свойства математического ожидания
Утверждение (о матожидании константы): |
, где — константа. |
Утверждение (о матожидании неравенств): |
Если , и — случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины также конечно, и . |
Утверждение (о матожидании случайной величины на событии вероятности нуль): |
Если , то . |
Утверждение (о матожидании двух независимых случайных величин): |
Если и — две независимые случайные величины, то |
Согласно определению математического ожидания, .По теореме, . Поэтому .Поскольку Тогда получаем, что и — независимые величины, . . |
Линейность математического ожидания
Теорема: |
Математическое ожидание линейно. |
Доказательство: |
|
Использование линейности
Рассмотрим три задачи.
Пример 1
Найти математическое ожидание суммы цифр на случайной кости домино.
Пусть
— случайная величина, которая возвращает первое число на кости домино, а — возвращает второе число. Очевидно, что . Посчитаем .
Получаем ответ
Пример 2
Пусть у нас есть строка
. Строка генерируется случайным образом так, что два подряд идущих символа неравны. Какое математическое ожидание количества совпавших символов? Считать что размер алфавита равен , а длина строки .Рассмотрим случайные величины
— совпал ли у строк -тый символ. Найдем математическое ожидание этой величины где — -тые символы соответствующих строк. Так как появление каждого символа равновероятно, то .Итоговый результат:
Пример 3
Найти математическое ожидание количества инверсий на всех перестановках чисел от
до .Пусть
— случайная величина, которая возвращает количество инверсий в перестановке.Очевидно, что вероятность любой перестановки равна
Тогда
Пусть
является перестановкой чисел .Тогда
является перевёрнутой перестановкой .Докажем, что количество инверсий в этих двух перестановках равно
Рассмотрим все пары
, таких пар всего . Тогда пара этих чисел образуют инверсию или в , или в . Если стоит раньше в перестановке , то будет стоять после и уже не будет давать инверсию. Аналогично, если стоит раньше в перестановке .Всего таких пар из перестановки и перевернутой перестановки будет
.Итого:
Примеры распределений
Распределение Бернулли
Случайная величина
имеет распределение Бернулли, если она принимает всего два значения: и с вероятностями и соответственно. Таким образом:Тогда несложно догадаться, чему будет равно математическое ожидание:
Гипергеометрическое распределение
Гипергеометрическое распределение в теории вероятностей моделирует количество удачных выборок без возвращения из конечной совокупности.
Пусть имеется конечная совокупность, состоящая из
элементов. Предположим, что из них обладают нужным нам свойством. Оставшиеся этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из элементов. Пусть — случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности имеет вид:- ,
где
обозначает биномиальный коэффициент.Гипергеометрическое распределение обозначается
.Формула математического ожидания для гипергеометрического распределения имеет вид: