Изменения
Изменил ссылку на статью про математическое ожидание, до этого переходила на "Дискретная случайная величина"
{{Определение|id =def1|definition = Определение ='''Дисперсией''' [[Дискретная случайная величина|случайной величины]] (англ. ''variance'') называется математическое ожидание квадрата отклонения этой случайной величины от ее математического ожидания: <tex>D \xi =E(\xi -E\xi)^2 </tex>, где <tex>\xi</tex> {{---}} случайная величина, а <tex>E</tex> {{---}} символ, обозначающий [[Дискретная случайная величина#Математическое ожидание случайной величины|математическое ожидание]]}}
{{Утверждение|statement=В силу [[ Линейность математического ожидания|линейности математического ожидания]] справедлива формула <tex>D \xi = Замечания E\xi^2 - (E\xi)^2</tex>|proof=<tex>D \xi =E(\xi - E\xi)^2 = E(\xi^2 -2(E\xi)\xi + (E\xi)^2) = </tex><tex>= E\xi^2 + (E\xi)^2 - 2(E\xi)E\xi = E\xi^2 - (E\xi)^2 </tex>}}
== Линейность == {{Теорема|statement=Если <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые случайные величины, то: <tex>D(\xi + \eta) = D\xi + D\eta</tex>|proof=* В силу линейности математического ожидания справедлива формулаИз определения:*: <tex>D[X] (\xi + \eta) = M[XE(\xi + \eta - E(\xi + \eta))^2] = E(\xi - E\leftxi + \eta - E\eta)^2 =</tex> : <tex> = E(\xi - E\xi)^2 + 2E((\xi - E(M[X]\rightxi)(\eta - E\eta)) + E(\eta - E\eta)^2;= D\xi + D\eta + 2(E\xi\eta - E\xi E\eta))</tex> * При этом, <tex>E\xi\eta - E\xi E\eta = 0</tex>, так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые случайные величины.:Действительно, : <tex>E\xi\eta = {\sum_{a, b} \limits} abP(\xi = a, \eta = b) = {\sum_{a, b} \limits} abP(\xi = a)P(\eta = b) =</tex> <tex> {\sum_{a} \limits} aP(\xi = a) {\sum_{b} \limits} bP(\eta = b) = E\xi E\eta</tex>}}
== Свойства ==
* Дисперсия любой [[Дискретная случайная величина|случайной величины]] неотрицательна: <tex>D\xi \geqslant 0</tex>
* Если дисперсия случайной величины конечна, то конечно и её [[Дискретная случайная величина#Математическое ожидание случайной величины|математическое ожидание]]
* Если случайная величина равна константе, то её дисперсия равна нулю: <tex>Da = 0</tex>
* Дисперсия суммы двух случайных величин равна:
*: <tex>\! D(\xi \pm \psi) = D\xi + D\psi \pm 2\,\text{Cov}(\xi, \psi)</tex>, где <tex>\! \text{Cov}(\xi, \psi)</tex> {{---}} их [[Ковариация случайных величин|ковариация]]
* <tex>D (a\xi) = a^2D\xi</tex>, где <tex>a</tex> {{---}} константа. В частности, <tex>D(-\xi) = D\xi</tex>
* <tex>D(\xi+b) = D\xi</tex>, где <tex>b</tex> {{---}} константа.
== Связь с центральным моментом ==
{{Определение
|id = def1
|definition=<b>Центральным моментом</b> (англ. ''central moment'') <tex>k</tex>-ого порядка случайной величины <tex>\xi</tex> называется величина <tex>\mu_k</tex>, определяемая формулой <tex>\mu_k = E(\xi -E\xi)^k</tex>.
}}
Заметим, что если <tex>k</tex> равно двум, то <tex>\mu_2 = E(\xi -E\xi)^2 = D \xi</tex>.
Таким образом, дисперсия является центральным моментом второго порядка.