Изменения

Перейти к: навигация, поиск

Ковариация случайных величин

298 байт добавлено, 21:46, 4 марта 2018
м
Fix ticket
|definition=
Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная случайная величина|случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда <b>ковариацией случайных величин</b> (англ. ''covariance'') <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:
: <tex>\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)\cdot(\xi-E\xi)\big)</tex>.
}}
В силу линейности математического ожидания, ковариация может быть записана как:
:<tex>\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)\cdot(\eta - E\eta)\big) = E(\xi\cdot \eta - \eta \cdot E\xi + E\xi \cdot E\eta - \xi \cdot E\eta) = </tex>:<tex>= E(\xi\cdot \eta) - E\xi \cdot E\eta - E\xi \cdot E\eta + E\xi \cdot E\eta = E(\xi\cdot \eta) - E\xi \cdot E\eta </tex>
Итого, <tex>\mathrm{Cov}(\eta, \xi) = E(\xi\cdot \eta) - E\xi \cdot E\eta </tex>
== Свойства ковариации ==
* Ковариация симметрична:
: <tex>\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)</tex>.
* Пусть <tex>\eta_1,\ldots, \eta_n</tex> случайные величины, а <tex>\xi_1 = \sum\limits_{i=1}^n a_i \cdot \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \cdot \eta_j</tex> их две произвольные линейные комбинации. Тогда: <tex>\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i \cdot b_j \cdot \mathrm{Cov}(\eta_i,\eta_j)</tex>.
* Ковариация случайной величины с собой равна её дисперсии:
: <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)</tex>.
: <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>.
|proof=
:<tex>\mathrm{Cov}(\xi, \eta) = E(\xi\cdot \eta) - E\xi \cdot E\eta </tex>, а так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые, то [[Математическое ожидание случайной величины#.D0.A1.D0.B2.D0.BE.D0.B9.D1.81.D1.82.D0.B2.D0.B0_.D0.BC.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.BE.D0.B3.D0.BE_.D0.BE.D0.B6.D0.B8.D0.B4.D0.B0.D0.BD.D0.B8.D1.8F|математическое ожидание их произведения]], равно произведению их математических ожиданий::<tex>E(\xi\cdot \eta) = E\xi\cdot E\eta </tex>, а значит
:<tex> \mathrm{Cov}(\xi, \eta) = 0 </tex>
}}
|proof= Для этого предположим, что <tex> t </tex> {{---}} некоторое вещественное число, и рассмотрим очевидное неравенство
<tex> E((V+tWt \cdot W)^2) \geqslant 0 </tex>, где <tex> V = \eta - E\eta </tex> и <tex> W = \xi - E\xi </tex>.
Используя линейность математического ожидания, мы получаем такое неравенство:
<tex> E(V^2)+2tE2 \cdot t \cdot E(VWV \cdot W)+t^2E2 \cdot E(W^2) \geqslant 0 </tex>
Обратим внимание, что левая часть является квадратным трехчленом, зависимым от <tex> t </tex>.
Мы имеем:
<tex> E(V^2)=\sigma_\eta ^2</tex>, <tex> E(W^2)=\sigma_\xi ^2</tex> и <tex> E(VWV \cdot W)=\mathrm{Cov}(\eta,\xi); </tex>
Итак, наш квадратный трехчлен выглядит следующим образом:
<tex>\sigma_\xi ^2t2 \cdot t^2+2\cdot \mathrm{Cov}(\eta,\xi)\cdot t+\sigma_\eta ^2 \geqslant 0</tex>
Для того, чтобы неравенство выполнялось для всех значений <tex>t</tex>, дискриминант должен быть неположительным, то есть:
<tex> 4\cdot \mathrm{Cov}^2(\eta,\xi)-4\cdot \sigma_\eta ^2\cdot \sigma_\xi ^2 \leqslant 0</tex>
<tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \sigma_\eta ^2\cdot \sigma_\xi ^2</tex>
<tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]</tex>
|definition=
Пусть <tex>\xi, \eta</tex> {{---}} случайные вектора размерности <tex>n</tex> и <tex>m</tex> соответственно. <tex>\xi_i, \eta_j</tex> {{---}} случайные величины. Тогда матрицей ковариаций векторов <tex>\xi, \eta</tex> называется
: <tex>\Sigma = \mathrm{Cov}(\xi, \eta) = E((\xi - E\xi)\cdot (\eta - E\eta)^{\top})</tex>
}}
Например, ковариационная матрица для случайного вектора <tex>\xi</tex> выглядит следующим образом:
\Sigma
= \begin{bmatrix}
\mathrm{E}((\xi_1 - E\xi_1)\cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_1 - E\xi_1)\cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_1 - E\xi_1)\cdot (\xi_n - E\xi_n)) \\ \\ \mathrm{E}((\xi_2 - E\xi_2)\cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_2 - E\xi_2)\cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_2 - E\xi_2)\cdot(\xi_n - E\xi_n)) \\ \\
\vdots & \vdots & \ddots & \vdots \\ \\
\mathrm{E}((\xi_n - E\xi_n)\cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_n - E\xi_n)\cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_n - E\xi_n)\cdot (\xi_n - E\xi_n))
\end{bmatrix}.
</tex>
{{Определение
|definition=
Пусть <tex>\xi = (\xi_1, \xi_2, \xi_3, \ldots, \xi_n)^{\top}</tex> {{---}} многомерный вектор, <tex>\Sigma</tex> {{---}} матрица ковариации, тогда <b>расстояние Махаланобиса</b> от <tex>\xi</tex> до множества со средним значением <tex>\mu = (\mu_1, \mu_2, \mu_3, \ldots, \mu_n)^{\top}</tex> определяется как <tex> D_M (\xi) = \sqrt{(\xi - \mu)\cdot \Sigma (\xi - \mu)^{\top}}</tex>
}}
286
правок

Навигация