Изменения

Перейти к: навигация, поиск

Ковариация случайных величин

255 байт добавлено, 00:05, 27 февраля 2016
Нет описания правки
{{Определение
|definition=
<b>Ковариация случайных величин (covariance)</b>: пусть Пусть <tex>\eta,\xi</tex> {{---}} две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом<b>ковариацией случайных величин</b> (англ. ''covariance'') <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:: <tex>\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)(\xi-E\xi)\big)</tex>.
}}
В силу линейности математического ожидания, ковариация может быть записана как:
:<tex>\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)(\eta - E\eta)\big) = E(\xi\eta - \eta E\xi + E\xi E\eta - \xi E\eta) = </tex>
:<tex>= E(\xi\eta) - E\xi E\eta - E\xi E\eta + E\xi E\eta = E(\xi\eta) - E\xi E\eta </tex>
Итого, <tex>\mathrm{Cov}(\eta, \xi) = E(\xi\eta) - E\xi E\eta </tex>
== Свойства ковариации ==
* Ковариация симметрична:
: <tex>\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)</tex>.
* Пусть <tex>\eta_1,\ldots, \eta_n</tex> случайные величины, а <tex>\xi_1 = \sum\limits_{i=1}^n a_i \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \eta_j</tex> их две произвольные линейные комбинации. Тогда
: <tex>\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i b_j Cov(\eta_i,\eta_j)</tex>.
* Ковариация случайной величины с собой равна её дисперсии:
: <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D[\eta]</tex>.
* Если <tex>\eta,\xi</tex> независимые случайные величины, то
: <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>.
{{Утверждение
|statement=
Если <tex>\mathrm{Cov}(\eta, \xi) = 0</tex>, то <tex>\eta</tex> и <tex>\xi</tex> не обязательно являются [[Независимые случайные величины#Определения | независимыми]]
|proof=
Пусть задано [[Вероятностное пространство, элементарный исход, событие#Основные определения | вероятностное пространство]] с четырьмя равновероятными элементарными исходами. Возьмем на этом пространстве следующую [[Дискретная случайная величина | случайную величину]]: <tex> \eta </tex>
<tex>\eta(w_{4} ) = 2 </tex>
Тогда пусть случайная величная <tex> \xi(w) = \eta ^ {2} (w)</tex>. Эти две величины не являются [[Независимые случайные величины#Определения | независимыми]](достаточно проверить это при <tex> a = 1 , b = 1 </tex>). Найдем их ковариацию:
<tex>
\mathrm{Cov}(\eta, \xi) = E(\eta\cdot\xi) - E\eta \cdot E\xi = </tex> <tex>\sum \limits_{i=1}^{4} (\eta(w_{i})\cdot \xi(w_{i}) \cdot p(w_{i})) - (\sum \limits_{j=1}^{4} \eta(w_{i}) \cdot p(w_{i})) \cdot (\sum \limits_{k=1}^{4} \xi(w_{i})\cdot p(w_{i}) ) = </tex>
<tex>= \sum \limits_frac{i=1}^{4} \cdot ( (-2)\etacdot4 + (w_{i}-1)\cdot cdot1 + 1\xi(w_{i}) cdot1 + 2\cdot p(w_{i})cdot4 ) - (\sum \limits_frac{j=1}^{48} \etacdot(w_{i}(-2) \cdot p+ (w_{i}-1)+ 1 + 2 ) \cdot (\sum \limits_{k=4 + 1 + 1}^{+ 4} \xi(w_{i})\cdot p(w_{i}) ) = 0 </tex>
Как видно <tex>\fracmathrm{1Cov}{4} \cdot ( (-2)\cdot4 + (-1)\cdot1 + 1\cdot1 + 2\cdot4 ) - \frac{1}{8}\cdot( (-2) + (-1) + 1 + 2 )(4 + 1 + 1 + 4) = 0 </tex> Как видно <tex> Cov(\eta, \xi) = 0 </tex>, но <tex>\eta</tex> и <tex>\xi</tex> не являются независимыми случайными величинами.
}}
1. Линейность по первому аргументу:
<tex> \mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi) = \mathrm{Cov}( \mu_{1}\cdot\eta, \xi) + \mathrm{Cov}( \mu_{2}\cdot\eta, \xi)</tex>
Раскроем ковариацию по определению:
<tex>\mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi) = E( ( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}) \cdot \xi ) - E( \mu_{1}\cdot\eta_{2} + \mu_{2}\cdot\eta_{2} )\cdot E\xi </tex>
В силу [[Математическое ожидание случайной величины#Линейность математического ожидания | линейности математического ожидания]]:
<tex>
E(\mu_{1}\cdot\eta_{1}\cdot\xi) +
E(\mu_{2}\cdot\eta_{2}\cdot\xi) -
E(\mu_{1}\cdot\eta_{1})\cdot E\xi -
E(\mu_{2}\cdot\eta_{2})\cdot E\xi =
\mu_{1}( E(\eta_{1}\cdot\xi) - E\eta_{1}\cdot E\xi ) +
\mu_{2}( E(\eta_{2}\cdot\xi) - E\eta_{2}\cdot E\xi ) = \mu_{1} \cdot \mathrm{Cov}(\eta_{1}, \xi) + \mu_{2} \cdot \mathrm{Cov}(\eta_{2}, \xi)
</tex>
2. Симметричность:
<tex> \mathrm{Cov}(\eta, \xi) = E(\eta\cdot\xi) - E\eta \cdot E\xi = \mathrm{Cov}(\xi, \eta)</tex>
3. Положительная определенность:
<tex> \mathrm{Cov}(\eta, \eta) = D(\eta) = E(\eta - E\eta)^2 </tex>
<tex> \mathrm{Cov } </tex> удовлетвотряет трем аксиомам, значит <tex> \mathrm{Cov } </tex> можно использовать в качестве скалярного произведения.
}}
неравенство Коши — Буняковского
| statement =
Если принять в качестве скалярного произведения двух случайных величин ковариацию <tex>\langle \eta, \xi \rangle = \mathrm{Cov } (\eta, \xi)</tex>, то квадрат нормы случайной величины будет равен дисперсии <tex> ||\eta||^2 = D [ \eta ], </tex> и <b>неравенство Коши-Буняковского</b> запишется в виде:: <tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]</tex>.
|proof= Для этого предположим, что <tex> t </tex> {{---}} некоторое вещественное число, и рассмотрим очевидное неравенство
Мы имеем:
<tex> E(V^2)=\sigma_\eta ^2</tex>, <tex> E(W^2)=\sigma_\xi ^2</tex> и <tex> E(VW)=\mathrm{Cov}(\eta,\xi); </tex>
Итак, наш квадратный трехчлен выглядит следующим образом:
<tex>\sigma_\xi ^2t^2+2Cov2\mathrm{Cov}(\eta,\xi)t+\sigma_\eta ^2 \geqslant 0</tex>
Для того, чтобы неравенство выполнялось для всех значений <tex>t</tex>, дискриминант должен быть неположительным, то есть:
<tex> 4Cov4\mathrm{Cov}^2(\eta,\xi)-4\sigma_\eta ^2\sigma_\xi ^2 \leqslant 0</tex> <tex>Cov^2(\eta,\xi) \leqslant \sigma_\eta ^2\sigma_\xi ^2</tex>
<tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[sigma_\eta] ^2\cdot \mathrm{D}[sigma_\xi]^2</tex>
что и требовалось доказать. <tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]</tex>
}}
Анонимный участник

Навигация