Ковариация случайных величин — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Неравенство Коши — Буняковского)
(Свойства ковариации)
Строка 23: Строка 23:
 
: <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)</tex>.
 
: <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)</tex>.
 
{{Утверждение
 
{{Утверждение
|statement=Если <tex>\eta,\xi</tex> независимые случайные величины, то
+
|statement=Если <tex>\eta,\xi</tex> [[Независимые события|независимые случайные величины]], то
 
: <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>.
 
: <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>.
 
|proof=
 
|proof=
:<tex>\mathrm{Cov}(\xi, \eta) = E((\xi - E\xi)(\eta - E\eta)) = E(\xi\eta - \eta E\xi - \xi E\eta + E\xi E\eta) = </tex>
+
:<tex>\mathrm{Cov}(\xi, \eta) = E(\xi\eta) - E\xi E\eta </tex>, а так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые, то [[Математическое ожидание случайной величины#.D0.A1.D0.B2.D0.BE.D0.B9.D1.81.D1.82.D0.B2.D0.B0_.D0.BC.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.BE.D0.B3.D0.BE_.D0.BE.D0.B6.D0.B8.D0.B4.D0.B0.D0.BD.D0.B8.D1.8F|математическое ожидание их произведения]], равно произведению их математических ожиданий:
:<tex>=E(\xi\eta) - 2E\xi E\eta + E\xi E\eta = E(\xi\eta) - E\xi E\eta </tex>, а так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые, то <tex>E(\xi\eta) = E\xi E\eta </tex>, а значит
+
:<tex>E(\xi\eta) = E\xi\cdot E\eta, а значит
 
:<tex> \mathrm{Cov}(\xi, \eta) = 0 </tex>
 
:<tex> \mathrm{Cov}(\xi, \eta) = 0 </tex>
 
}}
 
}}

Версия 01:13, 1 марта 2016

Определение:
Пусть [math]\eta,\xi[/math] — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда ковариацией случайных величин (англ. covariance) [math]\eta[/math] и [math]\xi[/math] называется выражение следующего вида:
[math]\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)(\xi-E\xi)\big)[/math].


Вычисление

В силу линейности математического ожидания, ковариация может быть записана как:

[math]\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)(\eta - E\eta)\big) = E(\xi\eta - \eta E\xi + E\xi E\eta - \xi E\eta) = [/math]
[math]= E(\xi\eta) - E\xi E\eta - E\xi E\eta + E\xi E\eta = E(\xi\eta) - E\xi E\eta [/math]

Итого, [math]\mathrm{Cov}(\eta, \xi) = E(\xi\eta) - E\xi E\eta [/math]

Свойства ковариации

  • Ковариация симметрична:
[math]\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)[/math].
  • Пусть [math]\eta_1,\ldots, \eta_n[/math] случайные величины, а [math]\xi_1 = \sum\limits_{i=1}^n a_i \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \eta_j[/math] их две произвольные линейные комбинации. Тогда
[math]\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i b_j \mathrm{Cov}(\eta_i,\eta_j)[/math].
  • Ковариация случайной величины с собой равна её дисперсии:
[math]\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)[/math].
Утверждение:
Если [math]\eta,\xi[/math] независимые случайные величины, то
[math]\mathrm{Cov}(\eta,\xi) = 0[/math].
[math]\triangleright[/math]
[math]\mathrm{Cov}(\xi, \eta) = E(\xi\eta) - E\xi E\eta [/math], а так как [math]\xi[/math] и [math]\eta[/math] — независимые, то математическое ожидание их произведения, равно произведению их математических ожиданий:
[math]E(\xi\eta) = E\xi\cdot E\eta, а значит :\lt tex\gt \mathrm{Cov}(\xi, \eta) = 0 [/math]
[math]\triangleleft[/math]
Утверждение:
Если [math]\mathrm{Cov}(\eta, \xi) = 0[/math], то [math]\eta[/math] и [math]\xi[/math] не обязательно являются независимыми
[math]\triangleright[/math]

Пусть задано вероятностное пространство с четырьмя равновероятными элементарными исходами. Возьмем на этом пространстве следующую случайную величину: [math] \eta [/math]

[math] \eta(w_{1}) = -2 [/math]

[math]\eta(w_{2} ) = -1[/math]

[math]\eta(w_{3} ) = 1 [/math]

[math]\eta(w_{4} ) = 2 [/math]

Тогда пусть случайная величная [math] \xi(w) = \eta ^ {2} (w)[/math]. Эти две величины не являются независимыми (достаточно проверить это при [math] a = 1 , b = 1 [/math]). Найдем их ковариацию:

[math] \mathrm{Cov}(\eta, \xi) = E(\eta\cdot\xi) - E\eta \cdot E\xi = [/math] [math]\sum \limits_{i=1}^{4} (\eta(w_{i})\cdot \xi(w_{i}) \cdot p(w_{i})) - (\sum \limits_{j=1}^{4} \eta(w_{i}) \cdot p(w_{i})) \cdot (\sum \limits_{k=1}^{4} \xi(w_{i})\cdot p(w_{i}) ) = [/math]

[math]= \frac{1}{4} \cdot ( (-2)\cdot4 + (-1)\cdot1 + 1\cdot1 + 2\cdot4 ) - \frac{1}{8}\cdot( (-2) + (-1) + 1 + 2 )(4 + 1 + 1 + 4) = 0 [/math]

Как видно [math] \mathrm{Cov}(\eta, \xi) = 0 [/math], но [math]\eta[/math] и [math]\xi[/math] не являются независимыми случайными величинами.
[math]\triangleleft[/math]

Неравенство Коши — Буняковского

Утверждение:
Ковариация есть скалярное произведение двух случайных величин
[math]\triangleright[/math]

Докажем три аксиомы скалярного произведения:

1. Линейность по первому аргументу: [math] \mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi) = \mathrm{Cov}( \mu_{1}\cdot\eta, \xi) + \mathrm{Cov}( \mu_{2}\cdot\eta, \xi)[/math]
Раскроем ковариацию по определению:
[math]\mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi) = E( ( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}) \cdot \xi ) - E( \mu_{1}\cdot\eta_{2} + \mu_{2}\cdot\eta_{2} )\cdot E\xi [/math]
В силу линейности математического ожидания:
[math] E(\mu_{1}\cdot\eta_{1}\cdot\xi) + E(\mu_{2}\cdot\eta_{2}\cdot\xi) - E(\mu_{1}\cdot\eta_{1})\cdot E\xi - E(\mu_{2}\cdot\eta_{2})\cdot E\xi = \mu_{1}( E(\eta_{1}\cdot\xi) - E\eta_{1}\cdot E\xi ) + \mu_{2}( E(\eta_{2}\cdot\xi) - E\eta_{2}\cdot E\xi ) = \mu_{1} \cdot \mathrm{Cov}(\eta_{1}, \xi) + \mu_{2} \cdot \mathrm{Cov}(\eta_{2}, \xi) [/math]


2. Симметричность: [math] \mathrm{Cov}(\eta, \xi) = E(\eta\cdot\xi) - E\eta \cdot E\xi = \mathrm{Cov}(\xi, \eta)[/math]


3. Положительная определенность: [math] \mathrm{Cov}(\eta, \eta) = D(\eta) = E(\eta - E\eta)^2 [/math]


[math] \mathrm{Cov} [/math] удовлетвотряет трем аксиомам, а значит [math] \mathrm{Cov} [/math] можно использовать в качестве скалярного произведения.
[math]\triangleleft[/math]


Теорема (неравенство Коши — Буняковского):
Если принять в качестве скалярного произведения двух случайных величин ковариацию [math]\langle \eta, \xi \rangle = \mathrm{Cov} (\eta, \xi)[/math], то квадрат нормы случайной величины будет равен дисперсии [math] ||\eta||^2 = D [ \eta ], [/math] и неравенство Коши-Буняковского запишется в виде:
[math]\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi][/math].
Доказательство:
[math]\triangleright[/math]

Для этого предположим, что [math] t [/math] — некоторое вещественное число, и рассмотрим очевидное неравенство

[math] E((V+tW)^2) \geqslant 0 [/math], где [math] V = \eta - E\eta [/math] и [math] W = \xi - E\xi [/math].

Используя линейность математического ожидания, мы получаем такое неравенство:

[math] E(V^2)+2tE(VW)+t^2E(W^2) \geqslant 0 [/math]

Обратим внимание, что левая часть является квадратным трехчленом, зависимым от [math] t [/math].

Мы имеем:

[math] E(V^2)=\sigma_\eta ^2[/math], [math] E(W^2)=\sigma_\xi ^2[/math] и [math] E(VW)=\mathrm{Cov}(\eta,\xi); [/math]

Итак, наш квадратный трехчлен выглядит следующим образом:

[math]\sigma_\xi ^2t^2+2\mathrm{Cov}(\eta,\xi)t+\sigma_\eta ^2 \geqslant 0[/math]

Для того, чтобы неравенство выполнялось для всех значений [math]t[/math], дискриминант должен быть неположительным, то есть:

[math] 4\mathrm{Cov}^2(\eta,\xi)-4\sigma_\eta ^2\sigma_\xi ^2 \leqslant 0[/math]

[math]\mathrm{Cov}^2(\eta,\xi) \leqslant \sigma_\eta ^2\sigma_\xi ^2[/math]

[math]\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi][/math]
[math]\triangleleft[/math]

См. также

Источники информации