Корреляция случайных величин — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Свойства корреляции)
(Свойства корреляции)
Строка 24: Строка 24:
  
 
|proof=
 
|proof=
Для доказательства используем свойства [[Ковариация_случайных_величин|ковариации]]
+
Для доказательства будем использовать свойство [[Ковариация_случайных_величин|ковариации]]:
 +
 
 
<tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex>
 
<tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex>
из этого выходит <tex dpi = "150"> {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex>
 
  
при условии, что знаменатель не обращается в нуль.
+
Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству:
 +
 
 +
<tex dpi = "150"> {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex>
  
 
<tex>Corr^2(\eta,\xi) \le 1</tex>  
 
<tex>Corr^2(\eta,\xi) \le 1</tex>  
Строка 41: Строка 43:
  
 
|proof=
 
|proof=
Для доказательства используем доказательство свойства [[Ковариация_случайных_величин|ковариации]].   
+
Для доказательства будем использовать доказательство свойства [[Ковариация_случайных_величин|ковариации]].   
Так как у нас <tex> Corr(\eta, \xi) = \pm 1 </tex>
+
Так как <tex> Corr(\eta, \xi) = \pm 1 </tex>, т.е. <tex>Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex>
то это означает, что <tex>Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex>
 
равенство на этом неравенстве <tex>\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2 \ge 0</tex>  выполняется только при условии, что дискриминант равен нулю т.е. имеет один корень <tex> t_0 </tex>.
 
  
Из этого выходит <tex> E((\xi-E\xi +t_0 \eta - t_0 E\eta))=E((V + t_0 W)^2) = 0 </tex>
+
Получаем, что в неравенстве <tex>\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2 \ge 0</tex> должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень <tex> t_0 </tex>.
это может произойти только в одном случае, если <tex> \xi-E\xi +t_0 \eta - t_0 E\eta = 0</tex>;
 
  
Ясно, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
+
Из этого следует, что <tex> E((\xi-E\xi +t_0 \eta - t_0 E\eta))=E((V + t_0 W)^2) = 0 </tex>
 +
 
 +
Это возможно только тогда, когда <tex> \xi-E\xi +t_0 \eta - t_0 E\eta = 0</tex>;
 +
 
 +
Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
 
}}
 
}}
  
Строка 57: Строка 60:
  
 
|proof=
 
|proof=
Предположим <tex>\xi = k \eta + b</tex>.
+
Предположим, что <tex>\xi = k \eta + b</tex>.
Следовательно, мы имеем <tex>E\xi=kE\eta + b</tex>; и так
+
Тогда мы имеем <tex>E\xi=kE\eta + b</tex>
 +
 
 
<tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>.
 
<tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>.
  
Кроме того, по свойствам дисперсии,
+
По свойству дисперсии <tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex>
<tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex>
 
  
Из этого следует
+
Получаем, что
 
<tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>,
 
<tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>,
  
это равно <tex>\pm 1</tex>, зависит от знака <tex>k</tex>.
+
что и требовалось доказать.
 
}}
 
}}
  
 
{{Утверждение
 
{{Утверждение
 
|statement=
 
|statement=
Если <tex>\eta,\xi</tex> независимые случайные величины, то
+
Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>Corr(\eta,\xi) = 0</tex>.
: <tex>Corr(\eta,\xi) = 0</tex>.
 
 
|proof=
 
|proof=
 
Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:
 
Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:

Версия 01:08, 13 января 2013

Определение

Определение:
Корреляция случайных величин: пусть [math]\eta,\xi[/math] — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их корреляция определяется следующим образом:
[math]Corr(\eta,\xi)={Cov(\eta,\xi) \over \sigma_{\eta} \times \sigma_{\xi}}[/math], где [math]\sigma_{\eta}=\sqrt{D(\eta)}[/math] называется среднеквадратичным отклонением и равно квадратному корню из дисперсии, а [math]Cov(\eta,\xi)[/math] - ковариацией случайных величин


Вычисление

Заметим, что [math]\sigma_{\xi} = \sqrt{D(\xi)} = E\big((\xi-E(\xi))^2\big)[/math]

[math]Corr(\eta,\xi)={Cov(\eta,\xi) \over \sigma_{\eta} \times \sigma_{\xi}} = {E\big((\eta-E\eta)(\xi-E\xi)\big) \over {\sqrt{D(\eta)} \times \sqrt{D(\xi)}}} ={E(\xi \times \eta) - E(\xi) \times E(\eta) \over {\sigma_{\eta} \times \sigma_{\xi}}}[/math]

Свойства корреляции

Утверждение:
Корреляция симметрична:
[math]Corr(\eta,\xi) = Corr(\xi,\eta)[/math].
[math]\triangleright[/math]
[math]Corr(\eta,\xi) = { E(\eta \times \xi) - E(\eta) \times E(\xi) \over \sqrt{D(\eta)} \times \sqrt{D(\xi)} } = { E(\xi \times \eta) - E(\xi) \times E(\eta) \over \sqrt{D(\xi)} \times \sqrt{D(\eta)} } = Corr(\xi,\eta)[/math]
[math]\triangleleft[/math]
Утверждение:
Корреляция лежит на отрезке [math][-1, 1][/math]:
[math]\triangleright[/math]

Для доказательства будем использовать свойство ковариации:

[math]Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2[/math]

Если правая часть не равна [math]0[/math], то приходим к следующему неравенству:

[math] {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1[/math]

[math]Corr^2(\eta,\xi) \le 1[/math]

[math]-1 \le Corr(\eta,\xi) \le 1[/math]
[math]\triangleleft[/math]
Утверждение:
Если [math] Corr(\eta, \xi) = \pm 1 [/math], то [math]\eta[/math] и [math]\xi[/math] линейно зависимы
[math]\triangleright[/math]

Для доказательства будем использовать доказательство свойства ковариации. Так как [math] Corr(\eta, \xi) = \pm 1 [/math], т.е. [math]Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2[/math]

Получаем, что в неравенстве [math]\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2 \ge 0[/math] должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень [math] t_0 [/math].

Из этого следует, что [math] E((\xi-E\xi +t_0 \eta - t_0 E\eta))=E((V + t_0 W)^2) = 0 [/math]

Это возможно только тогда, когда [math] \xi-E\xi +t_0 \eta - t_0 E\eta = 0[/math];

Видим, что [math]\eta[/math] и [math]\xi[/math] линейно зависимы.
[math]\triangleleft[/math]
Утверждение:
Если [math]\eta[/math] и [math]\xi[/math] линейно зависимы, то [math]Corr(\eta, \xi)= \pm 1 [/math].
[math]\triangleright[/math]

Предположим, что [math]\xi = k \eta + b[/math]. Тогда мы имеем [math]E\xi=kE\eta + b[/math]

[math] Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 [/math].

По свойству дисперсии [math] \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 [/math]

Получаем, что [math]Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}[/math],

что и требовалось доказать.
[math]\triangleleft[/math]
Утверждение:
Если [math]\eta,\xi[/math] независимые случайные величины, то [math]Corr(\eta,\xi) = 0[/math].
[math]\triangleright[/math]

Пусть [math]\eta[/math] и [math]\xi[/math] - независимые величины. Тогда [math]E(\eta \times \xi)=E(\eta) \times E(\xi)[/math], где [math]E[/math] - их математическое ожидание. Получаем:

[math]Corr(\eta, \xi) = {E(\xi) \times E(\eta) - E(\xi) \times E(\eta) \over {E\big((\eta-E(\eta))^2\big) \times E\big((\xi-E(\xi))^2\big)}} = 0[/math]

Но обратное неверно:

Пусть [math]\eta[/math] - случайная величина, распределенная симметрично около 0, а [math]\xi=\eta^2[/math]. [math]Corr(\eta,\xi)=0[/math], но [math]\eta[/math] и [math]\xi[/math] - зависимые величины.
[math]\triangleleft[/math]

Примеры

В общем смысле корреляция - это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.

Определение корреляции по диаграмме

3 диаграммы рассеивания двух случайных величин X и Y

1. Соответственно, на первом графике изображена положительная корреляция, когда увеличение Y ведет к постепенному увеличению X.

2. Второй график отображает отрицательную корреляцию, когда увеличение X воздействует на постепенное уменьшение Y.

3. Третий график показывает, что X и Y связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет равна 0.

Определение корреляции по таблице

Рассмотрим 2 случайные величины: курс акций нефтедобывающей компании (X) и цены на нефть (Y).

X 2003,6 2013,2 2007,6 2007,4 2039,9 2025 2007 2017 2015,6 2011
Y 108,4 107,96 108,88 110,44 110,2 108,97 109,15 108,8 111,2 110,23

Для упрощения вычислений определим X и Y как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:

[math]E(X) = 2014,73[/math]

[math]E(Y) = 109,42[/math]

[math]D(X) = 104,9361[/math]

[math]D(Y) = 0,959661[/math]

Используя формулу, [math]Corr(\eta,\xi)={E(\xi \times \eta) - E(\xi) \times E(\eta) \over {\sigma_{\eta} \times \sigma_{\xi}}}[/math] определяем, что корреляция между величинами X и Y составляет 0,240935496, т.е. 24%.

Ссылки