Изменения

Перейти к: навигация, поиск

Корреляция случайных величин

2028 байт убрано, 21:52, 4 марта 2018
м
Fix ticket
{{Определение
|definition=
<b>Среднеквадратичным отклонением </b> (англ. ''standart deviation'') <tex>\sigma_{\eta}</tex> называется величина, равная квадратному корню из [[Дисперсия_случайной_величины | дисперсии]] случайной величины <tex>\eta</tex>
: <tex>\sigma_{\eta}=\sqrt{D(\eta)}</tex>
}}
|definition=
Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная_случайная_величина | случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда <b> корреляцией случайных величин </b> (англ. correlation) <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:
: <tex>\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi)}{\sigma_{\eta} \times \sigma_{\xi}}</tex>, где <tex>\mathrm{Cov}(\eta,\xi)</tex> {{---}} [[Ковариация_случайных_величин | ковариацией ковариация случайных величин]].
}}
== Вычисление ==
Заметим, что <tex>\sigma_{\xi} = \sqrt{D(\xi)} = E\big((\xi-E(\xi))^2\big)</tex> {{--- }} среднеквадратичное отклонение.: <tex>\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi)}{\sigma_{\eta} \times \sigma_{\xi}} = \dfrac{E\big((\eta-E\eta)(\xi-E\xi)\big)}{{\sqrt{D(\eta)} \times \sqrt{D(\xi)}}} =\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta)}{{\sigma_{\eta} \times \sigma_{\xi}}}</tex>
== Корреляция и взаимосвязь величин ==
: <tex>\mathrm{Corr}(\eta,\xi) = \mathrm{Corr}(\xi,\eta)</tex>.
|proof=
: <tex>\mathrm{Corr}(\eta,\xi) = \dfrac{ E(\eta \times \xi) - E(\eta) \times E(\xi)}{\sqrt{D(\eta)} \times \sqrt{D(\xi)} } = \dfrac{ E(\xi \times \eta) - E(\xi) \times E(\eta)}{\sqrt{D(\xi)} \times \sqrt{D(\eta)} } = \mathrm{Corr}(\xi,\eta)</tex>.
}}
Корреляция случайной величины с собой равна <tex>1</tex>.
|proof=
: <tex>\mathrm{Corr}(\eta,\eta) = \dfrac{ E(\eta \times \eta) - E(\eta) \times E(\eta)}{\sqrt{D(\eta)} \times \sqrt{D(\eta)} } = \dfrac{D(\eta)}{D(\eta)} = 1</tex>
}}
Корреляция лежит на отрезке <tex>[-1, 1]</tex>.
|proof=
Для доказательства будем использовать [[Ковариация случайных величин#Неравенство Коши — Буняковского | неравенство Коши-Буняковского]]:
<tex>\mathrm{Cov}^2(\eta, \xi) \leqslant \sigma_\eta ^2\sigma_\xi ^2</tex>
 
Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству:
 
<tex> \dfrac{\mathrm{Cov}^2(\eta,\xi)}{(\sigma_\eta ^2\sigma_\xi ^2)} \leqslant 1</tex>
 
<tex>\mathrm{Corr}^2(\eta,\xi) \leqslant 1</tex>
 
<tex>-1 \leqslant \mathrm{Corr}(\eta,\xi) \leqslant 1</tex>.
}}
Если <tex> \mathrm{Corr}(\eta, \xi) = \pm 1 </tex>, то <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
|proof=
В доказательстве будем использовать [[Ковариация случайных величин#Неравенство Коши — Буняковского | неравенство Коши-Буняковского]]. <br>
Так как <tex> \mathrm{Corr}(\eta, \xi) = \pm 1 </tex>, тo <tex>\mathrm{Cov}^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex>
 
Из этого следует, что дискриминант этого уравнения <tex>\sigma_\xi ^2t^2+2\mathrm{Cov}(\eta,\xi)t+\sigma_\eta ^2 = 0</tex> равен <tex>0</tex> .
 
То есть уравнение имеет единственный корень <tex> t_0 </tex>.
 
Получаем, что <tex>\sigma_\xi ^2t_0 ^2+2\mathrm{Cov}(\eta,\xi) t_0+\sigma_\eta ^2 = 0</tex>.
 
Из этого следует, что <tex> E\big((\xi-E(\xi) +t_0 \times \eta - t_0 E(\eta))^2\big) = 0 </tex>
Это возможно только тогда, когда <tex> \xi-E(\xi) +t_0 \times \eta - t_0 E(\eta) = 0</tex>;
 
Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
}}
Если <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы, то <tex>\mathrm{Corr}(\eta, \xi)= \pm 1 </tex>.
|proof=
Предположим, что существует линейная зависимость: <tex>\xi = k \times \eta + b</tex>.
Тогда мы имеем <tex>E(\xi)=k \times E(\eta) + b</tex>
<tex> \mathrm{Cov}(\eta, \xi) = E((\eta - E(\eta))(\xi - E\xi))=k \times E\big((\eta-E(\eta))^2\big)=k \times \sigma_\eta ^2 </tex>.
 
По свойству дисперсии <tex> \sigma_\xi ^2 = D(\xi) = E\big((\xi-E(\xi))^2\big)= k^2 \times E\big((\eta-E(\eta))^2\big)= k^2 \times \sigma_\eta ^2 </tex>
 
Получаем, что
<tex>\mathrm{Corr}(\eta, \xi)= \dfrac{\mathrm{Cov}(\eta, \xi)}{\sigma_\eta \sigma_\xi}=\dfrac{k}{|k|}</tex>,
 
что и требовалось доказать.
}}
Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>\mathrm{Corr}(\eta,\xi) = 0</tex>.
|proof=
Пусть <tex>\eta</tex> и <tex>\xi</tex> {{---}} [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> {{---}} их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:: <tex>\mathrm{Corr}(\eta, \xi) = \dfrac{E(\xi) \times E(\eta) - E(\xi) \times E(\eta)}{{E\big((\eta-E(\eta))^2\big) \times E\big((\xi-E(\xi))^2\big)}} = 0</tex>
<b>Но обратное неверно:</b>
Пусть <tex>\eta</tex> {{---}} [[Дискретная_случайная_величина|случайная величина]], распределенная симметрично около <tex>0</tex>, а <tex>\xi=\eta^2</tex>. <tex>\mathrm{Corr}(\eta,\xi)=0</tex>, но <tex>\eta</tex> и <tex>\xi</tex> {{---}} зависимые величины.
}}
[[Файл:Пример_графиков_корреляции.png|600px|thumb|right|3 диаграммы рассеивания двух случайных величин <tex>X</tex> и <tex>Y</tex>]]
1. #Соответственно, на '''первом графике''' изображена '''положительная корреляция''', когда увеличение <tex>Y</tex> ведет к постепенному увеличению <tex>X</tex>. 2. #'''Второй график''' отображает '''отрицательную корреляцию''', когда увеличение <tex>X</tex> воздействует на постепенное уменьшение <tex>Y</tex>. 3. #'''Третий график''' показывает, что <tex>X</tex> и <tex>Y</tex> связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет '''равна <tex>0</tex>'''.
=== Определение корреляции по таблице ===
Рассмотрим <tex>2 </tex> случайные величины: курс акций нефтедобывающей компании (<tex>X</tex>) и цены на нефть (<tex>Y</tex>).
{| class="wikitable"
|-
! X
| <tex>2003,6 </tex> || <tex>2013,2 </tex> || <tex>2007,6 </tex> || <tex>2007,4 </tex> || <tex>2039,9 </tex> || <tex>2025 </tex> || <tex>2007 </tex> || <tex>2017 </tex> || <tex>2015,6 </tex> || <tex>2011</tex>
|-
! Y
| <tex>108,4 </tex> || <tex>107,96 </tex> || <tex>108,88 </tex> || <tex>110,44 </tex> || <tex>110,2 </tex> || <tex>108,97 </tex> || <tex>109,15 </tex> || <tex>108,8 </tex> || <tex>111,2 </tex> || <tex>110,23</tex>
|-
|}
<tex>D(Y) = 0,959661</tex>
Используя формулу, <tex dpi = "150">\mathrm{Corr}(\eta,\xi)=\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta) \over }{{\sigma_{\eta} \times \sigma_{\xi}}}</tex> определяем, что корреляция между величинами <tex>X </tex> и <tex>Y </tex> составляет <tex>0,240935496</tex>, т.е. то есть <tex>24\%</tex>== См. также ==*[[Дисперсия случайной величины|Дисперсия случайной величины]]*[[Ковариация случайных величин|Ковариация случайных величин]]
== Ссылки Источники информации ==
* [http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D1%8F Википедия {{---}} Корреляция]
* [http://en.wikipedia.org/wiki/Correlation_and_dependence Wikipedia {{---}} Correlation and dependence]
286
правок

Навигация