Изменения

Перейти к: навигация, поиск

Корреляция случайных величин

605 байт добавлено, 00:33, 27 февраля 2016
Нет описания правки
{{Определение
|definition=
Среднеквадратичным отклонением <tex>\sigma_{\eta}<b/tex> называется величина, равная квадратному корню из [[Дисперсия_случайной_величины | дисперсии]] случайной величины <tex>Корреляция случайных величин\eta</btex>: пусть <tex>\sigma_{\eta}=\sqrt{D(\eta)}</tex>}}{{Определение|definition=Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная_случайная_величина | случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда их корреляция определяется следующим образом<b> корреляцией случайных величин </b> (англ. correlation) <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:: <tex dpi = "150">\mathrm{Corr}(\eta,\xi)={\mathrm{Cov}(\eta,\xi) \over \sigma_{\eta} \times \sigma_{\xi}}</tex>, где <tex>\sigma_mathrm{\etaCov}=\sqrt{D(\eta)}</tex> называется среднеквадратичным отклонением и равно квадратному корню из [[Дисперсия_случайной_величины | дисперсии]], а <tex>Cov(\eta,\xi)</tex> {{- --}} [[Ковариация_случайных_величин | ковариацией случайных величин]]
}}
== Вычисление ==
Заметим, что <tex>\sigma_{\xi} = \sqrt{D(\xi)} = E\big((\xi-E(\xi))^2\big)</tex> - среднеквадратичное отклонение.
: <tex dpi = "150">\mathrm{Corr}(\eta,\xi)={\mathrm{Cov}(\eta,\xi) \over \sigma_{\eta} \times \sigma_{\xi}} = {E\big((\eta-E\eta)(\xi-E\xi)\big) \over {\sqrt{D(\eta)} \times \sqrt{D(\xi)}}} ={E(\xi \times \eta) - E(\xi) \times E(\eta) \over {\sigma_{\eta} \times \sigma_{\xi}}}</tex>
== Корреляция и взаимосвязь величин ==
|statement=
Корреляция симметрична:
: <tex>\mathrm{Corr}(\eta,\xi) = \mathrm{Corr}(\xi,\eta)</tex>.
|proof=
: <tex dpi = "150">\mathrm{Corr}(\eta,\xi) = { E(\eta \times \xi) - E(\eta) \times E(\xi) \over \sqrt{D(\eta)} \times \sqrt{D(\xi)} } = { E(\xi \times \eta) - E(\xi) \times E(\eta) \over \sqrt{D(\xi)} \times \sqrt{D(\eta)} } = \mathrm{Corr}(\xi,\eta)</tex>.
}}
{{Утверждение
|statement=
Корреляция случайной величины с собой равна <tex>1</tex>.
|proof=
: <tex dpi = "150">\mathrm{Corr}(\eta,\eta) = { E(\eta \times \eta) - E(\eta) \times E(\eta) \over \sqrt{D(\eta)} \times \sqrt{D(\eta)} } = {D(\eta) \over D(\eta)} = 1</tex>
}}
Для доказательства будем использовать [[Ковариация случайных величин#Неравенство Коши — Буняковского | неравенство Коши-Буняковского]]:
<tex>\mathrm{Cov}^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex>
Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству:
<tex dpi = "150"> {\mathrm{Cov}^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex>
<tex>\mathrm{Corr}^2(\eta,\xi) \le 1</tex>
<tex>-1 \le \mathrm{Corr}(\eta,\xi) \le 1</tex>.
}}
{{Утверждение
|statement=
Если <tex> \mathrm{Corr}(\eta, \xi) = \pm 1 </tex>, то <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
|proof=
В доказательстве будем использовать [[Ковариация случайных величин#Неравенство Коши — Буняковского | неравенство Коши-Буняковского]]. <br>
Так как <tex> \mathrm{Corr}(\eta, \xi) = \pm 1 </tex>, тo <tex>\mathrm{Cov}^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex>
Из этого следует, что дискриминант этого уравнения <tex>\sigma_\xi ^2t^2+2Cov2\mathrm{Cov}(\eta,\xi)t+\sigma_\eta ^2 = 0</tex> равен <tex>0</tex> .
То есть уравнение имеет единственный корень <tex> t_0 </tex>.
Получаем, что <tex>\sigma_\xi ^2t_0 ^2+2Cov2\mathrm{Cov}(\eta,\xi) t_0+\sigma_\eta ^2 = 0</tex>.
Из этого следует, что <tex> E\big((\xi-E(\xi) +t_0 \times \eta - t_0 E(\eta))^2\big) = 0 </tex>
{{Утверждение
|statement=
Если <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы, то <tex>\mathrm{Corr}(\eta, \xi)= \pm 1 </tex>.
|proof=
Тогда мы имеем <tex>E(\xi)=k \times E(\eta) + b</tex>
<tex> \mathrm{Cov}(\eta, \xi) = E((\eta - E(\eta))(\xi - E\xi))=k \times E\big((\eta-E(\eta))^2\big)=k \times \sigma_\eta ^2 </tex>.
По свойству дисперсии <tex> \sigma_\xi ^2 = D(\xi) = E\big((\xi-E(\xi))^2\big)= k^2 \times E\big((\eta-E(\eta))^2\big)= k^2 \times \sigma_\eta ^2 </tex>
Получаем, что
<tex dpi = "150">\mathrm{Corr}(\eta, \xi)= {\mathrm{Cov}(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>,
что и требовалось доказать.
{{Утверждение
|statement=
Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>\mathrm{Corr}(\eta,\xi) = 0</tex>.
|proof=
Пусть <tex>\eta</tex> и <tex>\xi</tex> {{- --}} [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> {{- --}} их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:: <tex dpi = "150">\mathrm{Corr}(\eta, \xi) = {E(\xi) \times E(\eta) - E(\xi) \times E(\eta) \over {E\big((\eta-E(\eta))^2\big) \times E\big((\xi-E(\xi))^2\big)}} = 0</tex>
<b>Но обратное неверно:</b>
Пусть <tex>\eta</tex> {{- --}} [[Дискретная_случайная_величина|случайная величина]], распределенная симметрично около 0, а <tex>\xi=\eta^2</tex>. <tex>\mathrm{Corr}(\eta,\xi)=0</tex>, но <tex>\eta</tex> и <tex>\xi</tex> {{--- }} зависимые величины.
}}
== Примеры ==
В общем смысле корреляция {{- --}} это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.
=== Определение корреляции по диаграмме ===
[[Файл:Пример_графиков_корреляции.png|600px|thumb|right|3 диаграммы рассеивания двух случайных величин <tex>X </tex> и <tex>Y</tex>]]
1. Соответственно, на '''первом графике''' изображена '''положительная корреляция''', когда увеличение <tex>Y </tex> ведет к постепенному увеличению <tex>X</tex>.
2. '''Второй график''' отображает '''отрицательную корреляцию''', когда увеличение <tex>X </tex> воздействует на постепенное уменьшение <tex>Y</tex>.
3. '''Третий график''' показывает, что <tex>X </tex> и <tex>Y </tex> связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет '''равна 0'''.
=== Определение корреляции по таблице ===
Рассмотрим 2 случайные величины: курс акций нефтедобывающей компании (<tex>X</tex>) и цены на нефть (<tex>Y</tex>).
{| class="wikitable"
|-
|}
Для упрощения вычислений определим <tex>X </tex> и <tex>Y </tex> как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:
<tex>E(X) = 2014,73</tex>
<tex>D(Y) = 0,959661</tex>
Используя формулу, <tex dpi = "150">\mathrm{Corr}(\eta,\xi)={E(\xi \times \eta) - E(\xi) \times E(\eta) \over {\sigma_{\eta} \times \sigma_{\xi}}}</tex> определяем, что корреляция между величинами X и Y составляет 0,240935496, т.е. 24%.
== Ссылки ==
Анонимный участник

Навигация