1632
правки
Изменения
м
== Определение ==
|proof=
Для доказательства будем использовать [http://neerc.ifmo.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F_%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BB%D0%B8%D1%87%D0%B8%D0%BD#.D0.9D.D0.B5.D1.80.D0.B0.D0.B2.D0.B5.D0.BD.D1.81.D1.82.D0.B2.D0.BE_.D0.9A.D0.BE.D1.88.D0.B8_.E2.80.94_.D0.91.D1.83.D0.BD.D1.8F.D0.BA.D0.BE.D0.B2.D1.81.D0.BA.D0.BE.D0.B3.D0.BE теорему] ковариации:
<tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex>
Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству:
<tex dpi = "150"> {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex>
<tex>Corr^2(\eta,\xi) \le 1</tex>
<tex>-1 \le Corr(\eta,\xi) \le 1</tex>.
|proof=
В доказательстве будем использовать доказательство [http://neerc.ifmo.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F_%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BB%D0%B8%D1%87%D0%B8%D0%BD#.D0.9D.D0.B5.D1.80.D0.B0.D0.B2.D0.B5.D0.BD.D1.81.D1.82.D0.B2.D0.BE_.D0.9A.D0.BE.D1.88.D0.B8_.E2.80.94_.D0.91.D1.83.D0.BD.D1.8F.D0.BA.D0.BE.D0.B2.D1.81.D0.BA.D0.BE.D0.B3.D0.BE теоремы] ковариации.
Так как <tex> Corr(\eta, \xi) = \pm 1 </tex>, тo <tex>Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex>
Из этого следует, что дискриминант этого многочлена равен нулю <tex>\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2</tex>.
То есть будет единственный корень <tex> t_0 </tex>.
Получаем, что <tex>\sigma_\xi ^2t_0 ^2+2Cov(\eta,\xi) \ times t_0+\sigma_\eta ^2 = 0</tex>.
Из этого следует, что <tex> E\big((\xi-E(\xi) +t_0 \times \eta - t_0 E(\eta))^2\big) = 0 </tex>
Это возможно только тогда, когда <tex> \xi-E(\xi) +t_0 \times \eta - t_0 E(\eta) = 0</tex>;
Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
По свойству дисперсии <tex> \sigma_\xi ^2 = D(\xi) = E\big((\xi-E(\xi))^2\big)= k^2 \times E\big((\eta-E(\eta))^2\big)= k^2 \times \sigma_\eta ^2 </tex>
Получаем, что
<tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>,
что и требовалось доказать.
1. #Соответственно, на '''первом графике''' изображена '''положительная корреляция''', когда увеличение <tex>Y </tex> ведет к постепенному увеличению <tex>X</tex>. 2. #'''Второй график''' отображает '''отрицательную корреляцию''', когда увеличение <tex>X </tex> воздействует на постепенное уменьшение <tex>Y</tex>. 3. #'''Третий график''' показывает, что <tex>X </tex> и <tex>Y </tex> связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет '''равна <tex>0</tex>'''.
rollbackEdits.php mass rollback
{{Определение
|definition=
<b>Корреляция случайных величинСреднеквадратичным отклонением</b>(англ. ''standart deviation'') <tex>\sigma_{\eta}</tex> называется величина, равная квадратному корню из [[Дисперсия_случайной_величины | дисперсии]] случайной величины <tex>\eta</tex>: пусть <tex>\sigma_{\eta}=\sqrt{D(\eta)}</tex>}}{{Определение|definition=Пусть <tex>\eta,\xi</tex> — {{---}} две [[Дискретная_случайная_величина | случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда их корреляция определяется следующим образом<b> корреляцией случайных величин </b> (англ. correlation) <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:: <tex dpi = "150">\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi) \over }{\sigma_{\eta} \times \sigma_{\xi}}</tex>, где <tex>\sigma_{\eta}=\sqrtmathrm{D(\eta)Cov}</tex> называется среднеквадратичным отклонением и равно квадратному корню из [[Дисперсия_случайной_величины | дисперсии]], а <tex>Cov(\eta,\xi)</tex> {{-- -}} [[Ковариация_случайных_величин | ковариацией ковариация случайных величин]].
}}
== Вычисление ==
Заметим, что <tex>\sigma_{\xi} = \sqrt{D(\xi)} = E\big((\xi-E(\xi))^2\big)</tex> {{--- }} среднеквадратичное отклонение.: <tex dpi = "150">\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi) \over }{\sigma_{\eta} \times \sigma_{\xi}} = \dfrac{E\big((\eta-E\eta)(\xi-E\xi)\big) \over }{{\sqrt{D(\eta)} \times \sqrt{D(\xi)}}} =\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta) \over }{{\sigma_{\eta} \times \sigma_{\xi}}}</tex>
== Корреляция и взаимосвязь величин ==
|statement=
Корреляция симметрична:
: <tex>\mathrm{Corr}(\eta,\xi) = \mathrm{Corr}(\xi,\eta)</tex>.
|proof=
: <tex dpi = "150">\mathrm{Corr}(\eta,\xi) = \dfrac{ E(\eta \times \xi) - E(\eta) \times E(\xi) \over }{\sqrt{D(\eta)} \times \sqrt{D(\xi)} } = \dfrac{ E(\xi \times \eta) - E(\xi) \times E(\eta) \over }{\sqrt{D(\xi)} \times \sqrt{D(\eta)} } = \mathrm{Corr}(\xi,\eta)</tex>.
}}
{{Утверждение
|statement=
Корреляция случайной величины с собой равна <tex>1</tex>.
|proof=
: <tex dpi = "150">\mathrm{Corr}(\eta,\eta) = \dfrac{ E(\eta \times \eta) - E(\eta) \times E(\eta) \over }{\sqrt{D(\eta)} \times \sqrt{D(\eta)} } = \dfrac{D(\eta) \over }{D(\eta)} = 1</tex>
}}
Корреляция лежит на отрезке <tex>[-1, 1]</tex>.
}}
{{Утверждение
|statement=
Если <tex> \mathrm{Corr}(\eta, \xi) = \pm 1 </tex>, то <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
}}
{{Утверждение
|statement=
Если <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы, то <tex>\mathrm{Corr}(\eta, \xi)= \pm 1 </tex>. |proof=Предположим, что существует линейная зависимость: <tex>\xi = k \times \eta + b</tex>.Тогда мы имеем <tex>E(\xi)=k \times E(\eta) + b</tex> <tex> Cov(\eta, \xi) = E((\eta - E(\eta))(\xi - E\xi))=k \times E\big((\eta-E(\eta))^2\big)=k \times \sigma_\eta ^2 </tex>.
}}
{{Утверждение
|statement=
Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>\mathrm{Corr}(\eta,\xi) = 0</tex>.
|proof=
Пусть <tex>\eta</tex> и <tex>\xi</tex> {{- --}} [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> {{- --}} их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:: <tex dpi = "150">\mathrm{Corr}(\eta, \xi) = \dfrac{E(\xi) \times E(\eta) - E(\xi) \times E(\eta) \over }{{E\big((\eta-E(\eta))^2\big) \times E\big((\xi-E(\xi))^2\big)}} = 0</tex>
<b>Но обратное неверно:</b>
Пусть <tex>\eta</tex> {{- --}} [[Дискретная_случайная_величина|случайная величина]], распределенная симметрично около <tex>0</tex>, а <tex>\xi=\eta^2</tex>. <tex>\mathrm{Corr}(\eta,\xi)=0</tex>, но <tex>\eta</tex> и <tex>\xi</tex> {{--- }} зависимые величины.
}}
== Примеры ==
В общем смысле корреляция {{- --}} это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.
=== Определение корреляции по диаграмме ===
[[Файл:Пример_графиков_корреляции.png|600px|thumb|right|3 диаграммы рассеивания двух случайных величин <tex>X </tex> и <tex>Y</tex>]]
=== Определение корреляции по таблице ===
Рассмотрим <tex>2 </tex> случайные величины: курс акций нефтедобывающей компании (<tex>X</tex>) и цены на нефть (<tex>Y</tex>).
{| borderclass="1wikitable"
|-
! X || <tex>2003,6 </tex> || <tex>2013,2 </tex> || <tex>2007,6 </tex> || <tex>2007,4 </tex> || <tex>2039,9 </tex> || <tex>2025 </tex> || <tex>2007 </tex> || <tex>2017 </tex> || <tex>2015,6 </tex> || <tex>2011</tex>
|-
! Y || <tex>108,4 </tex> || <tex>107,96 </tex> || <tex>108,88 </tex> || <tex>110,44 </tex> || <tex>110,2 </tex> || <tex>108,97 </tex> || <tex>109,15 </tex> || <tex>108,8 </tex> || <tex>111,2 </tex> || <tex>110,23</tex>
|-
|}
Для упрощения вычислений определим <tex>X </tex> и <tex>Y </tex> как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:
<tex>E(X) = 2014,73</tex>
<tex>D(Y) = 0,959661</tex>
Используя формулу, <tex dpi = "150">\mathrm{Corr}(\eta,\xi)=\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta) \over }{{\sigma_{\eta} \times \sigma_{\xi}}}</tex> определяем, что корреляция между величинами <tex>X </tex> и <tex>Y </tex> составляет <tex>0,240935496</tex>, т.е. то есть <tex>24\%</tex>. == См. также ==*[[Дисперсия случайной величины|Дисперсия случайной величины]]*[[Ковариация случайных величин|Ковариация случайных величин]]
== Ссылки Источники информации ==
* [http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D1%8F Википедия {{---}} Корреляция]
* [http://en.wikipedia.org/wiki/Correlation_and_dependence Wikipedia {{---}} Correlation and dependence]