Корреляция случайных величин — различия между версиями
(→Свойства корреляции) |
(→Свойства корреляции) |
||
Строка 24: | Строка 24: | ||
|proof= | |proof= | ||
− | Для доказательства | + | Для доказательства будем использовать свойство [[Ковариация_случайных_величин|ковариации]]: |
+ | |||
<tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex> | <tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex> | ||
− | |||
− | + | Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству: | |
+ | |||
+ | <tex dpi = "150"> {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex> | ||
<tex>Corr^2(\eta,\xi) \le 1</tex> | <tex>Corr^2(\eta,\xi) \le 1</tex> | ||
Строка 41: | Строка 43: | ||
|proof= | |proof= | ||
− | Для доказательства | + | Для доказательства будем использовать доказательство свойства [[Ковариация_случайных_величин|ковариации]]. |
− | Так как | + | Так как <tex> Corr(\eta, \xi) = \pm 1 </tex>, т.е. <tex>Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex> |
− | |||
− | |||
− | + | Получаем, что в неравенстве <tex>\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2 \ge 0</tex> должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень <tex> t_0 </tex>. | |
− | |||
− | + | Из этого следует, что <tex> E((\xi-E\xi +t_0 \eta - t_0 E\eta))=E((V + t_0 W)^2) = 0 </tex> | |
+ | |||
+ | Это возможно только тогда, когда <tex> \xi-E\xi +t_0 \eta - t_0 E\eta = 0</tex>; | ||
+ | |||
+ | Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы. | ||
}} | }} | ||
Строка 57: | Строка 60: | ||
|proof= | |proof= | ||
− | Предположим <tex>\xi = k \eta + b</tex>. | + | Предположим, что <tex>\xi = k \eta + b</tex>. |
− | + | Тогда мы имеем <tex>E\xi=kE\eta + b</tex> | |
+ | |||
<tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>. | <tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>. | ||
− | + | По свойству дисперсии <tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex> | |
− | <tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex> | ||
− | + | Получаем, что | |
<tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>, | <tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>, | ||
− | + | что и требовалось доказать. | |
}} | }} | ||
{{Утверждение | {{Утверждение | ||
|statement= | |statement= | ||
− | Если <tex>\eta,\xi</tex> независимые случайные величины, то | + | Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>Corr(\eta,\xi) = 0</tex>. |
− | |||
|proof= | |proof= | ||
Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем: | Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем: |
Версия 01:08, 13 января 2013
Содержание
Определение
Определение: |
Корреляция случайных величин: пусть случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их корреляция определяется следующим образом:
| — две
Вычисление
Заметим, что
Свойства корреляции
Утверждение: |
Корреляция симметрична:
|
|
Утверждение: |
Корреляция лежит на отрезке : |
Для доказательства будем использовать свойство ковариации:
Если правая часть не равна , то приходим к следующему неравенству:
|
Утверждение: |
Если , то и линейно зависимы |
Для доказательства будем использовать доказательство свойства ковариации. Так как , т.е. Получаем, что в неравенстве должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень .Из этого следует, что Это возможно только тогда, когда Видим, что ; и линейно зависимы. |
Утверждение: |
Если и линейно зависимы, то . |
Предположим, что . Тогда мы имеем. По свойству дисперсии Получаем, что что и требовалось доказать. , |
Утверждение: |
Если независимые случайные величины, то . |
Пусть независимые величины. Тогда , где - их математическое ожидание. Получаем: и -Но обратное неверно: Пусть - случайная величина, распределенная симметрично около 0, а . , но и - зависимые величины. |
Примеры
В общем смысле корреляция - это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.
Определение корреляции по диаграмме
1. Соответственно, на первом графике изображена положительная корреляция, когда увеличение Y ведет к постепенному увеличению X.
2. Второй график отображает отрицательную корреляцию, когда увеличение X воздействует на постепенное уменьшение Y.
3. Третий график показывает, что X и Y связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет равна 0.
Определение корреляции по таблице
Рассмотрим 2 случайные величины: курс акций нефтедобывающей компании (X) и цены на нефть (Y).
X | 2003,6 | 2013,2 | 2007,6 | 2007,4 | 2039,9 | 2025 | 2007 | 2017 | 2015,6 | 2011 |
---|---|---|---|---|---|---|---|---|---|---|
Y | 108,4 | 107,96 | 108,88 | 110,44 | 110,2 | 108,97 | 109,15 | 108,8 | 111,2 | 110,23 |
Для упрощения вычислений определим X и Y как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:
Используя формулу,
определяем, что корреляция между величинами X и Y составляет 0,240935496, т.е. 24%.