Изменения
Нет описания правки
{{Определение
|definition=
<b>Среднеквадратичным отклонением </b> (англ. ''standart deviation'') <tex>\sigma_{\eta}</tex> называется величина, равная квадратному корню из [[Дисперсия_случайной_величины | дисперсии]] случайной величины <tex>\eta</tex>
: <tex>\sigma_{\eta}=\sqrt{D(\eta)}</tex>
}}
|definition=
Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная_случайная_величина | случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда <b> корреляцией случайных величин </b> (англ. correlation) <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида:
: <tex>\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi)}{\sigma_{\eta} \times \sigma_{\xi}}</tex>, где <tex>\mathrm{Cov}(\eta,\xi)</tex> {{---}} [[Ковариация_случайных_величин | ковариация случайных величин]].
}}
== Вычисление ==
Заметим, что <tex>\sigma_{\xi} = \sqrt{D(\xi)} = E\big((\xi-E(\xi))^2\big)</tex> {{--- }} среднеквадратичное отклонение.: <tex>\mathrm{Corr}(\eta,\xi)=\dfrac{\mathrm{Cov}(\eta,\xi)}{\sigma_{\eta} \times \sigma_{\xi}} = \dfrac{E\big((\eta-E\eta)(\xi-E\xi)\big)}{{\sqrt{D(\eta)} \times \sqrt{D(\xi)}}} =\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta)}{{\sigma_{\eta} \times \sigma_{\xi}}}</tex>
== Корреляция и взаимосвязь величин ==
: <tex>\mathrm{Corr}(\eta,\xi) = \mathrm{Corr}(\xi,\eta)</tex>.
|proof=
: <tex>\mathrm{Corr}(\eta,\xi) = \dfrac{ E(\eta \times \xi) - E(\eta) \times E(\xi)}{\sqrt{D(\eta)} \times \sqrt{D(\xi)} } = \dfrac{ E(\xi \times \eta) - E(\xi) \times E(\eta)}{\sqrt{D(\xi)} \times \sqrt{D(\eta)} } = \mathrm{Corr}(\xi,\eta)</tex>.
}}
Корреляция случайной величины с собой равна <tex>1</tex>.
|proof=
: <tex>\mathrm{Corr}(\eta,\eta) = \dfrac{ E(\eta \times \eta) - E(\eta) \times E(\eta)}{\sqrt{D(\eta)} \times \sqrt{D(\eta)} } = \dfrac{D(\eta)}{D(\eta)} = 1</tex>
}}
Получаем, что <tex>\sigma_\xi ^2t_0 ^2+2\mathrm{Cov}(\eta,\xi) t_0+\sigma_\eta ^2 = 0</tex>.
Из этого следует, что <tex> E\big((\xi-E(\xi) +t_0 \times \eta - t_0 E(\eta))^2\big) = 0 </tex>
Это возможно только тогда, когда <tex> \xi-E(\xi) +t_0 \times \eta - t_0 E(\eta) = 0</tex>;
Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы.
|proof=
Предположим, что существует линейная зависимость: <tex>\xi = k \times \eta + b</tex>.
Тогда мы имеем <tex>E(\xi)=k \times E(\eta) + b</tex>
<tex> \mathrm{Cov}(\eta, \xi) = E((\eta - E(\eta))(\xi - E\xi))=k \times E\big((\eta-E(\eta))^2\big)=k \times \sigma_\eta ^2 </tex>.
По свойству дисперсии <tex> \sigma_\xi ^2 = D(\xi) = E\big((\xi-E(\xi))^2\big)= k^2 \times E\big((\eta-E(\eta))^2\big)= k^2 \times \sigma_\eta ^2 </tex>
Получаем, что
<tex>\mathrm{Corr}(\eta, \xi)= \dfrac{\mathrm{Cov}(\eta, \xi)}{\sigma_\eta \sigma_\xi}=\dfrac{k}{|k|}</tex>, что и требовалось доказать.
}}
Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>\mathrm{Corr}(\eta,\xi) = 0</tex>.
|proof=
Пусть <tex>\eta</tex> и <tex>\xi</tex> {{---}} [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> {{---}} их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем:: <tex>\mathrm{Corr}(\eta, \xi) = \dfrac{E(\xi) \times E(\eta) - E(\xi) \times E(\eta)}{{E\big((\eta-E(\eta))^2\big) \times E\big((\xi-E(\xi))^2\big)}} = 0</tex>
<b>Но обратное неверно:</b>
Пусть <tex>\eta</tex> {{---}} [[Дискретная_случайная_величина|случайная величина]], распределенная симметрично около 0, а <tex>\xi=\eta^2</tex>. <tex>\mathrm{Corr}(\eta,\xi)=0</tex>, но <tex>\eta</tex> и <tex>\xi</tex> {{---}} зависимые величины.
<tex>D(Y) = 0,959661</tex>
Используя формулу, <tex>\mathrm{Corr}(\eta,\xi)=\dfrac{E(\xi \times \eta) - E(\xi) \times E(\eta)}{{\sigma_{\eta} \times \sigma_{\xi}}}</tex> определяем, что корреляция между величинами <tex>X </tex> и <tex>Y </tex> составляет 0,240935496, т.е. 24%.
== См. также ==