Ковариация случайных величин — различия между версиями
(→Матрица ковариаций) |
м (rollbackEdits.php mass rollback) |
||
(не показано 9 промежуточных версий 5 участников) | |||
Строка 2: | Строка 2: | ||
|definition= | |definition= | ||
Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная случайная величина|случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда <b>ковариацией случайных величин</b> (англ. ''covariance'') <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида: | Пусть <tex>\eta,\xi</tex> {{---}} две [[Дискретная случайная величина|случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда <b>ковариацией случайных величин</b> (англ. ''covariance'') <tex>\eta</tex> и <tex>\xi</tex> называется выражение следующего вида: | ||
− | : <tex>\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)(\xi-E\xi)\big)</tex>. | + | : <tex>\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)\cdot(\xi-E\xi)\big)</tex>. |
}} | }} | ||
Строка 9: | Строка 9: | ||
В силу линейности математического ожидания, ковариация может быть записана как: | В силу линейности математического ожидания, ковариация может быть записана как: | ||
− | :<tex>\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)(\eta - E\eta)\big) = E(\xi\eta - \eta E\xi + E\xi E\eta - \xi E\eta) = </tex> | + | :<tex>\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)\cdot(\eta - E\eta)\big) = E(\xi \cdot \eta - \eta \cdot E\xi + E\xi \cdot E\eta - \xi \cdot E\eta) = </tex> |
− | :<tex>= E(\xi\eta) - E\xi E\eta - E\xi E\eta + E\xi E\eta = E(\xi\eta) - E\xi E\eta </tex> | + | :<tex>= E(\xi \cdot \eta) - E\xi \cdot E\eta - E\xi \cdot E\eta + E\xi \cdot E\eta = E(\xi \cdot \eta) - E\xi \cdot E\eta </tex> |
− | Итого, <tex>\mathrm{Cov}(\eta, \xi) = E(\xi\eta) - E\xi E\eta </tex> | + | Итого, <tex>\mathrm{Cov}(\eta, \xi) = E(\xi \cdot \eta) - E\xi \cdot E\eta </tex> |
== Свойства ковариации == | == Свойства ковариации == | ||
Строка 18: | Строка 18: | ||
* Ковариация симметрична: | * Ковариация симметрична: | ||
: <tex>\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)</tex>. | : <tex>\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)</tex>. | ||
− | * Пусть <tex>\eta_1,\ldots, \eta_n</tex> случайные величины, а <tex>\xi_1 = \sum\limits_{i=1}^n a_i \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \eta_j</tex> их две произвольные линейные комбинации. Тогда | + | * Пусть <tex>\eta_1,\ldots, \eta_n</tex> случайные величины, а <tex>\xi_1 = \sum\limits_{i=1}^n a_i \cdot \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \cdot \eta_j</tex> их две произвольные линейные комбинации. Тогда |
− | : <tex>\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i b_j \mathrm{Cov}(\eta_i,\eta_j)</tex>. | + | : <tex>\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i \cdot b_j \cdot \mathrm{Cov}(\eta_i,\eta_j)</tex>. |
* Ковариация случайной величины с собой равна её дисперсии: | * Ковариация случайной величины с собой равна её дисперсии: | ||
: <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)</tex>. | : <tex>\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)</tex>. | ||
Строка 26: | Строка 26: | ||
: <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>. | : <tex>\mathrm{Cov}(\eta,\xi) = 0</tex>. | ||
|proof= | |proof= | ||
− | :<tex>\mathrm{Cov}(\xi, \eta) = E(\xi\eta) - E\xi E\eta </tex>, а так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые, то [[Математическое ожидание случайной величины#.D0.A1.D0.B2.D0.BE.D0.B9.D1.81.D1.82.D0.B2.D0.B0_.D0.BC.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.BE.D0.B3.D0.BE_.D0.BE.D0.B6.D0.B8.D0.B4.D0.B0.D0.BD.D0.B8.D1.8F|математическое ожидание их произведения]], равно произведению их математических ожиданий: | + | :<tex>\mathrm{Cov}(\xi, \eta) = E(\xi \cdot \eta) - E\xi \cdot E\eta </tex>, а так как <tex>\xi</tex> и <tex>\eta</tex> {{---}} независимые, то [[Математическое ожидание случайной величины#.D0.A1.D0.B2.D0.BE.D0.B9.D1.81.D1.82.D0.B2.D0.B0_.D0.BC.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.BE.D0.B3.D0.BE_.D0.BE.D0.B6.D0.B8.D0.B4.D0.B0.D0.BD.D0.B8.D1.8F|математическое ожидание их произведения]], равно произведению их математических ожиданий: |
− | :<tex>E(\xi\eta) = E\xi\cdot E\eta </tex>, а значит | + | :<tex>E(\xi \cdot \eta) = E\xi \cdot E\eta </tex>, а значит |
:<tex> \mathrm{Cov}(\xi, \eta) = 0 </tex> | :<tex> \mathrm{Cov}(\xi, \eta) = 0 </tex> | ||
}} | }} | ||
Строка 33: | Строка 33: | ||
|statement= | |statement= | ||
Если <tex>\mathrm{Cov}(\eta, \xi) = 0</tex>, то <tex>\eta</tex> и <tex>\xi</tex> не обязательно являются [[Независимые случайные величины#Определения | независимыми]] | Если <tex>\mathrm{Cov}(\eta, \xi) = 0</tex>, то <tex>\eta</tex> и <tex>\xi</tex> не обязательно являются [[Независимые случайные величины#Определения | независимыми]] | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
}} | }} | ||
− | == Неравенство Коши | + | == Неравенство Коши {{---}} Буняковского == |
Строка 96: | Строка 77: | ||
{{Теорема | {{Теорема | ||
| about = | | about = | ||
− | неравенство Коши | + | неравенство Коши {{---}} Буняковского |
| statement = | | statement = | ||
Если принять в качестве скалярного произведения двух случайных величин ковариацию <tex>\langle \eta, \xi \rangle = \mathrm{Cov} (\eta, \xi)</tex>, то квадрат нормы случайной величины будет равен дисперсии <tex> ||\eta||^2 = D [ \eta ], </tex> и <b>неравенство Коши-Буняковского</b> запишется в виде: | Если принять в качестве скалярного произведения двух случайных величин ковариацию <tex>\langle \eta, \xi \rangle = \mathrm{Cov} (\eta, \xi)</tex>, то квадрат нормы случайной величины будет равен дисперсии <tex> ||\eta||^2 = D [ \eta ], </tex> и <b>неравенство Коши-Буняковского</b> запишется в виде: | ||
Строка 103: | Строка 84: | ||
|proof= Для этого предположим, что <tex> t </tex> {{---}} некоторое вещественное число, и рассмотрим очевидное неравенство | |proof= Для этого предположим, что <tex> t </tex> {{---}} некоторое вещественное число, и рассмотрим очевидное неравенство | ||
− | <tex> E((V+ | + | <tex> E((V+t \cdot W)^2) \geqslant 0 </tex>, где <tex> V = \eta - E\eta </tex> и <tex> W = \xi - E\xi </tex>. |
Используя линейность математического ожидания, мы получаем такое неравенство: | Используя линейность математического ожидания, мы получаем такое неравенство: | ||
− | <tex> E(V^2)+ | + | <tex> E(V^2)+2 \cdot t \cdot E(V \cdot W)+t^2 \cdot E(W^2) \geqslant 0 </tex> |
Обратим внимание, что левая часть является квадратным трехчленом, зависимым от <tex> t </tex>. | Обратим внимание, что левая часть является квадратным трехчленом, зависимым от <tex> t </tex>. | ||
Строка 113: | Строка 94: | ||
Мы имеем: | Мы имеем: | ||
− | <tex> E(V^2)=\sigma_\eta ^2</tex>, <tex> E(W^2)=\sigma_\xi ^2</tex> и <tex> E( | + | <tex> E(V^2)=\sigma_\eta ^2</tex>, <tex> E(W^2)=\sigma_\xi ^2</tex> и <tex> E(V \cdot W)=\mathrm{Cov}(\eta,\xi); </tex> |
Итак, наш квадратный трехчлен выглядит следующим образом: | Итак, наш квадратный трехчлен выглядит следующим образом: | ||
− | <tex>\sigma_\xi ^ | + | <tex>\sigma_\xi ^2 \cdot t^2+2 \cdot \mathrm{Cov}(\eta,\xi) \cdot t+\sigma_\eta ^2 \geqslant 0</tex> |
Для того, чтобы неравенство выполнялось для всех значений <tex>t</tex>, дискриминант должен быть неположительным, то есть: | Для того, чтобы неравенство выполнялось для всех значений <tex>t</tex>, дискриминант должен быть неположительным, то есть: | ||
− | <tex> 4\mathrm{Cov}^2(\eta,\xi)-4\sigma_\eta ^2\sigma_\xi ^2 \leqslant 0</tex> | + | <tex> 4 \cdot \mathrm{Cov}^2(\eta,\xi)-4 \cdot \sigma_\eta ^2 \cdot \sigma_\xi ^2 \leqslant 0</tex> |
− | <tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \sigma_\eta ^2\sigma_\xi ^2</tex> | + | <tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \sigma_\eta ^2 \cdot \sigma_\xi ^2</tex> |
<tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]</tex> | <tex>\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]</tex> | ||
Строка 130: | Строка 111: | ||
== Матрица ковариаций == | == Матрица ковариаций == | ||
− | <b>Матрица ковариаций</b> (англ. ''covariance matrix'') {{---}} это матрица, элементы которой являются попарными ковариациями элементов одного или | + | <b>Матрица ковариаций</b> (англ. ''covariance matrix'') {{---}} это матрица, элементы которой являются попарными ковариациями элементов одного или двух случайных векторов. |
− | Ковариационная матрица случайного вектора | + | Ковариационная матрица случайного вектора {{---}} квадратная симметрическая неотрицательно определенная матрица, на диагонали которой располагаются дисперсии компонент вектора, а внедиагональные элементы {{---}} ковариации между компонентами. |
{{Определение | {{Определение | ||
|definition= | |definition= | ||
Пусть <tex>\xi, \eta</tex> {{---}} случайные вектора размерности <tex>n</tex> и <tex>m</tex> соответственно. <tex>\xi_i, \eta_j</tex> {{---}} случайные величины. Тогда матрицей ковариаций векторов <tex>\xi, \eta</tex> называется | Пусть <tex>\xi, \eta</tex> {{---}} случайные вектора размерности <tex>n</tex> и <tex>m</tex> соответственно. <tex>\xi_i, \eta_j</tex> {{---}} случайные величины. Тогда матрицей ковариаций векторов <tex>\xi, \eta</tex> называется | ||
− | : <tex>\Sigma = \mathrm{Cov}(\xi, \eta) = E((\xi - E\xi)(\eta - E\eta)^{\top})</tex> | + | : <tex>\Sigma = \mathrm{Cov}(\xi, \eta) = E((\xi - E\xi) \cdot (\eta - E\eta)^{\top})</tex> |
}} | }} | ||
Например, ковариационная матрица для случайного вектора <tex>\xi</tex> выглядит следующим образом: | Например, ковариационная матрица для случайного вектора <tex>\xi</tex> выглядит следующим образом: | ||
Строка 142: | Строка 123: | ||
\Sigma | \Sigma | ||
= \begin{bmatrix} | = \begin{bmatrix} | ||
− | \mathrm{E}((\xi_1 - E\xi_1)(\xi_1 - E\xi_1)) & \mathrm{E}((\xi_1 - E\xi_1)(\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_1 - E\xi_1)(\xi_n - E\xi_n)) \\ \\ | + | \mathrm{E}((\xi_1 - E\xi_1) \cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_1 - E\xi_1) \cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_1 - E\xi_1) \cdot (\xi_n - E\xi_n)) \\ \\ |
− | \mathrm{E}((\xi_2 - E\xi_2)(\xi_1 - E\xi_1)) & \mathrm{E}((\xi_2 - E\xi_2)(\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_2 - E\xi_2)(\xi_n - E\xi_n)) \\ \\ | + | \mathrm{E}((\xi_2 - E\xi_2) \cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_2 - E\xi_2) \cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_2 - E\xi_2) \cdot(\xi_n - E\xi_n)) \\ \\ |
\vdots & \vdots & \ddots & \vdots \\ \\ | \vdots & \vdots & \ddots & \vdots \\ \\ | ||
− | \mathrm{E}((\xi_n - E\xi_n)(\xi_1 - E\xi_1)) & \mathrm{E}((\xi_n - E\xi_n)(\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_n - E\xi_n)(\xi_n - E\xi_n)) | + | \mathrm{E}((\xi_n - E\xi_n) \cdot (\xi_1 - E\xi_1)) & \mathrm{E}((\xi_n - E\xi_n) \cdot (\xi_2 - E\xi_2)) & \cdots & \mathrm{E}((\xi_n - E\xi_n) \cdot (\xi_n - E\xi_n)) |
\end{bmatrix}. | \end{bmatrix}. | ||
</tex> | </tex> | ||
<b> Замечание </b> | <b> Замечание </b> | ||
− | Если <tex>\xi = \eta</tex>, то <tex>\Sigma</tex> называется матрицей ковариации вектора <tex>\xi</tex> и обозначается как <tex>\mathrm{Var}(\xi)</tex> {{---}} вариация (дисперсия) случайного вектора. | + | |
+ | *Если <tex>\xi = \eta</tex>, то <tex>\Sigma</tex> называется матрицей ковариации вектора <tex>\xi</tex> и обозначается как <tex>\mathrm{Var}(\xi)</tex> {{---}} вариация (дисперсия) случайного вектора. | ||
<b> Свойства </b> | <b> Свойства </b> | ||
Строка 164: | Строка 146: | ||
{{Определение | {{Определение | ||
|definition= | |definition= | ||
− | Пусть <tex>\xi = (\xi_1, \xi_2, \xi_3, \ldots, \xi_n)^{\top}</tex> {{---}} многомерный вектор, <tex>\Sigma</tex> {{---}} матрица ковариации, тогда расстояние Махаланобиса от <tex>\xi</tex> до множества со средним значением <tex>\mu = (\mu_1, \mu_2, \mu_3, \ldots, \mu_n)^{\top}</tex> определяется как <tex> D_M (\xi) = \sqrt{(\xi - \mu)\Sigma (\xi - \mu)^{\top}}</tex> | + | Пусть <tex>\xi = (\xi_1, \xi_2, \xi_3, \ldots, \xi_n)^{\top}</tex> {{---}} многомерный вектор, <tex>\Sigma</tex> {{---}} матрица ковариации, тогда <b>расстояние Махаланобиса</b> от <tex>\xi</tex> до множества со средним значением <tex>\mu = (\mu_1, \mu_2, \mu_3, \ldots, \mu_n)^{\top}</tex> определяется как <tex> D_M (\xi) = \sqrt{(\xi - \mu) \cdot \Sigma (\xi - \mu)^{\top}}</tex> |
}} | }} | ||
Расстояние Махаланобиса двух случайных векторов <tex>\xi, \eta</tex> с матрицей ковариации <tex>\Sigma</tex> {{---}} это мера различия между ними. | Расстояние Махаланобиса двух случайных векторов <tex>\xi, \eta</tex> с матрицей ковариации <tex>\Sigma</tex> {{---}} это мера различия между ними. | ||
− | |||
<b>Замечание</b> | <b>Замечание</b> | ||
: Если матрица ковариации равняется единичной матрице, то расстояние Махалонобиса равняется расстоянию Евклида. | : Если матрица ковариации равняется единичной матрице, то расстояние Махалонобиса равняется расстоянию Евклида. | ||
+ | |||
== См. также == | == См. также == | ||
*[[Корреляция случайных величин|Корреляция случайных величин]] | *[[Корреляция случайных величин|Корреляция случайных величин]] | ||
Строка 181: | Строка 163: | ||
*[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F Википедия {{---}} Ковариация] | *[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F Википедия {{---}} Ковариация] | ||
*[https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0 Википедия {{---}} Матрица ковариации] | *[https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0 Википедия {{---}} Матрица ковариации] | ||
− | *[https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9C%D0%B0%D1%85%D0%B0%D0%BB%D0%B0%D0%BD%D0%BE%D0%B1%D0%B8%D1%81%D0%B0 {{---}} Расстояние Махалонобиса] | + | *[https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9C%D0%B0%D1%85%D0%B0%D0%BB%D0%B0%D0%BD%D0%BE%D0%B1%D0%B8%D1%81%D0%B0 Википедия {{---}} Расстояние Махалонобиса] |
− | *[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D1%8F#.D0.9F.D0.B0.D1.80.D0.B0.D0.BC.D0.B5.D1.82.D1.80.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B8.D0.B5_.D0.BF.D0.BE.D0.BA.D0.B0.D0.B7.D0.B0.D1.82.D0.B5.D0.BB.D0.B8_.D0.BA.D0.BE.D1.80.D1.80.D0.B5.D0.BB.D1.8F.D1.86.D0.B8.D0.B8 Википедия {{---}} неравенство Коши | + | *[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D1%8F#.D0.9F.D0.B0.D1.80.D0.B0.D0.BC.D0.B5.D1.82.D1.80.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B8.D0.B5_.D0.BF.D0.BE.D0.BA.D0.B0.D0.B7.D0.B0.D1.82.D0.B5.D0.BB.D0.B8_.D0.BA.D0.BE.D1.80.D1.80.D0.B5.D0.BB.D1.8F.D1.86.D0.B8.D0.B8 Википедия {{---}} неравенство Коши {{---}} Буняковского (доказательство)] |
[[Категория:Дискретная математика и алгоритмы]] | [[Категория:Дискретная математика и алгоритмы]] | ||
[[Категория: Теория вероятности ]] | [[Категория: Теория вероятности ]] |
Текущая версия на 19:33, 4 сентября 2022
Определение: |
Пусть случайные величины, определённые на одном и том же вероятностном пространстве. Тогда ковариацией случайных величин (англ. covariance) и называется выражение следующего вида:
| — две
Содержание
Вычисление
В силу линейности математического ожидания, ковариация может быть записана как:
Итого,
Свойства ковариации
- Ковариация симметрична:
- .
- Пусть случайные величины, а их две произвольные линейные комбинации. Тогда
- .
- Ковариация случайной величины с собой равна её дисперсии:
- .
Утверждение: |
Если независимые случайные величины, то
|
|
Утверждение: |
Если независимыми , то и не обязательно являются |
Неравенство Коши — Буняковского
Утверждение: |
Ковариация есть скалярное произведение двух случайных величин |
Докажем три аксиомы скалярного произведения:
|
Теорема (неравенство Коши — Буняковского): |
Если принять в качестве скалярного произведения двух случайных величин ковариацию , то квадрат нормы случайной величины будет равен дисперсии и неравенство Коши-Буняковского запишется в виде:
|
Доказательство: |
Для этого предположим, что — некоторое вещественное число, и рассмотрим очевидное неравенство, где и . Используя линейность математического ожидания, мы получаем такое неравенство:
Обратим внимание, что левая часть является квадратным трехчленом, зависимым от .Мы имеем: , и Итак, наш квадратный трехчлен выглядит следующим образом:
Для того, чтобы неравенство выполнялось для всех значений , дискриминант должен быть неположительным, то есть:
|
Матрица ковариаций
Матрица ковариаций (англ. covariance matrix) — это матрица, элементы которой являются попарными ковариациями элементов одного или двух случайных векторов. Ковариационная матрица случайного вектора — квадратная симметрическая неотрицательно определенная матрица, на диагонали которой располагаются дисперсии компонент вектора, а внедиагональные элементы — ковариации между компонентами.
Определение: |
Пусть | — случайные вектора размерности и соответственно. — случайные величины. Тогда матрицей ковариаций векторов называется
Например, ковариационная матрица для случайного вектора
выглядит следующим образом:
Замечание
- Если , то называется матрицей ковариации вектора и обозначается как — вариация (дисперсия) случайного вектора.
Свойства
- Матрица ковариации случайного вектора неотрицательно определена:
- Перестановка аргументов:
- Матрица ковариации аддитивна по каждому аргументу:
- Если , то
Расстояние Махаланобиса
Расстояние Махаланобиса (англ. Mahalanobis distance) — мера расстояния между векторами случайных величин, обобщающая понятие евклидова расстояния.
Определение: |
Пусть | — многомерный вектор, — матрица ковариации, тогда расстояние Махаланобиса от до множества со средним значением определяется как
Расстояние Махаланобиса двух случайных векторов
с матрицей ковариации — это мера различия между ними.Замечание
- Если матрица ковариации равняется единичной матрице, то расстояние Махалонобиса равняется расстоянию Евклида.