<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=78.25.123.44&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=78.25.123.44&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/78.25.123.44"/>
		<updated>2026-04-23T12:26:38Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F_%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BB%D0%B8%D1%87%D0%B8%D0%BD&amp;diff=60604</id>
		<title>Ковариация случайных величин</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F_%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BB%D0%B8%D1%87%D0%B8%D0%BD&amp;diff=60604"/>
				<updated>2017-03-22T22:22:02Z</updated>
		
		<summary type="html">&lt;p&gt;78.25.123.44: /* Матрица ковариаций */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Определение&lt;br /&gt;
|definition=&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\eta,\xi&amp;lt;/tex&amp;gt; {{---}} две [[Дискретная случайная величина|случайные величины]], определённые на одном и том же вероятностном пространстве. Тогда &amp;lt;b&amp;gt;ковариацией случайных величин&amp;lt;/b&amp;gt; (англ. ''covariance'') &amp;lt;tex&amp;gt;\eta&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; называется выражение следующего вида:&lt;br /&gt;
:  &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta,\xi)=E\big((\eta-E\eta)(\xi-E\xi)\big)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Вычисление ==&lt;br /&gt;
&lt;br /&gt;
В силу линейности математического ожидания, ковариация может быть записана как:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;tex&amp;gt;\mathrm{Cov}(\eta, \xi) = E\big((\xi - E\xi)(\eta - E\eta)\big) = E(\xi\eta - \eta E\xi + E\xi E\eta - \xi E\eta) = &amp;lt;/tex&amp;gt;&lt;br /&gt;
:&amp;lt;tex&amp;gt;= E(\xi\eta) - E\xi E\eta - E\xi E\eta + E\xi E\eta = E(\xi\eta) - E\xi E\eta &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Итого, &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta, \xi) = E(\xi\eta) - E\xi E\eta &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Свойства ковариации ==&lt;br /&gt;
&lt;br /&gt;
* Ковариация симметрична:&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta,\xi) = \mathrm{Cov}(\xi,\eta)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
* Пусть &amp;lt;tex&amp;gt;\eta_1,\ldots, \eta_n&amp;lt;/tex&amp;gt; случайные величины, а &amp;lt;tex&amp;gt;\xi_1 = \sum\limits_{i=1}^n a_i \eta_i,\; \xi_2 = \sum\limits_{j=1}^m b_j \eta_j&amp;lt;/tex&amp;gt; их две произвольные линейные комбинации. Тогда&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\xi_1,\xi_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i b_j \mathrm{Cov}(\eta_i,\eta_j)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
* Ковариация случайной величины с собой равна её дисперсии:&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta,\eta) = E(\eta^2) - (E(\eta))^2 = D(\eta)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
{{Утверждение&lt;br /&gt;
|statement=Если &amp;lt;tex&amp;gt;\eta,\xi&amp;lt;/tex&amp;gt; [[Независимые случайные величины|независимые случайные величины]], то&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta,\xi) = 0&amp;lt;/tex&amp;gt;.&lt;br /&gt;
|proof=&lt;br /&gt;
:&amp;lt;tex&amp;gt;\mathrm{Cov}(\xi, \eta) = E(\xi\eta) - E\xi E\eta &amp;lt;/tex&amp;gt;, а так как &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;\eta&amp;lt;/tex&amp;gt; {{---}} независимые, то [[Математическое ожидание случайной величины#.D0.A1.D0.B2.D0.BE.D0.B9.D1.81.D1.82.D0.B2.D0.B0_.D0.BC.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.BE.D0.B3.D0.BE_.D0.BE.D0.B6.D0.B8.D0.B4.D0.B0.D0.BD.D0.B8.D1.8F|математическое ожидание их произведения]], равно произведению их математических ожиданий:&lt;br /&gt;
:&amp;lt;tex&amp;gt;E(\xi\eta) = E\xi\cdot E\eta &amp;lt;/tex&amp;gt;, а значит&lt;br /&gt;
:&amp;lt;tex&amp;gt; \mathrm{Cov}(\xi, \eta) = 0 &amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
{{Утверждение&lt;br /&gt;
|statement=&lt;br /&gt;
Если &amp;lt;tex&amp;gt;\mathrm{Cov}(\eta, \xi) = 0&amp;lt;/tex&amp;gt;, то &amp;lt;tex&amp;gt;\eta&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; не обязательно являются [[Независимые случайные величины#Определения | независимыми]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Неравенство Коши — Буняковского ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Утверждение&lt;br /&gt;
| statement = &lt;br /&gt;
Ковариация есть [[Функциональный анализ#12..09.D0.9E.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.B5.D0.BD.D0.B8.D0.B5_.D1.81.D0.BA.D0.B0.D0.BB.D1.8F.D1.80.D0.BD.D0.BE.D0.B3.D0.BE_.D0.BF.D1.80.D0.BE.D0.B8.D0.B7.D0.B2.D0.B5.D0.B4.D0.B5.D0.BD.D0.B8.D1.8F.2C_.D1.80.D0.B0.D0.B2.D0.B5.D0.BD.D1.81.D1.82.D0.B2.D0.BE_.D0.BF.D0.B0.D1.80.D0.B0.D0.BB.D0.BB.D0.B5.D0.BB.D0.BE.D0.B3.D1.80.D0.B0.D0.BC.D0.BC.D0.B0.2C_.D0.BD.D0.B5.D1.80.D0.B0.D0.B2.D0.B5.D0.BD.D1.81.D1.82.D0.B2.D0.BE_.D0.A8.D0.B2.D0.B0.D1.80.D1.86.D0.B0.|скалярное произведение]] двух случайных величин&lt;br /&gt;
&lt;br /&gt;
|proof=&lt;br /&gt;
Докажем три аксиомы скалярного произведения:&lt;br /&gt;
&lt;br /&gt;
:1. Линейность по первому аргументу: &amp;lt;tex&amp;gt; \mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi)  = \mathrm{Cov}( \mu_{1}\cdot\eta, \xi) + \mathrm{Cov}( \mu_{2}\cdot\eta, \xi)&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::Раскроем ковариацию по определению:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;tex&amp;gt;\mathrm{Cov}( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}, \xi) = E(  ( \mu_{1}\cdot\eta_{1} + \mu_{2}\cdot\eta_{2}) \cdot \xi ) - E( \mu_{1}\cdot\eta_{2} + \mu_{2}\cdot\eta_{2} )\cdot E\xi  &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::В силу [[Математическое ожидание случайной величины#Линейность математического ожидания | линейности математического ожидания]]:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;tex&amp;gt;&lt;br /&gt;
	E(\mu_{1}\cdot\eta_{1}\cdot\xi) + &lt;br /&gt;
	E(\mu_{2}\cdot\eta_{2}\cdot\xi) - &lt;br /&gt;
	E(\mu_{1}\cdot\eta_{1})\cdot E\xi - 	&lt;br /&gt;
	E(\mu_{2}\cdot\eta_{2})\cdot E\xi =&lt;br /&gt;
	\mu_{1}( E(\eta_{1}\cdot\xi) - E\eta_{1}\cdot E\xi ) + &lt;br /&gt;
	\mu_{2}( E(\eta_{2}\cdot\xi) - E\eta_{2}\cdot E\xi )  = &lt;br /&gt;
	\mu_{1} \cdot \mathrm{Cov}(\eta_{1}, \xi) + &lt;br /&gt;
	\mu_{2} \cdot \mathrm{Cov}(\eta_{2}, \xi)&lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:2. Симметричность: &amp;lt;tex&amp;gt; \mathrm{Cov}(\eta, \xi) = E(\eta\cdot\xi) - E\eta \cdot E\xi = \mathrm{Cov}(\xi, \eta)&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:3. Положительная определенность: &amp;lt;tex&amp;gt; \mathrm{Cov}(\eta, \eta) = D(\eta) = E(\eta - E\eta)^2 &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; \mathrm{Cov} &amp;lt;/tex&amp;gt; удовлетвотряет трем аксиомам, а значит &amp;lt;tex&amp;gt; \mathrm{Cov} &amp;lt;/tex&amp;gt; можно использовать в качестве скалярного произведения.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Теорема&lt;br /&gt;
| about = &lt;br /&gt;
неравенство Коши — Буняковского&lt;br /&gt;
| statement = &lt;br /&gt;
Если принять в качестве скалярного произведения двух случайных величин ковариацию  &amp;lt;tex&amp;gt;\langle \eta, \xi \rangle = \mathrm{Cov} (\eta, \xi)&amp;lt;/tex&amp;gt;, то квадрат нормы случайной величины будет равен дисперсии &amp;lt;tex&amp;gt; ||\eta||^2 = D [ \eta ], &amp;lt;/tex&amp;gt; и &amp;lt;b&amp;gt;неравенство Коши-Буняковского&amp;lt;/b&amp;gt; запишется в виде:&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
|proof= Для этого предположим, что &amp;lt;tex&amp;gt;  t &amp;lt;/tex&amp;gt; {{---}} некоторое вещественное число, и рассмотрим очевидное неравенство &lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; E((V+tW)^2) \geqslant 0 &amp;lt;/tex&amp;gt;, где &amp;lt;tex&amp;gt; V = \eta - E\eta &amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt; W = \xi - E\xi &amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Используя линейность математического ожидания, мы получаем такое неравенство:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; E(V^2)+2tE(VW)+t^2E(W^2) \geqslant 0 &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Обратим внимание, что левая часть является квадратным трехчленом, зависимым от &amp;lt;tex&amp;gt; t &amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Мы имеем:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; E(V^2)=\sigma_\eta ^2&amp;lt;/tex&amp;gt;, &amp;lt;tex&amp;gt; E(W^2)=\sigma_\xi ^2&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt; E(VW)=\mathrm{Cov}(\eta,\xi); &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Итак, наш квадратный трехчлен выглядит следующим образом:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\sigma_\xi ^2t^2+2\mathrm{Cov}(\eta,\xi)t+\sigma_\eta ^2 \geqslant 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для того, чтобы неравенство выполнялось для всех значений &amp;lt;tex&amp;gt;t&amp;lt;/tex&amp;gt;, дискриминант должен быть неположительным, то есть:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; 4\mathrm{Cov}^2(\eta,\xi)-4\sigma_\eta ^2\sigma_\xi ^2 \leqslant 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathrm{Cov}^2(\eta,\xi) \leqslant \sigma_\eta ^2\sigma_\xi ^2&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathrm{Cov}^2(\eta,\xi) \leqslant \mathrm{D}[\eta] \cdot \mathrm{D}[\xi]&amp;lt;/tex&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Матрица ковариаций ==&lt;br /&gt;
&amp;lt;b&amp;gt;Матрица ковариаций&amp;lt;/b&amp;gt; (англ. ''covariance matrix'') {{---}} это матрица, элементы которой являются попарными ковариациями элементов одного или двух случайных векторов.&lt;br /&gt;
Ковариационная матрица случайного вектора — квадратная симметрическая неотрицательно определенная матрица, на диагонали которой располагаются дисперсии компонент вектора, а внедиагональные элементы — ковариации между компонентами.&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition= &lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\xi, \eta&amp;lt;/tex&amp;gt; {{---}} случайные вектора размерности &amp;lt;tex&amp;gt;n&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;m&amp;lt;/tex&amp;gt; соответственно.  &amp;lt;tex&amp;gt;\xi_i, \eta_j&amp;lt;/tex&amp;gt; {{---}} случайные величины. Тогда матрицей ковариаций векторов &amp;lt;tex&amp;gt;\xi, \eta&amp;lt;/tex&amp;gt; называется&lt;br /&gt;
: &amp;lt;tex&amp;gt;\Sigma = \mathrm{Cov}(\xi, \eta) = E((\xi - E\xi)(\eta - E\eta)^{\top})&amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
Например, ковариационная матрица для случайного вектора &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; выглядит следующим образом:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;&lt;br /&gt;
\Sigma&lt;br /&gt;
= \begin{bmatrix}&lt;br /&gt;
 \mathrm{E}((\xi_1 - E\xi_1)(\xi_1 - E\xi_1)) &amp;amp; \mathrm{E}((\xi_1 - E\xi_1)(\xi_2 - E\xi_2)) &amp;amp; \cdots &amp;amp; \mathrm{E}((\xi_1 - E\xi_1)(\xi_n - E\xi_n)) \\ \\&lt;br /&gt;
 \mathrm{E}((\xi_2 - E\xi_2)(\xi_1 - E\xi_1)) &amp;amp; \mathrm{E}((\xi_2 - E\xi_2)(\xi_2 - E\xi_2)) &amp;amp; \cdots &amp;amp; \mathrm{E}((\xi_2 - E\xi_2)(\xi_n - E\xi_n)) \\ \\&lt;br /&gt;
 \vdots &amp;amp; \vdots &amp;amp; \ddots &amp;amp; \vdots \\ \\&lt;br /&gt;
 \mathrm{E}((\xi_n - E\xi_n)(\xi_1 - E\xi_1)) &amp;amp; \mathrm{E}((\xi_n - E\xi_n)(\xi_2 - E\xi_2)) &amp;amp; \cdots &amp;amp; \mathrm{E}((\xi_n - E\xi_n)(\xi_n - E\xi_n))&lt;br /&gt;
\end{bmatrix}.&lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt; Замечание &amp;lt;/b&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Если &amp;lt;tex&amp;gt;\xi = \eta&amp;lt;/tex&amp;gt;, то &amp;lt;tex&amp;gt;\Sigma&amp;lt;/tex&amp;gt; называется матрицей ковариации вектора &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; и обозначается как &amp;lt;tex&amp;gt;\mathrm{Var}(\xi)&amp;lt;/tex&amp;gt; {{---}} вариация (дисперсия) случайного вектора.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt; Свойства &amp;lt;/b&amp;gt;&lt;br /&gt;
*Матрица ковариации случайного вектора неотрицательно определена: &amp;lt;tex&amp;gt;\mathrm{Cov}(\xi) \geqslant 0 &amp;lt;/tex&amp;gt;&lt;br /&gt;
*Перестановка аргументов: &amp;lt;tex&amp;gt; \mathrm{Cov}(\xi, \eta) = \mathrm{Cov}(\eta, \xi)^{\top} &amp;lt;/tex&amp;gt;&lt;br /&gt;
*Матрица ковариации аддитивна по каждому аргументу:&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\xi_1 + \xi_2, \eta) = \mathrm{Cov}(\xi_1, \eta) + \mathrm{Cov}(\xi_2, \eta) &amp;lt;/tex&amp;gt;&lt;br /&gt;
: &amp;lt;tex&amp;gt;\mathrm{Cov}(\xi, \eta_1 + \eta_2) = \mathrm{Cov}(\xi, \eta_1) + \mathrm{Cov}(\xi, \eta_2) &amp;lt;/tex&amp;gt;&lt;br /&gt;
* Если &amp;lt;tex&amp;gt;\mathrm{Cov}(\xi, \eta) = 0&amp;lt;/tex&amp;gt;, то &amp;lt;tex&amp;gt; \mathrm{Cov}(\xi + \eta) = \mathrm{Cov}(\xi) + \mathrm{Cov}(\eta) &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Расстояние Махаланобиса == &lt;br /&gt;
&amp;lt;b&amp;gt;Расстояние Махаланобиса&amp;lt;/b&amp;gt; (англ. ''Mahalanobis distance'') {{---}} мера расстояния между векторами случайных величин, обобщающая понятие евклидова расстояния.&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition=&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;\xi = (\xi_1, \xi_2, \xi_3, \ldots, \xi_n)^{\top}&amp;lt;/tex&amp;gt; {{---}} многомерный вектор, &amp;lt;tex&amp;gt;\Sigma&amp;lt;/tex&amp;gt; {{---}} матрица ковариации, тогда &amp;lt;b&amp;gt;расстояние Махаланобиса&amp;lt;/b&amp;gt; от &amp;lt;tex&amp;gt;\xi&amp;lt;/tex&amp;gt; до множества со средним значением &amp;lt;tex&amp;gt;\mu = (\mu_1, \mu_2, \mu_3, \ldots, \mu_n)^{\top}&amp;lt;/tex&amp;gt; определяется как &amp;lt;tex&amp;gt; D_M (\xi) = \sqrt{(\xi - \mu)\Sigma (\xi - \mu)^{\top}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
Расстояние Махаланобиса двух случайных векторов &amp;lt;tex&amp;gt;\xi, \eta&amp;lt;/tex&amp;gt; с матрицей ковариации &amp;lt;tex&amp;gt;\Sigma&amp;lt;/tex&amp;gt; {{---}} это мера различия между ними.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Замечание&amp;lt;/b&amp;gt;&lt;br /&gt;
: Если матрица ковариации равняется единичной матрице, то расстояние Махалонобиса равняется расстоянию Евклида.&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
*[[Корреляция случайных величин|Корреляция случайных величин]]&lt;br /&gt;
*[[Дисперсия случайной величины|Дисперсия случайной величины]]&lt;br /&gt;
&lt;br /&gt;
== Источники информации == &lt;br /&gt;
&lt;br /&gt;
*[http://www.nsu.ru/mmf/tvims/chernova/tv/lec/node48.html НГУ {{---}} Ковариация двух случайных величин]&lt;br /&gt;
*[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D1%8F Википедия {{---}} Ковариация]&lt;br /&gt;
*[https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0 Википедия {{---}} Матрица ковариации]&lt;br /&gt;
*[https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9C%D0%B0%D1%85%D0%B0%D0%BB%D0%B0%D0%BD%D0%BE%D0%B1%D0%B8%D1%81%D0%B0 Википедия {{---}} Расстояние Махалонобиса]&lt;br /&gt;
*[http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D1%8F#.D0.9F.D0.B0.D1.80.D0.B0.D0.BC.D0.B5.D1.82.D1.80.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B8.D0.B5_.D0.BF.D0.BE.D0.BA.D0.B0.D0.B7.D0.B0.D1.82.D0.B5.D0.BB.D0.B8_.D0.BA.D0.BE.D1.80.D1.80.D0.B5.D0.BB.D1.8F.D1.86.D0.B8.D0.B8 Википедия {{---}} неравенство Коши — Буняковского (доказательство)]&lt;br /&gt;
&lt;br /&gt;
[[Категория:Дискретная математика и алгоритмы]]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Теория вероятности ]]&lt;/div&gt;</summary>
		<author><name>78.25.123.44</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%9D%D0%B5%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D1%8B%D0%B5_%D1%81%D0%BE%D0%B1%D1%8B%D1%82%D0%B8%D1%8F&amp;diff=60603</id>
		<title>Независимые события</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%9D%D0%B5%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D1%8B%D0%B5_%D1%81%D0%BE%D0%B1%D1%8B%D1%82%D0%B8%D1%8F&amp;diff=60603"/>
				<updated>2017-03-22T21:10:16Z</updated>
		
		<summary type="html">&lt;p&gt;78.25.123.44: /* Примеры */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Определение&lt;br /&gt;
|definition =&lt;br /&gt;
Два события  A и B называются '''независимыми (independent)''', если &amp;lt;tex&amp;gt; p(A \cap B) = p(A)p(B) &amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition = &lt;br /&gt;
Два события A и B называются '''несовместными (mutually exclusive)''', если &amp;lt;tex&amp;gt; A \cap B = \emptyset &amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Примеры==&lt;br /&gt;
*Игральная кость&lt;br /&gt;
&amp;lt;tex&amp;gt; A = \{2,4,6\}\ p(A)=\frac{1}{2} &amp;lt;/tex&amp;gt; - вероятность выпадения чётной цифры&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; B=\{1,2,3\}\ p(B)=\frac{1}{2} &amp;lt;/tex&amp;gt; - вероятность выпадения одной из первых трёх цифр&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; p(A \cap B)=p(\{2\})=\frac{1}{6}&amp;lt;/tex&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;p(A)p(B)=\frac{1}{2}\cdot\frac{1}{2}=\frac{1}{4}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Получаем, что &amp;lt;tex&amp;gt;p(A \cap B) \neq p(A)p(B)&amp;lt;/tex&amp;gt;, значит эти события не независимы.&lt;br /&gt;
*Карты&lt;br /&gt;
&amp;lt;tex&amp;gt; A = \{(1,j)\}\ p(A)=\frac{1}{4} &amp;lt;/tex&amp;gt; - вероятность выпадения карты заданной масти &lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; B=\{(i,1)\}\ p(B)=\frac{1}{13} &amp;lt;/tex&amp;gt; - вероятность выпадения карты заданного достоинства&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; p(A \cap B)=p(\{(1,1)\})=\frac{1}{52}&amp;lt;/tex&amp;gt; - вероятность выпадения карты заданной масти и заданного достоинства&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;p(A)p(B)=\frac{1}{4}\cdot\frac{1}{13}=\frac{1}{52}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Получаем, что &amp;lt;tex&amp;gt;p(A \cap B)=p(A)p(B)&amp;lt;/tex&amp;gt;, значит эти события независимы.&lt;br /&gt;
&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition =&lt;br /&gt;
События называются независимыми в совокупности, если для &amp;lt;tex&amp;gt;\forall I\subset \{1, ..., k\}&amp;lt;/tex&amp;gt; &amp;lt;tex&amp;gt;p(\bigcap\limits_{i \in I} A_{i}) = \prod\limits_{i \in I} p(A_{i})&amp;lt;/tex&amp;gt;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition =&lt;br /&gt;
События &amp;lt;tex&amp;gt;A_{1}, ...,A_{n}&amp;lt;/tex&amp;gt; называются попарно независимыми, если для &amp;lt;tex&amp;gt;\forall i \neq j&amp;lt;/tex&amp;gt; &amp;lt;tex&amp;gt;\Rightarrow A_{i}&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;A_{j}&amp;lt;/tex&amp;gt; - независимы.&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Утверждение&lt;br /&gt;
|statement =&lt;br /&gt;
Несовместные события &amp;lt;tex&amp;gt;A&amp;lt;/tex&amp;gt;  и &amp;lt;tex&amp;gt;B&amp;lt;/tex&amp;gt; являются независимыми, тогда и только тогда если хотя бы одно из них является пустым множеством.&lt;br /&gt;
|proof =&lt;br /&gt;
&amp;lt;tex&amp;gt;\Rightarrow &amp;lt;/tex&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
Если несовместные события являются независимыми, то выполняется &amp;lt;tex&amp;gt; p(A \cap B) = p(A)\cdot p(B) &amp;lt;/tex&amp;gt;. Также для несовместных событий выполняется &amp;lt;tex&amp;gt; A \cap B = \emptyset &amp;lt;/tex&amp;gt;. Следовательно &amp;lt;tex&amp;gt; p(\emptyset) = p(A) \cdot p(B) &amp;lt;/tex&amp;gt;. А это выполняется тогда и только тогда когда &amp;lt;tex&amp;gt; p(A) = 0 &amp;lt;/tex&amp;gt; или &amp;lt;tex&amp;gt; p(B) = 0 &amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt; \Leftarrow &amp;lt;/tex&amp;gt;:&lt;br /&gt;
Допустим &amp;lt;tex&amp;gt;A&amp;lt;/tex&amp;gt; является пустым множеством, тогда &amp;lt;tex&amp;gt; A \cap B = \emptyset&amp;lt;/tex&amp;gt;. Значит &amp;lt;tex&amp;gt; p(A \cap B) = 0 &amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt; p(A) \cdot p(B) = 0&amp;lt;/tex&amp;gt;. Следовательно события &amp;lt;tex&amp;gt;A&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;B&amp;lt;/tex&amp;gt; являются независимыми.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Замечание==&lt;br /&gt;
&lt;br /&gt;
Попарно независимые события и события, независимые в совокупности - это не одно и то же. Пример: тетраэдр Бернштейна.&lt;br /&gt;
Рассмотрим правильный тетраэдр, три грани которого окрашены соответственно в красный, синий, зелёный цвета, а четвёртая грань содержит все три цвета. Событие А (соответственно, В, С) означает, что выпала грань, содержащая красный (соответственно, синий, зелёный) цвета. &lt;br /&gt;
&lt;br /&gt;
Вероятность каждого из этих событий равна 1/2, так как каждый цвет есть на двух гранях из четырёх. Вероятность пересечения любых двух из них равна 1/4, так как только одна грань из четырёх содержит два цвета. А так как 1/4 = 1/2 · 1/2, то все события попарно независимы. &lt;br /&gt;
&lt;br /&gt;
Но вероятность пересечения всех трёх тоже равна 1/4, а не 1/8, т.е. события не являются независимыми в совокупности.&lt;br /&gt;
&lt;br /&gt;
== Ссылки и источники ==&lt;br /&gt;
*[http://nsu.ru/mmf/tvims/chernova/tv/lec/node13.html Независимость событий]&lt;br /&gt;
&lt;br /&gt;
*[http://ru.wikipedia.org/wiki/Независимость_(теория_вероятностей) Википедия: Независимость (теория вероятностей)]&lt;br /&gt;
&lt;br /&gt;
*Дискретный анализ, Романовский И. В.&lt;br /&gt;
&lt;br /&gt;
[[Категория: Дискретная математика и алгоритмы]]&lt;br /&gt;
[[Категория: Теория вероятности]]&lt;/div&gt;</summary>
		<author><name>78.25.123.44</name></author>	</entry>

	</feed>