<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Bsa70977</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Bsa70977"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/Bsa70977"/>
		<updated>2026-04-08T08:17:48Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D0%BB%D0%B0%D0%B2%D0%BD%D1%8B%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82_(PCA)&amp;diff=72411</id>
		<title>Метод главных компонент (PCA)</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D0%BB%D0%B0%D0%B2%D0%BD%D1%8B%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82_(PCA)&amp;diff=72411"/>
				<updated>2020-01-23T14:16:29Z</updated>
		
		<summary type="html">&lt;p&gt;Bsa70977: PCA v0.1.1&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[File:800px-Pca 3d to 2d example v2.png|500px|thumb|right|Применение PCA к данным в трехмерном пространстве]]&lt;br /&gt;
'''Метод главных компонент''' (англ. ''Principal Components Analysis, PCA'') — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретен К. Пирсоном (англ. Karl Pearson) &amp;lt;ref&amp;gt;[https://zenodo.org/record/1430636 Pearson, K. (1901). &amp;quot;On Lines and Planes of Closest Fit to Systems of Points in Space&amp;quot;]&amp;lt;/ref&amp;gt; в 1901 г. Применяется во многих областях, таких как распознавание образов, компьютерное зрение, сжатие данных и т.п. Вычисление главных компонент сводится к вычислению собственных векторов и собственных значений ковариационной матрицы исходных данных или к [[Сингулярное разложение|сингулярному разложению]] матрицы данных. Иногда метод главных компонент называют преобразованием Карунена-Лоэва (англ. ''Karhunen-Loeve'') &amp;lt;ref&amp;gt;[http://fourier.eng.hmc.edu/e161/lectures/klt/node3.html Karhunen-Loeve Transform (KLT)]&amp;lt;/ref&amp;gt; или преобразованием Хотеллинга (англ. ''Hotelling transform'').&lt;br /&gt;
&lt;br /&gt;
==Формальная постановка задачи==&lt;br /&gt;
[[File:Pearson pca example.jpg|300px|thumb|right|Иллюстрация к работе К. Пирсона (1901): даны точки &amp;lt;tex&amp;gt; P_i&amp;lt;/tex&amp;gt; на плоскости, &amp;lt;tex&amp;gt;  p_i&amp;lt;/tex&amp;gt; — расстояние от &amp;lt;tex&amp;gt;  P_i&amp;lt;/tex&amp;gt; до прямой &amp;lt;tex&amp;gt; AB&amp;lt;/tex&amp;gt;. Ищется прямая &amp;lt;tex&amp;gt;  AB&amp;lt;/tex&amp;gt;, минимизирующая сумму &amp;lt;tex&amp;gt;\sum_i p_i^2&amp;lt;/tex&amp;gt;]]&lt;br /&gt;
Пусть имеется $n$ числовых признаков $f_j(x), j = 1, ... , n$. Объекты обучающей выборки будем отождествлять с их признаковыми описаниями: $x_i \equiv (f_1(x_i), ..., f_n(x_i)), i = 1, ..., l$. Рассмотрим матрицу $F$, строки которой соответствуют признаковым описаниям обучающих объектов:&lt;br /&gt;
$$F_{l \times n} =&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
f_1(x_1) &amp;amp; ... &amp;amp; f_n(x_1)\\&lt;br /&gt;
... &amp;amp; ... &amp;amp; ...\\&lt;br /&gt;
f_1(x_l) &amp;amp; ... &amp;amp; f_n(x_l)&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
x_1\\&lt;br /&gt;
...\\&lt;br /&gt;
x_l&lt;br /&gt;
\end{pmatrix}.$$&lt;br /&gt;
&lt;br /&gt;
Обозначим через $z_i = (g_1(x_i), ..., g_m(x_i))$ признаковые описания тех же объектов в новом пространстве $Z = \mathbb{R}^{m}$ меньшей размерности, $m &amp;lt; n$:&lt;br /&gt;
&lt;br /&gt;
$$G_{l \times m} =&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
g_1(x_1) &amp;amp; ... &amp;amp; g_m(x_1)\\&lt;br /&gt;
... &amp;amp; ... &amp;amp; ...\\&lt;br /&gt;
g_1(x_l) &amp;amp; ... &amp;amp; g_m(x_l)&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
z_1\\&lt;br /&gt;
...\\&lt;br /&gt;
z_l&lt;br /&gt;
\end{pmatrix}.$$&lt;br /&gt;
&lt;br /&gt;
Потребуем, чтобы исходные признаковые описания можно было восстановить по новым описаниям с помощью некоторого линейного преобразования, определяемого матрицей $U = (u_{js})_{n \times m}$:&lt;br /&gt;
&lt;br /&gt;
$$\hat{f}_j(x) = \sum_{s = 1}^{m} g_s(x)u_{js}, \; j = 1, ..., n, \; x \in X,$$&lt;br /&gt;
&lt;br /&gt;
или в векторной записи: $\hat{x} = z U^T$. Восстановленное описание $\hat{x}$ не обязано в точности совпадать с исходным описанием $x$, но их отличие на объектах обучающей выборки должно быть как можно меньше при выбранной размерности $m$. Будем искать одновременно и матрицу новых признаковых описаний $G$, и матрицу линейного преобразования $U$, при которых суммарная невязка $\Delta^2(G, U)$ восстановленных описаний минимальна:&lt;br /&gt;
&lt;br /&gt;
$$\Delta^2(G, U) = \sum_{i = 1}^{l} \| \hat{x}_i - x_i \|^2 = \sum_{i = 1}^{l} \| z_i U^T - x_i \|^2 = \| GU^T - F \|^2 \to \mathop{min}_{G, U},$$&lt;br /&gt;
&lt;br /&gt;
где все нормы евклидовы.&lt;br /&gt;
&lt;br /&gt;
Будем предполагать, что матрицы $G$ и $U$ невырождены: $rank \, G = rank \, U = m$. Иначе существовало бы представление $\bar{G} \bar{U}^T = G U^T$ с числом столбцов в матрице $\bar{G}$, меньшим $m$. Поэтому интересны лишь случаи, когда $m \leq rank \, F$.&lt;br /&gt;
&lt;br /&gt;
==Решение==&lt;br /&gt;
&lt;br /&gt;
Исчерпывающее решение сформулированной задачи даёт следующая теорема.&lt;br /&gt;
&lt;br /&gt;
{{Теорема&lt;br /&gt;
|statement = Если &amp;lt;tex&amp;gt;m \leq rank \, F&amp;lt;/tex&amp;gt;, то минимум &amp;lt;tex&amp;gt;\Delta^2(G, U)&amp;lt;/tex&amp;gt; достигается, когда столбцы матрицы &amp;lt;tex&amp;gt;U&amp;lt;/tex&amp;gt; есть собственные векторы &amp;lt;tex&amp;gt;F^T F&amp;lt;/tex&amp;gt;, соответствующие &amp;lt;tex&amp;gt;m&amp;lt;/tex&amp;gt; максимальным собственным значениям. При этом &amp;lt;tex&amp;gt;G = F U&amp;lt;/tex&amp;gt;, матрицы &amp;lt;tex&amp;gt;U&amp;lt;/tex&amp;gt; и &amp;lt;tex&amp;gt;G&amp;lt;/tex&amp;gt; ортогональны.&lt;br /&gt;
&lt;br /&gt;
|proof = Запишем необходимые условия минимума:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac{\partial \Delta^2}{\partial G} = (G U^T - F) U = 0;\\&lt;br /&gt;
\frac{\partial \Delta^2}{\partial U} = G^T (G U^T - F) = 0.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Поскольку искомые матрицы $G$ и $U$ невырождены, отсюда следует:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;&lt;br /&gt;
\begin{cases}&lt;br /&gt;
G = F U (U^T U)^{-1};\\&lt;br /&gt;
U = F^T G (G^T G)^{-1}.&lt;br /&gt;
\end{cases} &lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Функционал $\Delta^2(G, U)$ зависит только от произведения матриц $G U^T$, поэтому решение задачи $\Delta^2(G, U) \to \mathop{min}_{G, U}$ определено с точностью до произвольного невырожденного преобразования $R: G U^T = (G R) (R^{-1} U^T)$. Распорядимся свободой выбора $R$ так, чтобы матрицы $U^T U$ и $G^T G$ оказались диагональными. Покажем, что это всегда возможно.&lt;br /&gt;
&lt;br /&gt;
Пусть $\tilde{G} \tilde{U}^T$ {{---}} произвольное решение задачи.&lt;br /&gt;
&lt;br /&gt;
Матрица $\tilde{U}^T \tilde{U}$ симметричная, невырожденная, положительно определенная, поэтому существует невырожденная матрица $S_{m \times m}$ такая, что $S^{-1} \tilde{U}^T \tilde{U} (S^{-1})^T = I_m$.&lt;br /&gt;
&lt;br /&gt;
Матрица $S^T \tilde{G}^T \tilde{G} S$ симметричная и невырожденная, поэтому существует ортогональная матрица $T_{m \times m}$ такая, что $T^T (S^T \tilde{G}^T \tilde{G} S) T = diag(\lambda_1, ..., \lambda_m) \equiv \Lambda$ {{---}} диагональная матрица. По определению ортогональности $T^T T = I_m$.&lt;br /&gt;
&lt;br /&gt;
Преобразование $R = S T$ невырождено. Положим $G = \tilde{G} R$, $U^T = R^{-1} \tilde{U}^T$. Тогда&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;G^T G = T^T (S^T \tilde{G}^T \tilde{G} S) T = \Lambda;\\ U^T U = T^{-1} (S^{-1} \tilde{U}^T \tilde{U} (S^{-1})^T) (T^{-1})^T = (T^T T)^{-1} = I_m.&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В силу $G U^T = \tilde{G} \tilde{U}^T$ матрицы $G$ и $U$ являются решением задачи $\Delta^2(G, U) \to \mathop{min}_{G, U}$ и удовлетворяют необходимому условию минимума. Подставим матрицы $G$ и $U$ в&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;&lt;br /&gt;
G = F U (U^T U)^{-1};\\ U = F^T G (G^T G)^{-1}. &lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Благодаря диагональности $G^T G$ и $U^T U$ соотношения существенно упростятся:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;&lt;br /&gt;
\begin{cases}&lt;br /&gt;
G = F U;\\&lt;br /&gt;
U \Lambda = F^T G.&lt;br /&gt;
\end{cases} &lt;br /&gt;
&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Подставим первое соотношение во второе, получим $U \Lambda = F^T F U$.  Это означает, что столбцы матрицы $U$ обязаны быть собственными векторами матрицы $F^T F$, а диагональные элементы $\lambda_1, ..., \lambda_m$ - соответствующими им собственными значениями.&lt;br /&gt;
&lt;br /&gt;
Аналогично, подставив второе соотношение в первое, получим $G \Lambda = F F^T G$, то есть столбцы матрицы $G$ являются собственными векторами $F F^T$, соответствующими тем же самым собственным значениям.&lt;br /&gt;
&lt;br /&gt;
Подставляя $G$ и $U$ в функционал $\Delta^2(G, U)$, находим:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\Delta^2(G, U)&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;\| F - G U^T \|^2&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;tr \, (F^T - U G^t)(F - G U^T)&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;tr \, F^T (F - G U^T)&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;tr \, F^T F - tr \, F^T G U^T&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;\| F \|^2 - tr \, U \Lambda U^T&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;\| F \|^2 - tr \, \Lambda&amp;lt;/tex&amp;gt; = &amp;lt;tex&amp;gt;\sum_{j = 1}^{n} \lambda_j - \sum_{j = 1}^{m} \lambda_j - \sum_{j = m + 1}^{n} \lambda_j,&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
где $\lambda_1 , ..., \lambda_n$ -  все собственные значения матрицы $F^T F$.  Минимум $\Delta^2$ достигается, когда $\lambda_1, ..., \lambda_m$ {{---}} наибольшие $m$ из $n$ собственных значений.&lt;br /&gt;
&lt;br /&gt;
Собственные векторы $u_1, ..., u_m$, отвечающие максимальным собственным значениям, называют ''главными компонентами''.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Свойства==&lt;br /&gt;
&lt;br /&gt;
===Связь с сингулярным разложением===&lt;br /&gt;
&lt;br /&gt;
Если $m = n$, то $\Delta^2(G, U) = 0$. В этом случае представление $F = G U^T$ является точным и совпадает с сингулярным разложением: $F = G U^T = V D U^T$, если положить $G = V D$ и $\Lambda = D^2$. При этом матрица $V$ ортогональна: $V^T V = I_m$.&lt;br /&gt;
&lt;br /&gt;
Если $m &amp;lt; n$, то представление $F \approx G U^T$ является приближённым. Сингулярное разложение матрицы $G U^T$ получается из сингулярного разложения матрицы $F$ путём отбрасывания (обнуления) $n - m$ минимальных собственных значений.&lt;br /&gt;
&lt;br /&gt;
===Преобразование Карунена–Лоэва===&lt;br /&gt;
&lt;br /&gt;
Диагональность матрицы $G^T G = \Lambda$ означает, что новые признаки $g_1, ..., g_m$ не коррелируют на объектах из обучающей выборки. Ортогональное преобразование $U$ называют ''декоррелирующим'' или преобразованием ''Карунена–Лоэва''. Если $m = n$, то о прямое и обратное преобразование вычисляются с помощью одной и той же матрицы $U: F = G U^T$ и $G = F U$.&lt;br /&gt;
&lt;br /&gt;
===Эффективная размерность===&lt;br /&gt;
&lt;br /&gt;
Главные компоненты содержат основную информацию о матрице $F$. Число главных компонент $m$ называют также ''эффективной размерностью'' задачи. На практике её определяют следующим образом. Все собственные значения матрицы $F^T F$ упорядочиваются по убыванию: $\lambda_1 \geq ... \geq \lambda_n \geq 0$. Задаётся пороговое значение $\epsilon \in [0, 1]$, достаточно близкое к нулю, и определяется наименьшее целое $m$, при котором относительная погрешность приближения матрицы $F$ не превышает $\epsilon$:&lt;br /&gt;
&lt;br /&gt;
$$E(m) = \frac{\| G U^T - F \|^2}{\| F \|^2} = \frac{\lambda_{m + 1} + ... + \lambda_n}{\lambda_1 + ... + \lambda_n} \leq \epsilon .$$&lt;br /&gt;
&lt;br /&gt;
Величина $E(m)$ показывает, какая доля информации теряется при замене исходных признаковых описаний длины $n$ на более короткие описания длины $m$. Метод главных компонент особенно эффективен в тех случаях, когда $E(m)$ оказывается малым уже при малых значениях $m$. Если задать число $\epsilon$ из априорных соображений не представляется возможным, прибегают к ''критерию «крутого обрыва»''.  На графике $E(m)$ отмечается то значение $m$, при котором происходит резкий скачок: $E(m - 1) \gg E(m)$, при условии, что $E(m)$ уже достаточно мало.&lt;br /&gt;
&lt;br /&gt;
==Визуализация многомерных данных==&lt;br /&gt;
&lt;br /&gt;
[[File:Pca dim reduction.png|650px|thumb|right|Уменьшение размерности данных с помощью PCA]]&lt;br /&gt;
Метод главных компонент часто используется для представления многомерной выборки данных на двумерном графике. Для этого полагают $m = 2$ и полученные пары значений $(g_1(x_i), g_2(x_i)), i = 1, ..., l$,  наносят как точки на график. Проекция на главные компоненты является наименее искаженной из всех линейных проекций многомерной выборки на какую-либо пару осей. Как правило, в осях главных компонент удаётся увидеть наиболее существенные особенности исходных данных, даже несмотря на неизбежные искажения. В частности, можно судить о наличии кластерных структур и выбросов. Две оси $g_1$ и $g_2$ отражают «две основные тенденции» в данных. Иногда их удаётся интерпретировать, если внимательно изучить, какие точки на графике являются «самыми левыми», «самыми правыми», «самыми верхними» и «самыми нижними». Этот вид анализа не позволяет делать точные количественные выводы и обычно используется&lt;br /&gt;
с целью понимания данных. Аналогичную роль играют многомерное шкалирование &amp;lt;ref&amp;gt;[https://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%BE%D0%B3%D0%BE%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D0%B5_%D1%88%D0%BA%D0%B0%D0%BB%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5 Многомерное шкалирование]&amp;lt;/ref&amp;gt; и карты Кохонена &amp;lt;ref name=Cohonen&amp;gt; [https://ru.wikipedia.org/wiki/%D0%A1%D0%B0%D0%BC%D0%BE%D0%BE%D1%80%D0%B3%D0%B0%D0%BD%D0%B8%D0%B7%D1%83%D1%8E%D1%89%D0%B0%D1%8F%D1%81%D1%8F_%D0%BA%D0%B0%D1%80%D1%82%D0%B0_%D0%9A%D0%BE%D1%85%D0%BE%D0%BD%D0%B5%D0%BD%D0%B0 Самоорганизующаяся карта Кохонена]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Пределы применимости и ограничения эффективности метода==&lt;br /&gt;
&lt;br /&gt;
Метод главных компонент применим всегда. Распространённое утверждение о том, что он применим только к нормально распределённым данным (или для распределений, близких к нормальным) неверно: в исходной формулировке К. Пирсона ставится задача об ''аппроксимации'' конечного множества данных и отсутствует даже гипотеза о их статистическом порождении, не говоря уж о распределении.&lt;br /&gt;
&lt;br /&gt;
Однако метод не всегда эффективно снижает размерность при заданных ограничениях на точность $E(m)$. Прямые и плоскости не всегда обеспечивают хорошую аппроксимацию. Например, данные могут с хорошей точностью следовать какой-нибудь кривой, а эта кривая может быть сложно расположена в пространстве данных. В этом случае метод главных компонент для приемлемой точности потребует нескольких компонент (вместо одной), или вообще не даст снижения размерности при приемлемой точности.&lt;br /&gt;
&lt;br /&gt;
Больше неприятностей могут доставить данные сложной топологии. Для их аппроксимации также изобретены различные методы, например самоорганизующиеся карты Кохонена &amp;lt;ref name=Cohonen /&amp;gt; или нейронный газ &amp;lt;ref&amp;gt;[https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B3%D0%B0%D0%B7 Нейронный газ]&amp;lt;/ref&amp;gt;. Если данные статистически порождены с распределением, сильно отличающимся от нормального, то для аппроксимации распределения полезно перейти от главных компонент к независимым компонентам &amp;lt;ref&amp;gt;[https://ru.wikipedia.org/wiki/%D0%90%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%BD%D0%B5%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D1%8B%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82 Анализ независимых компонент]&amp;lt;/ref&amp;gt;, которые уже не ортогональны в исходном скалярном произведении. Наконец, для изотропного распределения (даже нормального) вместо эллипсоида рассеяния получаем шар, и уменьшить размерность методами аппроксимации невозможно.&lt;br /&gt;
&lt;br /&gt;
==Пример кода scikit-learn==&lt;br /&gt;
Пример применения PCA к датасету Iris для уменьшения размерности:&lt;br /&gt;
  &amp;lt;span style=&amp;quot;color:#3D9970&amp;gt;# Импорт библиотек&amp;lt;/span&amp;gt;&lt;br /&gt;
  import numpy as np&lt;br /&gt;
  import matplotlib.pyplot as plt&lt;br /&gt;
  from sklearn import decomposition&lt;br /&gt;
  from sklearn import datasets&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;span style=&amp;quot;color:#3D9970&amp;gt;# Загрузка данных&amp;lt;/span&amp;gt;&lt;br /&gt;
  centers = [[1, 1], [-1, -1], [1, -1]]&lt;br /&gt;
  iris = datasets.load_iris()&lt;br /&gt;
  X = iris.data&lt;br /&gt;
  y = iris.target&lt;br /&gt;
&lt;br /&gt;
  [[File:Pca iris example.png|275px|thumb|right|Применения PCA к датасету Iris]]&lt;br /&gt;
  &amp;lt;span style=&amp;quot;color:#3D9970&amp;gt;# Преобразование данных датасета Iris, уменьшающее размерность до 2&amp;lt;/span&amp;gt;&lt;br /&gt;
  pca = decomposition.PCA(n_components=3)&lt;br /&gt;
  pca.fit(X)&lt;br /&gt;
  X = pca.transform(X)&lt;br /&gt;
  y = np.choose(y, [1, 2, 0]).astype(np.float)&lt;br /&gt;
  plt.clf()&lt;br /&gt;
  plt.cla()&lt;br /&gt;
  plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.nipy_spectral, edgecolor='k')&lt;br /&gt;
  plt.xlabel(&amp;quot;PC1&amp;quot;)&lt;br /&gt;
  plt.ylabel(&amp;quot;PC2&amp;quot;)&lt;br /&gt;
  plt.show()&lt;br /&gt;
&lt;br /&gt;
==См. также==&lt;br /&gt;
&lt;br /&gt;
*[[Уменьшение размерности]]&lt;br /&gt;
*[[Сингулярное разложение]]&lt;br /&gt;
&lt;br /&gt;
==Примечания==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Источники информации==&lt;br /&gt;
&lt;br /&gt;
#[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D0%BB%D0%B0%D0%B2%D0%BD%D1%8B%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82 machinelearning.ru — Метод главных компонент]&lt;br /&gt;
#[https://www.youtube.com/watch?v=wcJ0nSUr7ws Лекция &amp;quot;Регрессионный анализ и метод главных компонентов&amp;quot;] {{---}} К.В. Воронцов, курс &amp;quot;Машинное обучение&amp;quot; 2014&lt;br /&gt;
#[http://research.cs.tamu.edu/prism/lectures/pr/pr_l9.pdf PCA] {{---}} курс ML Texas A&amp;amp;M University&lt;br /&gt;
#[https://en.wikipedia.org/wiki/Principal_component_analysis Principal Component Analysis] {{---}} статья про Principal Component Analysis в Wikipedia&lt;br /&gt;
#[https://towardsdatascience.com/understanding-pca-fae3e243731d Understanding PCA]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Машинное обучение]]&lt;br /&gt;
[[Категория: Уменьшение размерности]]&lt;br /&gt;
[[Категория: Метод главных компонент]]&lt;/div&gt;</summary>
		<author><name>Bsa70977</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:800px-Pca_3d_to_2d_example_v2.png&amp;diff=72410</id>
		<title>Файл:800px-Pca 3d to 2d example v2.png</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:800px-Pca_3d_to_2d_example_v2.png&amp;diff=72410"/>
				<updated>2020-01-23T14:15:14Z</updated>
		
		<summary type="html">&lt;p&gt;Bsa70977: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Bsa70977</name></author>	</entry>

	</feed>