Изменения

Перейти к: навигация, поиск

Уменьшение размерности

205 байт добавлено, 00:11, 23 января 2019
Нет описания правки
Все методы feature extraction можно разделить на '''линейные''' и '''нелинейные'''.
Одним из самых известных методов линейного feature extraction является [[Метод главных компонент (PCA )| PCA]]<sup>[на 22.01.18 не создан]</sup> (Principal Component Analysis, рус. ''метод главных компонент''). Основной идеей этого метода является поиск такой гиперплоскости, на которую при ортогональной проекции всех признаков максимизируется дисперсия. Данное преобразование может быть произведено с помощью сингулярного разложения матриц и создает проекцию только на линейные многомерные плоскости, поэтому и метод находится в категории линейных. К нелинейным методам, например, могут быть отнесены методы отображающие исходное пространство признаков на нелинейные поверхности или топологические многообразия.
===Пример кода scikit-learn===
Пример выделения признаков с помощью PCA в scikit-learn:
*[[Метод опорных векторов (SVM)| SVM]]<sup>[на 20.01.18 не создан]</sup>
*[[Дерево решений и случайный лес| Случайный лес]]
*[[Метод главных компонент (PCA)| PCA]]<sup>[на 22.01.18 не создан]</sup>
==Примечания==
<references/>
Анонимный участник

Навигация