Изменения

Перейти к: навигация, поиск

Уменьшение размерности

343 байта добавлено, 00:04, 21 января 2019
Нет описания правки
Одним из самых известных методов линейного feature extraction является PCA (Principal Component Analysis, рус. ''метод главных компонент''). Основной идеей этого метода является поиск такой гиперплоскости, на которую при ортогональной проекции всех признаков максимизируется дисперсия. Данное преобразование может быть произведено с помощью сингулярного разложения матриц и создает проекцию только на линейные многомерные плоскости, поэтому и метод находится в категории линейных. К нелинейным методам, например, могут быть отнесены методы отображающие исходное пространство признаков на нелинейные поверхности или топологические многообразия.
===Примеры кода scikit-learn===
Пример выделения признаков с помощью PCA в scikit-learn:
// Импорт библиотек
from sklearn.decomposition import PCA
 
// X -- датасет, n -- число извлекаемых признаков
def extractPCA(X, n):
pca = PCA(n_components=n)
return pca.fit_transform(X)
 
===Примеры кода на Scala===
SBT зависимость:
25
правок

Навигация