80
правок
Изменения
→Фильтры
=Фильтры=
'''Фильтры''' (англ. ''filter methods'') измеряют релевантность признаков на основе функции $\mu$, и затем решают по правилу $\kappa$, какие признаки оставить в результирующем множестве.
Фильтры могут быть:
*Одномерные (англ. ''univariate'') {{---}} функция $\mu$ определяет релевантность одного признака по отношению к выходным меткам. В таком случае обычно измеряют "качество" каждого признака и удаляют худшие;
*Многомерные (англ. ''multivariate'') {{---}} функция $\mu$ определяет релевантность некоторого подмножества исходного множества признаков относительно выходных меток.
Преимуществом группы фильтров является простота вычисления релевантности признаков в наборе данных, но недостатком в таком подходе является игнорирование возможных зависимостей между признаками.
Фильтры (''filter methods'') оценивают качество отдельных признаков или подмножеств признаков и удаляют худшие
Две компоненты:
* мера значимости признаков μ$\mu$* правило обрезки κ определяет, какие признаки удалить на основе μ$\mu$
==Схема фильтрующих методов==
[[Файл:ТАблица_5.jpg|600px|thumb|right]]
** Фильтр марковского одеяла (MBF)
Коэффициент корреляции Пирсона
<tex>r=\displaystyle \frac{\sum_{i, j}(x_{ij}-\bar{x_j})(y_i-\bar{y})}{\sqrt{\sum_{i, j}(x_{ij}-\bar{x_j})^2\sum_i(y_i-\bar{y})^2}}\in[[Файл:Таблица_6.jpg|600px|thumb|right]-1;1]</tex>}}
Коэффициент корреляции Спирмана
# Отсортировать объекты двумя способами (по каждому из признаков).
# Найти ранги объектов для каждой сортировки.
# Вычислить корреляцию Пирсона между векторами рангов.
Information gain<ref>[https://en.wikipedia.org/wiki/Information_gain_in_decision_trees Определение information gain]</ref>: $IG(x, y)=\displaystyle -\sum_{i=1}^kp(c_i)\log_2{(p(c_i))}+\sum_{i=1}^{n}p(t_i)\sum_{j=1}^kp(c_j|t_i)log_2{(p(c_j|t_i))}$
==Правило обрезки κ==
* Работают существенно дольше фильтров
* Не учитывают то, что реально использует предсказательная модель
=Гибриды и ансамбли=