Изменения

Перейти к: навигация, поиск

Дерево решений и случайный лес

2865 байт добавлено, 22:21, 20 января 2019
Композиции решающих деревьев
== Композиции решающих деревьев ==
Для повышения точности модели применяют объединения моделей (классификаторов) в ансамбль. ===Случайный лесСпособы построения ансамблей===* Бустинг (англ. ''boosting'') При бустинге происходит последовательное обучение классификаторов. Таким образом, обучающий набор данных на каждом последующем шаге зависит от точности прогнозирования предыдущего базового классификатора. Первый алгоритм Boost1, например, применял три базовых классификатора. При этом первый классификатор обучался на всем наборе данных, второй на выборке примеров, а третий – на наборе тех данных, где результаты прогнозирования первых двух классификаторов разошлись. Современная модификация первого алгоритма подразумевает использование неограниченного количества классификаторов, каждый из которых обучается на одном наборе примеров, поочередно применяя их на различных шагах.* БэггингВ отличие от предыдущего метода, бэггинг (bootstrap aggregating) использует параллельное обучение базовых классификаторов (говоря языком математической логики, бэггинг – улучшающее объединение, а бустинг – улучшающее пересечение). В ходе бэггинга происходит следующее: Из множества исходных данных случайным образом отбирается несколько подмножеств, содержащих количество примеров, соответствующее количеству примеров исходного множества.Поскольку отбор осуществляется случайным образом, то набор примеров всегда будет разным: некоторые примеры попадут в несколько подмножеств, а некоторые не попадут ни в одно.На основе каждой выборки строится классификатор.Выводы классификаторов агрегируются (путем голосования или усреднения).
== Пример использования (через scikit-learn) ==
635
правок

Навигация