XGBoost
Версия от 15:54, 9 марта 2019; Ezamyatin (обсуждение | вклад) (Новая страница: «'''XGBoost''' {{---}} одна из самых популярных и эффективных реализаций алгоритма Бустинг,_AdaBoost|…»)
XGBoost — одна из самых популярных и эффективных реализаций алгоритма градиентного бустинга на деревьях на 2019-й год.
Содержание
Основные преимущества
- Возможность добавлять регуляризацию
- Возможность работать с разреженными данными
- Возможность распределенного обучения
- Эффективная реализация
Идея алгоритма
— функция для оптимизации градиентного бустинга.
Дальше с помощью разложения Тейлора до второго члена можем приблизить это следующим выражением:
, где
,
Минимум этого выражения относительно
находится в точкеПроцесс обучение отдельного дерева
1. Изначально дерево содержит единственную вершину
2. Пытаемся разбить каждую вершину и считаем gain
3. Жадно сплитим вершину
Пример использования с помощью библиотеки xgboost
from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target
from sklearn.cross_validation import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
import xgboost as xgb
dtrain = xgb.DMatrix(X_train, label=y_train) dtest = xgb.DMatrix(X_test, label=y_test)
param = { 'max_depth': 3, # максимальная глубина дерева 'eta': 0.3, # параметр обучения 'silent': 1, 'objective': 'multi:softprob', # функция потерь 'num_class': 3} # число классов num_round = 20 # число итераций
bst = xgb.train(param, dtrain, num_round) preds = bst.predict(dtest)
import numpy as np from sklearn.metrics import precision_score best_preds = np.asarray([np.argmax(line) for line in preds]) print precision_score(y_test, best_preds, average='macro')