XGBoost
XGBoost[1]. — одна из самых популярных и эффективных реализаций алгоритма градиентного бустинга на деревьях на 2019-й год.
История
XGBoost изначально стартовал как исследовательский проект Тяньцзи Чена (Tianqi Chen) как часть сообщества распределенного глубинного машинного обучения. Первоначально он начинался как терминальное приложение, которое можно было настроить с помощью файла конфигурации libsvm. После победы в Higgs Machine Learning Challenge, он стал хорошо известен в соревновательный кругах по машинному обеспечению. Вскоре после этого были созданы пакеты для Python и R, и теперь у него есть пакеты для многих других языков, таких как Julia, Scala, Java и т. д. Это принесло библиотеке больше разработчиков и сделало ее популярной среди сообщества Kaggle[2], где она использовалось для большого количества соревнований.
Она вскоре стала использоваться с несколькими другими пакетами, что облегчает ее использование в соответствующих сообществах. Теперь у нее есть интеграция с scikit-learn для пользователей Python, а также с пакетом caret для пользователей R. Она также может быть интегрирована в рамах потока данных, таких как Apache Spark[3], Apache Hadoop[4], и Apache Flink[5] с использованием абстрактных Rabit[6] и XGBoost4J[7]. Принцип работы XGBoost также был опубликован Тяньцзи Ченом (Tianqi Chen) и Карлосом Гастрин (Carlos Guestrin).
Основные преимущества
- Возможность добавлять регуляризацию[на 16.03.19 не создан].
- Возможность работать с разреженными данными.
- Возможность распределенного обучения.
- Эффективная реализация.
Идея алгоритма
— функция для оптимизации градиентного бустинга.
Дальше с помощью разложения Тейлора до второго члена можем приблизить это следующим выражением:
, где
,
Поскольку мы хотим минимизировать ошибку модели на обучающей выборки, нам нужно найти минимум
для каждого t.Минимум этого выражения относительно
находится в точке .Каждое отдельное дерево ансамбля Дерево решений и случайный лес.
обучается стандартным алгоритмом. Для более полного описания см.Основные параметр
- n_estimators — число деревьев.
- eta — размер шага. Пердотвращает переобучение.
- gamma — минимальный loss для совершения split'a.
- max_depth — максимальная глубина дерева.
- lambda/alpha — L2/L1 регуляризация.
Более полное описание параметров модели тут[8].
Пример использования с помощью библиотеки xgboost
from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target
from sklearn.cross_validation import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
import xgboost as xgb
dtrain = xgb.DMatrix(X_train, label=y_train) dtest = xgb.DMatrix(X_test, label=y_test)
param = { 'max_depth': 3, # максимальная глубина дерева 'eta': 0.3, # параметр обучения 'silent': 1, 'objective': 'multi:softprob', # функция потерь 'num_class': 3} # число классов num_round = 20 # число итераций
bst = xgb.train(param, dtrain, num_round) preds = bst.predict(dtest)
import numpy as np from sklearn.metrics import precision_score best_preds = np.asarray([np.argmax(line) for line in preds]) print precision_score(y_test, best_preds, average='macro')