<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/index.php?action=history&amp;feed=atom&amp;title=%D0%A3%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%B8%D0%BA%3AEzamyatin</id>
		<title>Участник:Ezamyatin - История изменений</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/index.php?action=history&amp;feed=atom&amp;title=%D0%A3%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%B8%D0%BA%3AEzamyatin"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A3%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%B8%D0%BA:Ezamyatin&amp;action=history"/>
		<updated>2026-05-10T13:25:45Z</updated>
		<subtitle>История изменений этой страницы в вики</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%A3%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%B8%D0%BA:Ezamyatin&amp;diff=69854&amp;oldid=prev</id>
		<title>Ezamyatin: Новая страница: «'''XGBoost''' {{---}} одна из самых популярных и эффективных реализаций алгоритма Бустинг,_AdaBoost|…»</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A3%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%B8%D0%BA:Ezamyatin&amp;diff=69854&amp;oldid=prev"/>
				<updated>2019-02-09T14:49:59Z</updated>
		
		<summary type="html">&lt;p&gt;Новая страница: «&amp;#039;&amp;#039;&amp;#039;XGBoost&amp;#039;&amp;#039;&amp;#039; {{---}} одна из самых популярных и эффективных реализаций алгоритма Бустинг,_AdaBoost|…»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;'''XGBoost''' {{---}} одна из самых популярных и эффективных реализаций алгоритма [[Бустинг,_AdaBoost|градиентного бустинга]] на деревьях на 2019-й год.&lt;br /&gt;
&lt;br /&gt;
==Основные преимущества==&lt;br /&gt;
* Возможность добавлять [[Регуляризация|регуляризацию]]&lt;br /&gt;
* Возможность работать с разреженными данными&lt;br /&gt;
* Возможность распределенного обучения&lt;br /&gt;
* Эффективная реализация&lt;br /&gt;
&lt;br /&gt;
==Идея алгоритма==&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathcal{L}^{(t)} = \sum_{i=1}^n l(y_i,\hat{y_i}^{(t-1)}+f_t(x_i))+\Omega(f_t)&amp;lt;/tex&amp;gt; {{---}} функция для оптимизации градиентного бустинга.&lt;br /&gt;
&lt;br /&gt;
Дальше с помощью разложения Тейлора до второго члена можем приблизить это следующим выражением:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;\mathcal{L}^{(t)} = \sum_{i=1}^n l(y_i,\hat{y_i}^{(t-1)}) + g_i f_t(x_i) + 0.5 h_i f_t^2(x_i)) + \Omega(f_t)&amp;lt;/tex&amp;gt;, где&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;g_i = \frac {\partial {l(y_i,\hat{y_i}^{t-1})}}{\partial{\hat{y_i}^{t-1}}}&amp;lt;/tex&amp;gt;, &amp;lt;tex&amp;gt;h_i = \frac {\partial^2 {l(y_i,\hat{y_i}^{t-1})}}{\partial^2{\hat{y_i}^{t-1}}}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Минимум этого выражения относительно &amp;lt;tex&amp;gt;f_t(x_i)&amp;lt;/tex&amp;gt; находится в точке &amp;lt;tex&amp;gt;f_t(x_i) = \frac{-g_i}{h_i}&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Процесс обучение отдельного дерева===&lt;br /&gt;
1. Изначально дерево содержит единственную вершину&lt;br /&gt;
&lt;br /&gt;
2. Пытаемся разбить каждую вершину и считаем ''gain''&lt;br /&gt;
&lt;br /&gt;
3. Жадно сплитим вершину&lt;br /&gt;
&lt;br /&gt;
==Пример использования с помощью библиотеки xgboost==&lt;br /&gt;
&lt;br /&gt;
 from sklearn import datasets&lt;br /&gt;
 iris = datasets.load_iris()&lt;br /&gt;
 X = iris.data&lt;br /&gt;
 y = iris.target&lt;br /&gt;
&lt;br /&gt;
 from sklearn.cross_validation import train_test_split&lt;br /&gt;
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)&lt;br /&gt;
&lt;br /&gt;
 import xgboost as xgb&lt;br /&gt;
&lt;br /&gt;
 dtrain = xgb.DMatrix(X_train, label=y_train)&lt;br /&gt;
 dtest = xgb.DMatrix(X_test, label=y_test)&lt;br /&gt;
&lt;br /&gt;
 param = {&lt;br /&gt;
    'max_depth': 3,  # максимальная глубина дерева&lt;br /&gt;
    'eta': 0.3,  # параметр обучения &lt;br /&gt;
    'silent': 1, &lt;br /&gt;
    'objective': 'multi:softprob',  # функция потерь&lt;br /&gt;
    'num_class': 3}  # число классов&lt;br /&gt;
 num_round = 20  # число итераций&lt;br /&gt;
&lt;br /&gt;
 bst = xgb.train(param, dtrain, num_round)&lt;br /&gt;
 preds = bst.predict(dtest)&lt;br /&gt;
&lt;br /&gt;
 import numpy as np&lt;br /&gt;
 from sklearn.metrics import precision_score&lt;br /&gt;
 best_preds = np.asarray([np.argmax(line) for line in preds])&lt;br /&gt;
 print precision_score(y_test, best_preds, average='macro')&lt;/div&gt;</summary>
		<author><name>Ezamyatin</name></author>	</entry>

	</feed>