Изменения

Перейти к: навигация, поиск

XGBoost

69 байт убрано, 13:25, 16 марта 2019
Нет описания правки
Минимум этого выражения относительно <tex>f_t(x_i)</tex> находится в точке <tex>f_t(x_i) = \frac{-g_i}{h_i}</tex>.
===Процесс обучение отдельного дерева===1. Изначально Каждое отдельное дерево содержит единственную вершину 2. Пытаемся разбить каждую вершину и считаем ''gain''ансамбля <reftex>[https:f_t(x_i)<//entex> обучается стандартным алгоритмом.wikipedia.org/wiki/Information_gain_in_decision_trees Information gain in decision treesДля более полного описания смотрите статью [[Дерево решений и случайный лес|Дерево решений и случайный лес]]</ref> 3. Жадно сплитим вершину
==Основные параметр==
40
правок

Навигация