CatBoost — различия между версиями
Строка 10: | Строка 10: | ||
---- | ---- | ||
+ | == Дерево решений == | ||
+ | |||
+ | |||
+ | Алгоритм работы следующий: для каждого документа имеется набор значений фичей, имеется дерево, в вершинах которого условия при выполнении которых мы идем в правого ребенка вершины, иначе в левого. Очень просто для конкретно ребенка пройти до листа по дереву в соответствии со значениям фич для документа. На выходе каждому документу соответствует значение листа. Это и есть ответ. | ||
+ | |||
+ | == Бустинг == | ||
+ | |||
+ | Одно дерево - хорошо, больше - лучше. Идея состоит в том, чтобы каждое следующее дерево училось на предыдущем, уменьшая ошибку. Итого при достаточно большом количестве деревьев мы сможем сильно уменьшить ошибку, однако не стоит забывать, что чем больше деревьев, тем дольше обучается модель и в какой-то момент прирост качества становится незначительным. | ||
+ | |||
+ | == Градиентный бустинг == | ||
+ | |||
+ | * В основе CatBoost лежит градиентный бустинг. | ||
+ | |||
+ | * Градиент функции ошибки - все производные по всем значениям функции | ||
+ | |||
+ | Будем минимизировать ошибку опираясь на градиент. | ||
== Режимы работы == | == Режимы работы == | ||
− | * Регрессия | + | * Регрессия |
− | * Классификация | + | mse - функция потерь |
+ | * Классификация | ||
+ | Функция потерь - максимизируем вероятность того что все объекты в обучающей выборке классифицированы правильно, вероятность - это сигмоида над значением формулы | ||
+ | Функция ```predict_proba``` - на вхоже получаем готовый вероятности. Нужно отметить, что складывать их уже нельзя. | ||
+ | Функция ```predict``` - выдает необработанный результат. Такой результат можно складывать, например, с результатами других моделей. | ||
* Мультиклассификация | * Мультиклассификация | ||
* Ранжирования - (объекты с попарной классификацией). | * Ранжирования - (объекты с попарной классификацией). | ||
Строка 52: | Строка 72: | ||
== Как работает градиентный бустинг? == | == Как работает градиентный бустинг? == | ||
− | |||
− | |||
− | |||
− | |||
Отметим, что существует идеальный шаг по градиенту, однако листьев в дереве меньше, чем документов в датасете. | Отметим, что существует идеальный шаг по градиенту, однако листьев в дереве меньше, чем документов в датасете. |
Версия 02:27, 8 ноября 2018
Статья посвящена работе с библиотекой CatBoost -- методу машинного обучения, основанному на градиентном бустинге.
Практически любой современный метод на основе градиентного бустинга работает с числами. Это приводит к искажению их сути и потенциальному снижению точности работы модели.
Именно поэтому было важно научить машину работать не только с числами, но и с категориями напрямую, закономерности между которыми она будет выявлять самостоятельно, без ручной «помощи».
CatBoost разработан так, чтобы одинаково хорошо работать «из коробки» как с числовыми признаками, так и с категориальными.
Документацию можно найти здесь: [1].
Содержание
- 1 Дерево решений
- 2 Бустинг
- 3 Градиентный бустинг
- 4 Режимы работы
- 5 Оптимизируемые функции
- 6 Метрики
- 7 Шаги обучения
- 8 Построение дерева
- 9 Как выбрать лучшее дерево?
- 10 Как работает градиентный бустинг?
- 11 Работа с датасетом
- 12 Рандомизация скора
- 13 Бинаризация фичей
- 14 Работа с категориальными фичами
- 15 Подбор параметров
- 16 Бенчмрки
Дерево решений
Алгоритм работы следующий: для каждого документа имеется набор значений фичей, имеется дерево, в вершинах которого условия при выполнении которых мы идем в правого ребенка вершины, иначе в левого. Очень просто для конкретно ребенка пройти до листа по дереву в соответствии со значениям фич для документа. На выходе каждому документу соответствует значение листа. Это и есть ответ.
Бустинг
Одно дерево - хорошо, больше - лучше. Идея состоит в том, чтобы каждое следующее дерево училось на предыдущем, уменьшая ошибку. Итого при достаточно большом количестве деревьев мы сможем сильно уменьшить ошибку, однако не стоит забывать, что чем больше деревьев, тем дольше обучается модель и в какой-то момент прирост качества становится незначительным.
Градиентный бустинг
- В основе CatBoost лежит градиентный бустинг.
- Градиент функции ошибки - все производные по всем значениям функции
Будем минимизировать ошибку опираясь на градиент.
Режимы работы
- Регрессия
mse - функция потерь
- Классификация
Функция потерь - максимизируем вероятность того что все объекты в обучающей выборке классифицированы правильно, вероятность - это сигмоида над значением формулы Функция ```predict_proba``` - на вхоже получаем готовый вероятности. Нужно отметить, что складывать их уже нельзя. Функция ```predict``` - выдает необработанный результат. Такой результат можно складывать, например, с результатами других моделей.
- Мультиклассификация
- Ранжирования - (объекты с попарной классификацией).
Оптимизируемые функции
Поддерживает много оптимизируетмых функций. Для конкретной модели выбирается одна оптимизируемая функция.
Метрики
Поддерживает много метрик.
Шаги обучения
- Строим дерево
- Считаем значение в листьях
Построение дерева
Процесс построения происходит жадно. Выбираем первую вершину, далее выбираем лучшее дерево с одной вершиной. Далее смотрим скоры и выбираем лучшее дерево. Дерево строится по слоям. Гарантировано на каждом слое один и тот же сплит (условие, по которому мы делим)
Как выбрать лучшее дерево?
Смотрим на сколько меняется функция ошибки, выбираем такое дерево, чтобы оно как можно лучше приближало вектор градиентов.
Как работает градиентный бустинг?
Отметим, что существует идеальный шаг по градиенту, однако листьев в дереве меньше, чем документов в датасете. Поэтому мы можем пытаться приближать тот самый идеальный шаг. Чтобы найти лучший сплит, проверяем похожесть после одного шага алгоритма по градиенту - это скор.
Работа с датасетом
CatBoost поддерживает несколько режимов выборки данных
- Бутстрап Бернулли - выбираем документ с вероятностью p. Регулируется параметром sample rate
- Байесовский бутстрап - байесовское распределение. Регулируется параметром bagging temp
Отметим, что бутстрап используется только для выбора структуры дерева, для подсчета значения в листьях используем всю выборку. Это сделано так как выбор структуры дерева происходит долго, нужно несколько раз пересчитывать значения, поэтому использовать всю выборку - слишком дорого. Однако значения в листьях с уже готовой структурой дерева считаются один раз, и для большей точности можно позволить использовать весь датасет.
Рандомизация скора
Есть рандомизация скора. Score += random_strength * Rand (0, lenofgrad * q), где q - множитель, уменьшающийся при увеличении итерации. Таким образом, рандом уменьшается ближе к концу.рандома
Бинаризация фичей
Пробовать все - долго. Поэтому выбираем сетку заранее и ходим по ней. Есть несколько способов выбора:
- Uniform. Равномерно разбиваем отрезок от минимума значения для данной фичи до максимума.
- Медианная сетка. Задаем количество разбиений над множеством значений, далее идем по объектам в порядке сортировки и разбиваем на группы по k объектов, где k - количество объектов в одном слоте разбиения.
- UniformAndQuantiles. Комбинация 1 и 2 пунктов.
Работа с категориальными фичами
- LabelEncoding - работает плохо, так как появляется отношения порядка между объектами.
- One-hot encoding - работает, если различных значений фичи не много. Иначе одна фича размножится на множество фичей и влиять на модель заведомо сильнее остальных фичей.
Лучше не делать препроцессинг самим, из-за проблем, описанных выше. В CatBoost можно задать параметр cat_features, передав туда индексы категориальных фичей. Также можно отрегулировать параметр one_hot_max_size - максимальное количество различных значений у категориальной фичи, чтобы она могла в последствии быть подвержена one-hot encoding.
Подбор параметров
Ниже описаны гиперпараметры, на который стоит обратить внимание при использовании библиотеки.
- cat_features
- Overfitting detector
- Число итераций и learning rate
- L2_reg
- Random_srength
- Bagging_temp
- Глубина дерева (стоит попробовать 10 и 6)
Бенчмрки
Сравнение библиотеки CatBoost с открытыми аналогами XGBoost, LightGBM и H20 на наборе публичных датасетов. Результаты - [2]