Изменения

Перейти к: навигация, поиск

Настройка гиперпараметров

22 байта убрано, 19:36, 22 апреля 2020
форматирование текста
== Гиперпараметры ==
Гиперпараметры - параметры, которые не настраиваются во время обучения модели.   Пример гиперпараметра - шаг градиентного спуска, он задается перед обучением. <br>Пример параметров - веса градиентного спуска, они изменяются и настраиваются во время обучения.
Для подбора гиперпараметров необходимо разделить датасет на три части:
* test set (тестовый набор данных, для тестирования лучшей модели)
Зачем нам нужен и валидационный, и тестовый набор? <br>Дело в том, что модель может переучиться на валидационном наборе данных. Для выявления переобучения используется тестовый набор данных.
Рассмотрим модель KNeighborsClassifier из библиотеки sklearn. Все “параметры” данной модели, с точки зрения машинного обучения, являются гиперпараметрами, так как задаются до начала обучения.
==== Общая информация ====
Grid search принимает на вход модель и различные значения гиперпараметров (сетку гиперпараметров). Далее, для каждого возможного сочетания значений гиперпараметров, метод считает ошибку и в конце выбирает сочетание, при котором ошибка минимальна.
==== Sklearn Grid search: использование ====
Вместо полного перебора, Random grid search работает с некоторыми, случайным образом выбранными, комбинациями. На основе полученных результатов, происходит сужение области поиска.
Когда random grid search будет гораздо полезнее, чем grid search? <br>В ситуации, когда гиперпараметров много, но сильно влияющих на конечную производительность алгоритма - мало.
==== Реализация Random grid ====
SMBO (Sequential Model-Based Optimization) - методы, основанные на байесовской оптимизации
Когда используют SMBO? <br>Когда оптимизация целевой функции будет стоить очень "дорого". Главная идея SMBO - замена целевой функции "суррогатной" функцией.
На каждом шаге работы SMBO:
51
правка

Навигация