Изменения

Перейти к: навигация, поиск

Настройка гиперпараметров

353 байта добавлено, 20:16, 22 апреля 2020
м
источники
[[Файл:KNeighborsClassifier_model.png|center|1000px]]
== Техники настройки гиперпараметров ==
=== Grid search ===
==== Общая информация ====
Grid search принимает на вход модель и различные значения гиперпараметров (сетку гиперпараметров). Далее, для каждого возможного сочетания значений гиперпараметров, метод считает ошибку и в конце выбирает сочетание, при котором ошибка минимальна.
==== Sklearn Grid search: использование ====
Пример использования <code>GridSearch</code> из библиотеки scikit-learn:
[[Файл:KNeighborsClassifier_exmpl.png|center|1000px]]
==== Sklearn Grid search: важные атрибуты ====
* <code>best_estimator_</code> — лучшая модель
[[Файл:KNeighborsClassifier_param_array.png|center|1000px]] <br>
==== Реализация Grid search в библеотеках====
* Katib
* scikit-learn
=== Random grid search ===
==== Основная информация ====
Вместо полного перебора, Random grid search работает с некоторыми, случайным образом выбранными, комбинациями. На основе полученных результатов, происходит сужение области поиска.
Когда random grid search будет гораздо полезнее, чем grid search? В ситуации, когда гиперпараметров много, но сильно влияющих на конечную производительность алгоритма — мало.
==== Реализация Random grid ====
* hyperopt
=== SMBO ===
==== Основная информация ====
SMBO (Sequential Model-Based Optimization) — методы, основанные на байесовской оптимизации
* Random Forest Regressions
==== Реализация ====
* Random Forest Regressions: SMAC
* Tree Parzen Estimators: Hyperopt
* Gaussian Processes: Spearmint, Scikit-optimize
=== TPE ===
==== Основная информация ====
TPE — Tree-structured Parzen Estimator (Древовидная структура Парзена)
<math> {p(x|y)} </math> — распределение гиперпараметров.
==== Реализация ====
* Hyperopt
=== SMAC ===
==== Основная информация ====
SMAC использует Random Forest regression и расширяет подходы SMBO:
* Выделяет бюджет на общее время, доступное для настройки алгоритма, а не на количество оценок функций.
==== Реализация ====
* AutoML
 
== Источники ==
 
* [https://towardsdatascience.com/hyperparameters-optimization-526348bb8e2d Hyperparameters Optimization]
* [https://www.youtube.com/watch?v=u6MG_UTwiIQ Bayesian optimization]
* [https://www.youtube.com/watch?v=PgJMLpIfIc8 Гауссовские процессы и байесовская оптимизация]
* [https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html GridSearchCV sklearn]
51
правка

Навигация