Изменения

Перейти к: навигация, поиск

Регуляризация

2 байта добавлено, 10:09, 20 января 2020
Градиентный спуск
где <tex>\eta > 0</tex> - величина шага в направлении антиградиента.
'''Регуляризация''' - одна из эвристик улучшения градиентных методов обучения. Основным способом уменьшить переобучение является квадратичная регуляризация, называемая также ''сокращением весов''. Чтобы ограничить рост абсолютных значений весов, к минимизируемому функционалу <tex>Q(w)</tex> добавляется штрафное слагаемое:
:<tex>Q_{\tau}(w) = Q(w) + \frac{\tau}{2}\|w\|^2</tex>
Это приводит к появлению аддитивной поправки в градиенте:
193
правки

Навигация