Изменения

Перейти к: навигация, поиск

Регуляризация

5 байт убрано, 10:09, 20 января 2020
Регуляризация в алгоритмах
В результате правило обновления весов принимает вид:
:<tex>w := w(1 - \eta \tau) - \eta Q'(w)</tex>
Таким образом, вся модификация сводится к появлению неотрицательного множителя <tex>(1 − \eta \tau)</tex>, приводящего к постоянному уменьшению весов.
'''Достоинства'''* Предотвращается Регуляризация предовтращает паралич,* повышается повышает устойчивость весов в случае мультиколлинеарности,* повышается обобщающая повышает обобщающую способность алгоритма и снижается снижает риск переобучения. '''Недостатки'''* Параметр Однако есть и недостатки - параметр <tex>\tau</tex> необходимо выбирать с помощью [[Кросс-валидация | кросс-валидации]], что связано с большими вычислительными затратами.
===Метод опорных векторов===
193
правки

Навигация