Регуляризация — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Мотивация)
(Мотивация)
Строка 8: Строка 8:
  
 
В качестве наглядного примера можно рассмотреть линейные регрессионные модели.   
 
В качестве наглядного примера можно рассмотреть линейные регрессионные модели.   
Восстановить зависимость для нескольких точек можно пытаться полиномами разной степени.
+
Восстановить зависимость для нескольких точек можно пытаться полиномами разной степени M.
  
 
{|align="center"
 
{|align="center"
 
  |-valign="top"
 
  |-valign="top"
  |[[Файл:High_bias_reg.png|200px|thumb|Рис 1. Недообучение. M=1]]
+
  |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 1. Норма. M=2]]
|[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2. Норма. M=2]]
+
  |[[Файл:High_variance_reg.png|200px|thumb|Рис 2. Переобучение. M=4]]
  |[[Файл:High_variance_reg.png|200px|thumb|Рис 3. Переобучение. M=4]]
 
 
  |}
 
  |}
 +
 +
Как можно видеть на Рис 1. представлена зависимость, которая хорошо подходит для описания данных, а на Рис. 2 - модель слишком сильно заточилась под обучающую выборку.
 +
 +
Одним из способов бороться с этим эффектом - использовать регуляризацию, т. е. добавлять некоторый штраф за большие значения коэффициентов у модели. Тем самым мы запретим слишком "резкие" изгибы и ограничим возможность подстраивания модели под данные.
  
 
==Основные виды регуляризации==
 
==Основные виды регуляризации==

Версия 03:21, 19 января 2020

Определение:
Регуляризация (англ. regularization) в статистике, машинном обучении, теории обратных задач — метод добавления некоторых дополнительных ограничений к условию с целью решить неккоректно поставленную задачу или предотвратить переобучение. Чаще всего эта информация имеет вид штрафа за сложность модели.


Мотивация

Как говорилось ранее, регуляризация полезна для борьбы с <переобучением>. Если вы выбрали сложную модель, и при этом у вас недостаточно данных, то легко можно получить итоговую модель, которая хорошо описывает обучающую выборку, но не обобщается на тестовую.

В качестве наглядного примера можно рассмотреть линейные регрессионные модели. Восстановить зависимость для нескольких точек можно пытаться полиномами разной степени M.

Рис 1. Норма. M=2
Рис 2. Переобучение. M=4

Как можно видеть на Рис 1. представлена зависимость, которая хорошо подходит для описания данных, а на Рис. 2 - модель слишком сильно заточилась под обучающую выборку.

Одним из способов бороться с этим эффектом - использовать регуляризацию, т. е. добавлять некоторый штраф за большие значения коэффициентов у модели. Тем самым мы запретим слишком "резкие" изгибы и ограничим возможность подстраивания модели под данные.

Основные виды регуляризации

L1-регуляризация

L2-регуляризация

Эластичная сеть

Вероятностная интерпретация регуляризации

Регуляризация в линейной регрессии

Другие использования регуляризации

Логистическая регрессия

Нейронные сети

Метод опорных вектоов

Стохастический градиентный спуск