Редактирование: Регуляризация

Перейти к: навигация, поиск

Внимание! Вы не авторизовались на сайте. Ваш IP-адрес будет публично видимым, если вы будете вносить любые правки. Если вы войдёте или создадите учётную запись, правки вместо этого будут связаны с вашим именем пользователя, а также у вас появятся другие преимущества.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.
Текущая версия Ваш текст
Строка 1: Строка 1:
 
{{Определение
 
{{Определение
 
|definition=
 
|definition=
'''Регуляризация''' (англ. ''regularization'') в статистике, машинном обучении, теории обратных задач — метод добавления некоторых дополнительных ограничений к условию с целью решить некорректно поставленную задачу или предотвратить переобучение. Чаще всего эта информация имеет вид штрафа за сложность модели.
+
'''Регуляризация''' (англ. ''regularization'') в статистике, машинном обучении, теории обратных задач — метод добавления некоторых дополнительных ограничений к условию с целью решить неккоректно поставленную задачу или предотвратить переобучение. Чаще всего эта информация имеет вид штрафа за сложность модели.
 
}}
 
}}
  
Строка 121: Строка 121:
  
 
==Регуляризация в линейной регрессии==
 
==Регуляризация в линейной регрессии==
В [[Линейная регрессия | линейной регрессии]] моделируется линейная зависимость между зависимой и независимой переменной. Каждому объекту $x \in X^l$ соответствует признаковое описание $(f_{1}(x),\dots,f_{n}(x))$, где $f_{j}:X \rightarrow \mathbb{R}$ {{---}} числовые признаки. Модель алгоритмов для линейной регрессии состоит из функций вида:
+
В [[Линейная регрессия | линейной регрессии]] моделируется линейная зависимость между зависимой и независимой переменной. Таким образом, модель алгоритмов для нее состоит из функций вида:
:$g(x, \beta) = \sum\limits_{j}^n \beta_{j} \,f_{j}(x)$
+
:$g(x, \beta) = \sum\limits_{j}^n \beta_{j} f_{j}(x)$
 
В итоге оптимизируемый функционал эмпирического риска выглядит следующим образом:
 
В итоге оптимизируемый функционал эмпирического риска выглядит следующим образом:
 
:$Q(a) = \|F\beta - y\|^2$,
 
:$Q(a) = \|F\beta - y\|^2$,
где $F = (f_{j}(x_{i}))_{l \times n}$ {{---}} матрица объекты-признаки, $y = (y_{i})_{l \times 1}$ {{---}} целевой вектор, $\beta = (\beta_{j})_{n \times 1}$ {{---}} вектор параметров.
+
где $F = (f(x_{i}))_{l \times n}$ {{---}} матрица объекты-признаки, $y = (y_{i})_{l \times 1}$ {{---}} целевой вектор, $\beta = (\beta_{j})_{n \times 1}$ {{---}} вектор параметров.
 
Приравняв нулю производную $Q(\beta)$ по параметру $\beta$, получаем:
 
Приравняв нулю производную $Q(\beta)$ по параметру $\beta$, получаем:
 
:$\beta^* = (F^TF)^{-1}F^Ty$
 
:$\beta^* = (F^TF)^{-1}F^Ty$
Строка 187: Строка 187:
  
 
Также полезно будет рассмотреть простую модельную задачу. Пусть $l = n$ и матрица объекты-признаки является единичной $F = I$. Тогда МНК-решение дает вектор коэффициентов $\beta$:
 
Также полезно будет рассмотреть простую модельную задачу. Пусть $l = n$ и матрица объекты-признаки является единичной $F = I$. Тогда МНК-решение дает вектор коэффициентов $\beta$:
:$\beta^* = argmin \left(\sum\limits_{i=1}^l(\beta_{i} - y_{i})^2\right)$
+
:$\beta^* = argmin(\sum\limits_{i=1}^l(\beta_{i} - y_{i})^2)$
 
:$\beta_{j}^* = y_{j}$
 
:$\beta_{j}^* = y_{j}$
 
В случае с гребневой регрессией:
 
В случае с гребневой регрессией:
Строка 241: Строка 241:
 
Также существуют разновидности SVM с другими регуляризаторами.
 
Также существуют разновидности SVM с другими регуляризаторами.
 
* Метод релевантных векторов (англ. ''RVM, Relevance vector Machine''):
 
* Метод релевантных векторов (англ. ''RVM, Relevance vector Machine''):
:$\dfrac{1}{2}\sum\limits_{i=1}^l\left(\ln w_{i} + \dfrac{\lambda_{i}^2}{w_{i}}\right)$
+
:$\dfrac{1}{2}\sum\limits_{i=1}^l(\ln w_{i} + \dfrac{\lambda_{i}^2}{w_{i}})$
 
* Метод опорных векторов с лассо (англ. ''LASSO SVM''):  
 
* Метод опорных векторов с лассо (англ. ''LASSO SVM''):  
 
:$\mu \sum\limits_{i=1}^n|w_{i}|$
 
:$\mu \sum\limits_{i=1}^n|w_{i}|$

Пожалуйста, учтите, что любой ваш вклад в проект «Викиконспекты» может быть отредактирован или удалён другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см. Викиконспекты:Авторские права). НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!

Чтобы изменить эту страницу, пожалуйста, ответьте на приведённый ниже вопрос (подробнее):

Отменить | Справка по редактированию (в новом окне)

Шаблоны, используемые на этой странице: