Функция потерь и эмпирический риск — различия между версиями
Faerytea (обсуждение | вклад) м |
Faerytea (обсуждение | вклад) м |
||
Строка 23: | Строка 23: | ||
: <tex>\DeclareMathOperator{\argmin}{argmin} a^{*} = \argmin\limits_{a \in A} Q(a, X^m)</tex> | : <tex>\DeclareMathOperator{\argmin}{argmin} a^{*} = \argmin\limits_{a \in A} Q(a, X^m)</tex> | ||
− | Метод простой, общий, конструктивный и зачастую сводит задачу обучения к численному поиску минимума в модели алгоритма. Однако столь пристальное внимание к обучающей выборке приводит к явлению [[переобучения]]. | + | Метод простой, общий, конструктивный и зачастую сводит задачу обучения к численному поиску минимума в [[Модель_алгоритма_и_её_выбор|модели алгоритма]]. Однако столь пристальное внимание к обучающей выборке приводит к явлению [[Переобучение|переобучения]]. |
Версия 16:03, 19 апреля 2019
Функция потерь (loss function) — отображение результата работы алгоритма на
, показывающее "стоимость" ошибки.Часто применяются следующие функции потерь (
— уверенность алгоритма в определённом классе для задач классификации / значение функции для регрессии, — метки; для бинарного классификатора ):- 0-1 функция
- Квадратичная функция
- Hinge loss
- Логистическая
- Log loss
Понятие функции потерь тесно связано с эмпирическим риском.
Эмпирический риск — средняя величина ошибки на обучающей выборке:
Метод минимизации эмпирического риска
Логично предположить, что если алгоритм хорошо показывает себя на обучающей выборке, то и на реальных данных он будет работать неплохо. Так подходим к конструктивному методу обучения — методу минимизации эмпирического риска. Суть метода, как следует из названия, в минимизации функционала
:Метод простой, общий, конструктивный и зачастую сводит задачу обучения к численному поиску минимума в модели алгоритма. Однако столь пристальное внимание к обучающей выборке приводит к явлению переобучения.