Функция потерь и эмпирический риск — различия между версиями
Faerytea (обсуждение | вклад) (Новая страница: «'''Функция потерь''' ('''loss function''') — отображение результата работы алгоритма на <tex>R</tex>, пок…») |
м (rollbackEdits.php mass rollback) |
||
(не показаны 4 промежуточные версии 2 участников) | |||
Строка 15: | Строка 15: | ||
Понятие функции потерь тесно связано с эмпирическим риском. | Понятие функции потерь тесно связано с эмпирическим риском. | ||
− | '''Эмпирический риск''' — средняя величина ошибки на обучающей выборке | + | '''Эмпирический риск''' — средняя величина ошибки на обучающей выборке: |
− | : <tex>Q(a, X^m) = \dfrac{1}{m} \ | + | : <tex>Q(a, X^m) = \dfrac{1}{m} \sum\limits_{x \in X} L(a, x)</tex> |
+ | |||
+ | = Метод минимизации эмпирического риска = | ||
+ | Логично предположить, что если алгоритм хорошо показывает себя на обучающей выборке, то и на реальных данных он будет работать неплохо. Так подходим к конструктивному методу обучения — методу минимизации эмпирического риска. | ||
+ | Суть метода, как следует из названия, в минимизации функционала <tex>Q(a, X^m)</tex>: | ||
+ | : <tex>\DeclareMathOperator{\argmin}{argmin} a^{*} = \argmin\limits_{a \in A} Q(a, X^m)</tex> | ||
+ | |||
+ | Метод простой, общий, конструктивный и зачастую сводит задачу обучения к численному поиску минимума в [[Модель_алгоритма_и_её_выбор|модели алгоритма]]. Однако столь пристальное внимание к обучающей выборке приводит к явлению [[Переобучение|переобучения]]. |
Текущая версия на 19:27, 4 сентября 2022
Функция потерь (loss function) — отображение результата работы алгоритма на
, показывающее "стоимость" ошибки.Часто применяются следующие функции потерь (
— уверенность алгоритма в определённом классе для задач классификации / значение функции для регрессии, — метки; для бинарного классификатора ):- 0-1 функция
- Квадратичная функция
- Hinge loss
- Логистическая
- Log loss
Понятие функции потерь тесно связано с эмпирическим риском.
Эмпирический риск — средняя величина ошибки на обучающей выборке:
Метод минимизации эмпирического риска
Логично предположить, что если алгоритм хорошо показывает себя на обучающей выборке, то и на реальных данных он будет работать неплохо. Так подходим к конструктивному методу обучения — методу минимизации эмпирического риска. Суть метода, как следует из названия, в минимизации функционала
:Метод простой, общий, конструктивный и зачастую сводит задачу обучения к численному поиску минимума в модели алгоритма. Однако столь пристальное внимание к обучающей выборке приводит к явлению переобучения.