Переобучение — различия между версиями
Evaleria (обсуждение | вклад) м (→Возможные решения при недообучении) |
|||
Строка 1: | Строка 1: | ||
− | '''Переобучение''' (англ. overfitting | + | '''Переобучение''' (англ. overfitting) {{---}} негативное явление, возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.<br> |
− | '''Недообучение''' (англ. underfitting | + | '''Недообучение''' (англ. underfitting) {{---}} негативное явление, возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей. |
== Примеры == | == Примеры == | ||
Строка 28: | Строка 28: | ||
=== Кривые обучения при недообучении === | === Кривые обучения при недообучении === | ||
[[Файл:High_bias_learning_curve.png|border|500px|Кривые обучения при недообучении]] | [[Файл:High_bias_learning_curve.png|border|500px|Кривые обучения при недообучении]] | ||
+ | |||
+ | == High variance и high bias == | ||
+ | ... | ||
== Возможные решения == | == Возможные решения == |
Версия 21:06, 1 декабря 2018
Переобучение (англ. overfitting) — негативное явление, возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.
Недообучение (англ. underfitting) — негативное явление, возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей.
Содержание
Примеры
На примере линейной регрессии
Представьте задачу предсказания
по . Рис 1 показывает результат использования модели для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости, и по этой причине модель не очень хороша.Если же добавить дополнительный параметр
, и использовать модель , как представлено на Рис 2, то модель значительно лучше подходит для представленного датасета. Рис 3 показывает результат использования модели для представленного датасета. Как видно из Рис 3 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.На примере логистической регрессии
Представьте задачу классификации размеченых точек. Рис 4 показывает результат использования модели
для представленного датасета. Как и в предыдущем примере, данные не поддаются классификации по линейной зависимости.В случае же выбора модели
, представленой на Рис 5, данные значительно лучше соответствуют модели. Рис 6 показывает результат использования модели для представленного датасета — это яркий пример явления переобучения.Кривые обучения
Кривые обучения при переобучении
Кривые обучения при недообучении
High variance и high bias
...
Возможные решения
Возможные решения при переобучении
- Увеличение количества данных в наборе
- Уменьшение количества параметров модели
- Добавление регуляризации / увеличение коэффициента регуляризации
Возможные решения при недообучении
- Добавление новых параметров модели
- Использование для описания модели функций с более высокой степенью
- Уменьшение коэффициента регуляризации
См. также
- Модель алгоритма и ее выбор[на 01.12.18 не создан]
- Оценка качества в задачах классификации и регрессии [на 01.12.18 не создан]
- Оценка качества в задаче кластеризации [на 01.12.18 не создан]
Примечания
- Overfitting: when accuracy measure goes wrong
- The Problem of Overfitting Data
- Overfitting in Machine Learning
Источники информации
- Overfitting - статься на Википедии
- Переобучение - вводная статься на MachineLearning.ru
- The Problem of Overfitting - курс Andrew Ng