Переобучение — различия между версиями
Rugpanov (обсуждение | вклад) (Добавить картинки для статьи) |
Rugpanov (обсуждение | вклад) (Улучшить картинки: подписи) |
||
Строка 1: | Строка 1: | ||
− | '''Переобучение''' (overfitting, high variance) - негативное явление возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.<br> | + | '''Переобучение''' (англ. overfitting, high variance) - негативное явление возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.<br> |
− | '''Недообучение''' (underfitting, high bias) - негативное явление возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей. | + | '''Недообучение''' (англ. underfitting, high bias) - негативное явление возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей. |
== Примеры == | == Примеры == | ||
Строка 7: | Строка 7: | ||
{|align="center" | {|align="center" | ||
|-valign="top" | |-valign="top" | ||
− | |[[Файл:High_bias_reg.png|200px|thumb|Рис 1]] | + | |[[Файл:High_bias_reg.png|200px|thumb|Рис 1. Недообучение]] |
|[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2]] | |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2]] | ||
|} | |} | ||
Строка 16: | Строка 16: | ||
{|align="center" | {|align="center" | ||
|-valign="top" | |-valign="top" | ||
− | |[[Файл:High_bias_cla.png|200px|thumb|Рис 3]] | + | |[[Файл:High_bias_cla.png|200px|thumb|Рис 3. Недообучение]] |
|[[Файл:Normal_bias_cla.png|200px|thumb|Рис 4]] | |[[Файл:Normal_bias_cla.png|200px|thumb|Рис 4]] | ||
|} | |} | ||
Строка 26: | Строка 26: | ||
{|align="center" | {|align="center" | ||
|-valign="top" | |-valign="top" | ||
− | |[[Файл:High_variance_reg.png|200px|thumb|Рис 5]] | + | |[[Файл:High_variance_reg.png|200px|thumb|Рис 5. Переобучение]] |
|[[Файл:Normal_bias_reg.png|200px|thumb|Рис 6]] | |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 6]] | ||
|} | |} | ||
Строка 35: | Строка 35: | ||
{|align="center" | {|align="center" | ||
|-valign="top" | |-valign="top" | ||
− | |[[Файл:High_variance_cla.png|200px|thumb|Рис 7]] | + | |[[Файл:High_variance_cla.png|200px|thumb|Рис 7. Переобучение]] |
|[[Файл:Normal_bias_cla.png|200px|thumb|Рис 8]] | |[[Файл:Normal_bias_cla.png|200px|thumb|Рис 8]] | ||
|} | |} | ||
Строка 42: | Строка 42: | ||
== Кривые обучения == | == Кривые обучения == | ||
=== Кривые обучения при переобучении === | === Кривые обучения при переобучении === | ||
− | [[Файл:High_variance_learning_curve.png|border|500px]] | + | [[Файл:High_variance_learning_curve.png|border|500px|Кривые обучения при переобучении]] |
=== Кривые обучения при недообучении === | === Кривые обучения при недообучении === | ||
− | [[Файл:High_bias_learning_curve.png|border|500px]] | + | [[Файл:High_bias_learning_curve.png|border|500px|Кривые обучения при недообучении]] |
== Возможные решения == | == Возможные решения == |
Версия 15:02, 14 октября 2018
Переобучение (англ. overfitting, high variance) - негативное явление возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.
Недообучение (англ. underfitting, high bias) - негативное явление возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей.
Содержание
Примеры
Недообучение на примере линейной регрессии
Представьте задачу предсказания y по x ∈ R. Рис 1 показывает результат использования модели
для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости и по-этой причине модель не очень хороша.Если же добавить дополнительный параметр x^2, и использовать модель
, как представлено на Рис 2, то модель значительно лучше подходит для представленного датасета.Недообучение на примере логистической регрессии
Представьте задачу классификации размеченых точек. Рис 3 показывает результат использования модели
для представленного датасета. Как и в предыдущем примере данные не поддаются классификации по линейной зависимости.В случае же выбора модели
, представленой на Рис 4, данные значительно лучше соответствуют модели.
Переобучение на примере линейной регрессии
Представьте задачу предсказания y по x ∈ R. Рис 6 показывает результат использования модели
для представленного датасета. Как видно из Рис 6 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.Если же добавить упростить модель, и использовать функцию
, как представлено на Рис 7, то модель значительно лучше подходит для представленного датасета.Переобучение на примере логистической регрессии
Представьте задачу классификации размеченых точек. Рис 8 показывает результат использования модели
для представленного датасета.В случае же выбора модели
, представленой на Рис 9, данные значительно лучше соответствуют модели.Кривые обучения
Кривые обучения при переобучении
Кривые обучения при недообучении
Возможные решения
Возможные решения при переобучении
- Увеличение данных датасета
- Уменьшение количества параметров
- Добавление регуляризации / увеличение коэффициента регуляризации
Возможные решения при недообучении
- Добавление новых параметров
- Использование для описания модели функций с более высокой степенью
- Уменьшение коэффициента регуляризации