Изменения

Перейти к: навигация, поиск

Переобучение

875 байт добавлено, 15:04, 14 октября 2018
м
Поправить номера риссунков
'''Переобучение''' (англ. overfitting, high variance) - негативное явление возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.<br>'''Недообучение''' (англ. underfitting, high bias) - негативное явление возникающее, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей.
== Примеры ==
=== Переобучение на примере линейной регрессии ===
Представьте задачу предсказания y по x ∈ R. Рис 6 показывает результат использования модели <math>y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4</math> для представленного датасета. Как видно из Рис 6 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.
Рис 6, Рис 7
Если же добавить упростить модель, и использовать функцию <math>y=θ_0+θ_1*x+θ_2*x^2</math>, как представлено на Рис 7, то модель значительно лучше подходит для представленного датасета.
 
=== Переобучение на примере логистической регрессии ===
Представьте задачу классификации размеченых точек. Рис 8 показывает результат использования модели <math>g(θ_0+θ_1*x_1+θ_2*x_1^2+θ_3*x_2*x_1^2+θ_4*x_1^2*x_2^2 + ...)</math> для представленного датасета.
Рис 8, Рис 9
В случае же выбора модели <math>g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+x_1*x_2)</math>, представленой на Рис 9, данные значительно лучше соответствуют модели.
 
=== Недообучение на примере линейной регрессии ===
Представьте задачу предсказания y по x ∈ R. Рис 1 показывает результат использования модели <math>y=θ_0+θ_1*x</math> для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости и по-этой причине модель не очень хороша.{|align="center" |-valign="top" |[[Файл:High_bias_reg.png|200px|thumb|Рис 1, . Недообучение]] |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2]] |}
Если же добавить дополнительный параметр x^2, и использовать модель <math>y=θ_0+θ_1*x+θ_2*x^2</math>, как представлено на Рис 2, то модель значительно лучше подходит для представленного датасета.
=== Недообучение на примере логистической регрессии ===
Представьте задачу классификации размеченых точек. Рис 3 показывает результат использования модели <math>g(θ_0+θ_1*x_1+θ_2*x_2)</math> для представленного датасета. Как и в предыдущем примере данные не поддаются классификации по линейной зависимости.
{|align="center" |-valign="top" |[[Файл:High_bias_cla.png|200px|thumb|Рис 3, . Недообучение]] |[[Файл:Normal_bias_cla.png|200px|thumb|Рис 4]] |}
В случае же выбора модели <math>g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+x_1*x_2)</math>, представленой на Рис 4, данные значительно лучше соответствуют модели.
 
 
=== Переобучение на примере линейной регрессии ===
Представьте задачу предсказания y по x ∈ R. Рис 5 показывает результат использования модели <math>y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4</math> для представленного датасета. Как видно из Рис 5 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.
{|align="center"
|-valign="top"
|[[Файл:High_variance_reg.png|200px|thumb|Рис 5. Переобучение]]
|[[Файл:Normal_bias_reg.png|200px|thumb|Рис 6]]
|}
Если же добавить упростить модель, и использовать функцию <math>y=θ_0+θ_1*x+θ_2*x^2</math>, как представлено на Рис 6, то модель значительно лучше подходит для представленного датасета.
 
=== Переобучение на примере логистической регрессии ===
Представьте задачу классификации размеченых точек. Рис 7 показывает результат использования модели <math>g(θ_0+θ_1*x_1+θ_2*x_1^2+θ_3*x_2*x_1^2+θ_4*x_1^2*x_2^2 + ...)</math> для представленного датасета.
{|align="center"
|-valign="top"
|[[Файл:High_variance_cla.png|200px|thumb|Рис 7. Переобучение]]
|[[Файл:Normal_bias_cla.png|200px|thumb|Рис 8]]
|}
В случае же выбора модели <math>g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+x_1*x_2)</math>, представленой на Рис 8, данные значительно лучше соответствуют модели.
== Кривые обучения ==
=== Кривые обучения при переобучении ===
[[Файл:High_variance_learning_curve...png|border|500px|Кривые обучения при переобучении]]
=== Кривые обучения при недообучении ===
[[Файл:High_bias_learning_curve...png|border|500px|Кривые обучения при недообучении]]
== Возможные решения ==
57
правок

Навигация