57
правок
Изменения
м
Поправить номера риссунков
== Примеры ==
=== Недообучение на примере линейной регрессии ===
Представьте задачу предсказания y по x ∈ R. Рис 1 показывает результат использования модели <math>y=θ_0+θ_1*x</math> для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости и по-этой причине модель не очень хороша.
{|align="center"
|-valign="top"
=== Переобучение на примере линейной регрессии ===
Представьте задачу предсказания y по x ∈ R. Рис 6 5 показывает результат использования модели <math>y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4</math> для представленного датасета. Как видно из Рис 6 5 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.
{|align="center"
|-valign="top"
|[[Файл:Normal_bias_reg.png|200px|thumb|Рис 6]]
|}
Если же добавить упростить модель, и использовать функцию <math>y=θ_0+θ_1*x+θ_2*x^2</math>, как представлено на Рис 76, то модель значительно лучше подходит для представленного датасета.
=== Переобучение на примере логистической регрессии ===
Представьте задачу классификации размеченых точек. Рис 8 7 показывает результат использования модели <math>g(θ_0+θ_1*x_1+θ_2*x_1^2+θ_3*x_2*x_1^2+θ_4*x_1^2*x_2^2 + ...)</math> для представленного датасета.
{|align="center"
|-valign="top"
|[[Файл:Normal_bias_cla.png|200px|thumb|Рис 8]]
|}
В случае же выбора модели <math>g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+x_1*x_2)</math>, представленой на Рис 98, данные значительно лучше соответствуют модели.
== Кривые обучения ==