Изменения

Перейти к: навигация, поиск

Переобучение

118 байт убрано, 19:10, 14 декабря 2018
На примере линейной регрессии[на 14.12.18 не создан]
== Примеры ==
=== На примере [[Линейная регрессия | линейной регрессии]]<sup>[на 14.12.18 не создан]</sup> ===
Представьте задачу предсказания [[Линейная регрессия | линейной регрессии]]<math>y</math> по <math>x \in R</mathsup>[на 14.12. Рис 1 показывает результат использования модели <math>y=θ_0+θ_1*x18 не создан]</mathsup> для представленного датасета. Как видно из Рис 1 Красные точки представляют исходные данные не поддаются линейной зависимости. Синии линии являются графиками полиномов различной степени M, и по этой причине модель не очень хорошааппроксимирующих исходные данные
{|align="center"
|-valign="top"
|[[Файл:High_bias_reg.png|200px|thumb|Рис 1. Недообучение. M = 1]] |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2. Модель подходитПодходящая модель. M = 2]] |[[Файл:High_variance_reg.png|200px|thumb|Рис 3. Переобучение. M = 4]]
|}
Если же добавить дополнительный параметр <math>x^2</math>Как видно из Рис 1 данные не поддаются линейной зависимости, и использовать по этой причине модель <math>y=θ_0+θ_1*x+θ_2*x^2</math>, как представлено представленная на данном рисунке, не очень хороша. На Рис 2представленна ситуация, то модель значительно лучше когда выбранная полиномиальная функция подходит для представленного датасетаописания исходных данных.  Рис 3 показывает результат использования модели <math>y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4</math> для представленного датасета. Как видно из Рис 3 данная иллюстрирует случай, когда высокая степень полинома ведет к тому, что модель слишком заточена для точки на данные обучающего датасета и, веротяно, покажет плохой результат на тестовом датасете.
=== На примере [[Логистическая регрессия | логистической регрессии]]<sup>[на 14.12.18 не создан]</sup> ===
Анонимный участник

Навигация