<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=93.185.28.101&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=93.185.28.101&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/93.185.28.101"/>
		<updated>2026-04-11T16:06:45Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%9F%D0%B5%D1%80%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=67455</id>
		<title>Переобучение</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%9F%D0%B5%D1%80%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=67455"/>
				<updated>2018-12-02T20:36:10Z</updated>
		
		<summary type="html">&lt;p&gt;93.185.28.101: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Переобучение''' (англ. overfitting) {{---}} негативное явление, возникающее, когда алгоритм обучения вырабатывает предсказания, которые слишком близко или точно соответствуют конкретному набору данных, и поэтому не подходят для применения алгоритма к дополнительным данным или будущим наблюдениям.&lt;br /&gt;
&lt;br /&gt;
'''Недообучение''' (англ. underfitting) {{---}} негативное явление, возникающее, когда выбранная статистическая модель не может адекватно описать базовую структуру данных.&lt;br /&gt;
&lt;br /&gt;
== Примеры ==&lt;br /&gt;
=== На примере линейной регрессии ===&lt;br /&gt;
Представьте задачу предсказания &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; по &amp;lt;math&amp;gt;x \in R&amp;lt;/math&amp;gt;. Рис 1 показывает результат использования модели &amp;lt;math&amp;gt;y=θ_0+θ_1*x&amp;lt;/math&amp;gt; для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости, и по этой причине модель не очень хороша.&lt;br /&gt;
{|align=&amp;quot;center&amp;quot;&lt;br /&gt;
 |-valign=&amp;quot;top&amp;quot;&lt;br /&gt;
 |[[Файл:High_bias_reg.png|200px|thumb|Рис 1. Недообучение]]&lt;br /&gt;
 |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2. Модель подходит]]&lt;br /&gt;
 |[[Файл:High_variance_reg.png|200px|thumb|Рис 3. Переобучение]]&lt;br /&gt;
 |}&lt;br /&gt;
Если же добавить дополнительный параметр &amp;lt;math&amp;gt;x^2&amp;lt;/math&amp;gt;, и использовать модель &amp;lt;math&amp;gt;y=θ_0+θ_1*x+θ_2*x^2&amp;lt;/math&amp;gt;, как представлено на Рис 2, то модель значительно лучше подходит для представленного датасета. Рис 3 показывает результат использования модели &amp;lt;math&amp;gt;y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4&amp;lt;/math&amp;gt; для представленного датасета. Как видно из Рис 3 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.&lt;br /&gt;
&lt;br /&gt;
=== На примере логистической регрессии ===&lt;br /&gt;
Представьте задачу классификации размеченых точек. Рис 4 показывает результат использования модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_2)&amp;lt;/math&amp;gt; для представленного датасета. Как и в предыдущем примере, данные не поддаются классификации по линейной зависимости.&lt;br /&gt;
{|align=&amp;quot;center&amp;quot;&lt;br /&gt;
 |-valign=&amp;quot;top&amp;quot;&lt;br /&gt;
 |[[Файл:High_bias_cla.png|200px|thumb|Рис 4. Недообучение]]&lt;br /&gt;
 |[[Файл:Normal_bias_cla.png|200px|thumb|Рис 5. Модель подходит]]&lt;br /&gt;
 |[[Файл:High_variance_cla.png|200px|thumb|Рис 6. Переобучение]]&lt;br /&gt;
 |}&lt;br /&gt;
В случае же выбора модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+θ_5*x_1*x_2)&amp;lt;/math&amp;gt;, представленой на Рис 5, данные значительно лучше соответствуют модели. Рис 6 показывает результат использования модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_1^2+θ_3*x_2*x_1^2+θ_4*x_1^2*x_2^2 + ...)&amp;lt;/math&amp;gt; для представленного датасета {{---}} это яркий пример явления переобучения. &lt;br /&gt;
&lt;br /&gt;
== Кривые обучения ==&lt;br /&gt;
=== Кривые обучения при переобучении ===&lt;br /&gt;
[[Файл:High_variance_learning_curve.png|border|500px|Кривые обучения при переобучении]]&lt;br /&gt;
=== Кривые обучения при недообучении ===&lt;br /&gt;
[[Файл:High_bias_learning_curve.png|border|500px|Кривые обучения при недообучении]]&lt;br /&gt;
&lt;br /&gt;
== High variance и high bias ==&lt;br /&gt;
...&lt;br /&gt;
&lt;br /&gt;
== Возможные решения ==&lt;br /&gt;
=== Возможные решения при переобучении ===&lt;br /&gt;
* Увеличение количества данных в наборе&lt;br /&gt;
* Уменьшение количества параметров модели&lt;br /&gt;
* Добавление регуляризации / увеличение коэффициента регуляризации&lt;br /&gt;
&lt;br /&gt;
=== Возможные решения при недообучении ===&lt;br /&gt;
* Добавление новых параметров модели&lt;br /&gt;
* Использование для описания модели функций с более высокой степенью &lt;br /&gt;
* Уменьшение коэффициента регуляризации&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Модель_алгоритма_и_ее_выбор Модель алгоритма и ее выбор]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Оценка_качества_в_задачах_классификации_и_регрессии Оценка качества в задачах классификации и регрессии ]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Оценка_качества_в_задаче_кластеризации Оценка качества в задаче кластеризации ]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
* [http://blog.lokad.com/journal/2009/4/22/overfitting-when-accuracy-measure-goes-wrong.html Overfitting: when accuracy measure goes wrong]&lt;br /&gt;
* [http://www3.cs.stonybrook.edu/~skiena/jaialai/excerpts/node16.html The Problem of Overfitting Data]&lt;br /&gt;
* [https://elitedatascience.com/overfitting-in-machine-learning Overfitting in Machine Learning]&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
# [https://en.wikipedia.org/wiki/Overfitting Overfitting] - статься на Википедии&lt;br /&gt;
# [http://www.machinelearning.ru/wiki/index.php?title=Переобучение Переобучение] - вводная статься на MachineLearning.ru&lt;br /&gt;
# [https://www.coursera.org/lecture/machine-learning/the-problem-of-overfitting-ACpTQ The Problem of Overfitting] - курс Andrew Ng&lt;br /&gt;
# ''Hastie, T., Tibshirani, R., Friedman, J. '' [http://www-stat.stanford.edu/~tibs/ElemStatLearn The Elements of Statistical Learning, 2nd edition.] — Springer, 2009. — 533 p.&lt;br /&gt;
# ''Vapnik V.N. '' [http://lib.mexmat.ru/books/9220 Statistical learning theory.] — N.Y.: John Wiley &amp;amp; Sons, Inc., 1998. &lt;br /&gt;
# ''Воронцов, К. В. '' [http://www.machinelearning.ru/wiki/images/b/b6/Voron10doct.pdf Комбинаторная теория надёжности обучения по прецедентам]: Дис. док. физ.-мат. наук: 05-13-17. — Вычислительный центр РАН, 2010. — 271 с.&lt;/div&gt;</summary>
		<author><name>93.185.28.101</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%9F%D0%B5%D1%80%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=67454</id>
		<title>Переобучение</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%9F%D0%B5%D1%80%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=67454"/>
				<updated>2018-12-02T20:35:32Z</updated>
		
		<summary type="html">&lt;p&gt;93.185.28.101: Обновление определений&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Переобучение''' (англ. overfitting) {{---}} негативное явление, возникающее, когда алгоритм обучения вырабатывает предсказания, которые слишком близко или точно соответствуют конкретному набору данных, и поэтому не подходят для применения алгоритма к дополнительным данным или будущим наблюдениям.&lt;br /&gt;
негативное явление, возникающее, когда величина средней ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем величина средней ошибки на обучающей выборке. Переобучение возникает при использовании избыточно сложных моделей.&amp;lt;br&amp;gt;&lt;br /&gt;
'''Недообучение''' (англ. underfitting) {{---}} негативное явление, возникающее, когда выбранная статистическая модель не может адекватно описать базовую структуру данных.&lt;br /&gt;
&lt;br /&gt;
== Примеры ==&lt;br /&gt;
=== На примере линейной регрессии ===&lt;br /&gt;
Представьте задачу предсказания &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; по &amp;lt;math&amp;gt;x \in R&amp;lt;/math&amp;gt;. Рис 1 показывает результат использования модели &amp;lt;math&amp;gt;y=θ_0+θ_1*x&amp;lt;/math&amp;gt; для представленного датасета. Как видно из Рис 1 данные не поддаются линейной зависимости, и по этой причине модель не очень хороша.&lt;br /&gt;
{|align=&amp;quot;center&amp;quot;&lt;br /&gt;
 |-valign=&amp;quot;top&amp;quot;&lt;br /&gt;
 |[[Файл:High_bias_reg.png|200px|thumb|Рис 1. Недообучение]]&lt;br /&gt;
 |[[Файл:Normal_bias_reg.png|200px|thumb|Рис 2. Модель подходит]]&lt;br /&gt;
 |[[Файл:High_variance_reg.png|200px|thumb|Рис 3. Переобучение]]&lt;br /&gt;
 |}&lt;br /&gt;
Если же добавить дополнительный параметр &amp;lt;math&amp;gt;x^2&amp;lt;/math&amp;gt;, и использовать модель &amp;lt;math&amp;gt;y=θ_0+θ_1*x+θ_2*x^2&amp;lt;/math&amp;gt;, как представлено на Рис 2, то модель значительно лучше подходит для представленного датасета. Рис 3 показывает результат использования модели &amp;lt;math&amp;gt;y=θ_0+θ_1*x+θ_2*x^2+θ_3*x^3+θ_4*x^4&amp;lt;/math&amp;gt; для представленного датасета. Как видно из Рис 3 данная модель слишком заточена для обучающего датасета и, веротяно, покажет плохой результат на тестовой.&lt;br /&gt;
&lt;br /&gt;
=== На примере логистической регрессии ===&lt;br /&gt;
Представьте задачу классификации размеченых точек. Рис 4 показывает результат использования модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_2)&amp;lt;/math&amp;gt; для представленного датасета. Как и в предыдущем примере, данные не поддаются классификации по линейной зависимости.&lt;br /&gt;
{|align=&amp;quot;center&amp;quot;&lt;br /&gt;
 |-valign=&amp;quot;top&amp;quot;&lt;br /&gt;
 |[[Файл:High_bias_cla.png|200px|thumb|Рис 4. Недообучение]]&lt;br /&gt;
 |[[Файл:Normal_bias_cla.png|200px|thumb|Рис 5. Модель подходит]]&lt;br /&gt;
 |[[Файл:High_variance_cla.png|200px|thumb|Рис 6. Переобучение]]&lt;br /&gt;
 |}&lt;br /&gt;
В случае же выбора модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_2+θ_3*x_1^2+θ_4*x_2^2+θ_5*x_1*x_2)&amp;lt;/math&amp;gt;, представленой на Рис 5, данные значительно лучше соответствуют модели. Рис 6 показывает результат использования модели &amp;lt;math&amp;gt;g(θ_0+θ_1*x_1+θ_2*x_1^2+θ_3*x_2*x_1^2+θ_4*x_1^2*x_2^2 + ...)&amp;lt;/math&amp;gt; для представленного датасета {{---}} это яркий пример явления переобучения. &lt;br /&gt;
&lt;br /&gt;
== Кривые обучения ==&lt;br /&gt;
=== Кривые обучения при переобучении ===&lt;br /&gt;
[[Файл:High_variance_learning_curve.png|border|500px|Кривые обучения при переобучении]]&lt;br /&gt;
=== Кривые обучения при недообучении ===&lt;br /&gt;
[[Файл:High_bias_learning_curve.png|border|500px|Кривые обучения при недообучении]]&lt;br /&gt;
&lt;br /&gt;
== High variance и high bias ==&lt;br /&gt;
...&lt;br /&gt;
&lt;br /&gt;
== Возможные решения ==&lt;br /&gt;
=== Возможные решения при переобучении ===&lt;br /&gt;
* Увеличение количества данных в наборе&lt;br /&gt;
* Уменьшение количества параметров модели&lt;br /&gt;
* Добавление регуляризации / увеличение коэффициента регуляризации&lt;br /&gt;
&lt;br /&gt;
=== Возможные решения при недообучении ===&lt;br /&gt;
* Добавление новых параметров модели&lt;br /&gt;
* Использование для описания модели функций с более высокой степенью &lt;br /&gt;
* Уменьшение коэффициента регуляризации&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Модель_алгоритма_и_ее_выбор Модель алгоритма и ее выбор]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Оценка_качества_в_задачах_классификации_и_регрессии Оценка качества в задачах классификации и регрессии ]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
* [http://neerc.ifmo.ru/wiki/index.php?title=Оценка_качества_в_задаче_кластеризации Оценка качества в задаче кластеризации ]&amp;lt;sup&amp;gt;[на 01.12.18 не создан]&amp;lt;/sup&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
* [http://blog.lokad.com/journal/2009/4/22/overfitting-when-accuracy-measure-goes-wrong.html Overfitting: when accuracy measure goes wrong]&lt;br /&gt;
* [http://www3.cs.stonybrook.edu/~skiena/jaialai/excerpts/node16.html The Problem of Overfitting Data]&lt;br /&gt;
* [https://elitedatascience.com/overfitting-in-machine-learning Overfitting in Machine Learning]&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
# [https://en.wikipedia.org/wiki/Overfitting Overfitting] - статься на Википедии&lt;br /&gt;
# [http://www.machinelearning.ru/wiki/index.php?title=Переобучение Переобучение] - вводная статься на MachineLearning.ru&lt;br /&gt;
# [https://www.coursera.org/lecture/machine-learning/the-problem-of-overfitting-ACpTQ The Problem of Overfitting] - курс Andrew Ng&lt;br /&gt;
# ''Hastie, T., Tibshirani, R., Friedman, J. '' [http://www-stat.stanford.edu/~tibs/ElemStatLearn The Elements of Statistical Learning, 2nd edition.] — Springer, 2009. — 533 p.&lt;br /&gt;
# ''Vapnik V.N. '' [http://lib.mexmat.ru/books/9220 Statistical learning theory.] — N.Y.: John Wiley &amp;amp; Sons, Inc., 1998. &lt;br /&gt;
# ''Воронцов, К. В. '' [http://www.machinelearning.ru/wiki/images/b/b6/Voron10doct.pdf Комбинаторная теория надёжности обучения по прецедентам]: Дис. док. физ.-мат. наук: 05-13-17. — Вычислительный центр РАН, 2010. — 271 с.&lt;/div&gt;</summary>
		<author><name>93.185.28.101</name></author>	</entry>

	</feed>