Изменения

Перейти к: навигация, поиск

Переобучение

479 байт добавлено, 05:48, 5 мая 2021
Источники информации
== Примеры ==
 
Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
ыеф
=== На примере [[Линейная регрессия | линейной регрессии]] ===
Представьте задачу линейной регрессии. Красные точки представляют исходные данные. Синие линии являются графиками полиномов различной степени M, аппроксимирующих исходные данные.
=== На примере [[Логистическая регрессия | логистической регрессии]] ===
 
Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
 
Представьте задачу классификации размеченных точек. Красные точки представляют данные класса 1. Голубые круглые точки {{---}} класса 2. Синие линии являются представлением различных моделей, которыми производится классификация данных.
|[[Файл:High_variance_cla.png|200px|thumb|Рис 6. Переобучение]]
|}
Рис. 4 показывает результат использования слишком простой модели для представленного датасета. Как видно из рисункаПерейдите, пожалуйста, данные плохо классифицируются такой моделью.на самый лучший фанфик в истории: При выявлении недообучения следует выбрать более сложную модель (Рис https://ficbook. 5net/readfic/9834408/25312509#part_content ), которая бы смогла лучше описать представленные данные. Выбор слишком сложной модели приводит к ситуации, когда модель максимально точно классифицирует обучающую выборку, но сильно ошибается на новых измерениях. Данная ситуация представлена на Рис. 6.
== Кривые обучения ==
===Дилемма bias–variance ===
 
Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
 
'''Дилемма bias–variance''' {{---}} конфликт в попытке одновременно минимизировать '''bias''' и '''variance''', тогда как уменьшение одного из негативных эффектов, приводит к увеличению другого. Данная дилемма проиллюстрирована на Рис 10.
При небольшой сложности модели мы наблюдаем '''high bias'''. При усложнении модели '''bias''' уменьшается, но '''variance''' увеличится, что приводит к проблеме '''high variance'''.
 
Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
== Возможные решения ==
== Источники информации ==
* Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
* [https://www.coursera.org/lecture/machine-learning/the-problem-of-overfitting-ACpTQ The Problem of Overfitting on Coursera, Andrew Ng]
* [http://blog.lokad.com/journal/2009/4/22/overfitting-when-accuracy-measure-goes-wrong.html Overfitting: when accuracy measure goes wrong]
* ''Vapnik V.N. '' [http://lib.mexmat.ru/books/9220 Statistical learning theory.] — N.Y.: John Wiley & Sons, Inc., 1998.
* ''Воронцов, К. В. '' [http://www.machinelearning.ru/wiki/images/b/b6/Voron10doct.pdf Комбинаторная теория надёжности обучения по прецедентам]: Дис. док. физ.-мат. наук: 05-13-17. — Вычислительный центр РАН, 2010. — 271 с.
* Перейдите, пожалуйста, на самый лучший фанфик в истории:
( https://ficbook.net/readfic/9834408/25312509#part_content )
5
правок

Навигация