Изменения

Перейти к: навигация, поиск

Модель алгоритма и её выбор

8 байт добавлено, 23:01, 13 января 2019
Исправлены кавычки
Достоинства и недостатки кросс-валидации:
# Ошибка в процедуре кросс-валидации является достаточно точной оценкой ошибки на генеральной совокупности;
# Проведение кросс-валидации требует значительного времени на многократное повторное обучение алгоритмов и применимо лишь для "быстрых" «быстрых» алгоритмов машинного обучения;
# Кросс-валидация плохо применима в задачах кластерного анализа и прогнозирования временных рядов.
==== Теория Вапника-Червоненкиса ====
Идея данной теории заключается в следующем: чем более "гибкой" «гибкой» является модель, тем хуже ее обобщающая способность. Данная идея базируется на том, что "гибкое" «гибкое» решающее правило способно настраиваться на малейшие шумы, содержащиеся в обучающей выборке.
'''Емкость модели для задачи классификации''' {{---}} максимальное число объектов обучающей выборки, для которых при любом их разбиении на классы найдется хотя бы одно решающее правило, безошибочно их классифицирующее.
По аналогии емкость обобщается на другие задачи машинного обучения.
Очевидно, что чем больше емкость, тем более "гибкой" «гибкой» является модель и, соответственно, тем хуже. Значит нужно добиваться минимально возможного количества ошибок на обучении при минимальной возможной емкости.
Существует формула Вапника, связывающая ошибку на обучении <tex> P_{train}(w) </tex>, емкость <tex> h(W) </tex> и ошибку на генеральной совокупности <tex> P_{test}(w) </tex>:
Анонимный участник

Навигация