Кросс-валидация — различия между версиями
Vi34 (обсуждение | вклад) (→Примечания) |
Vi34 (обсуждение | вклад) (→k-fold кросс-валидация) |
||
Строка 40: | Строка 40: | ||
## Модель обучается на <tex> k - 1 </tex> части обучающей выборки; | ## Модель обучается на <tex> k - 1 </tex> части обучающей выборки; | ||
## Модель тестируется на части обучающей выборки, которая не участвовала в обучении; | ## Модель тестируется на части обучающей выборки, которая не участвовала в обучении; | ||
+ | Каждая из <tex>k</tex> частей единожды используется для тестирования. | ||
+ | Как правило <tex>k = 10</tex> (5 в случае малого размера выборки) | ||
[[Файл:K-fold-validation.png|500px]] | [[Файл:K-fold-validation.png|500px]] | ||
Строка 45: | Строка 47: | ||
<tex>T^l = F_1 \cup \dots \cup F_k, |F_i| \approx \frac{l}{k} | <tex>T^l = F_1 \cup \dots \cup F_k, |F_i| \approx \frac{l}{k} | ||
\\ CV_k = \frac{1}{k} \sum_{i=1}^{k} Q(\mu(T^l \setminus F_i),F_i) \to min </tex> | \\ CV_k = \frac{1}{k} \sum_{i=1}^{k} Q(\mu(T^l \setminus F_i),F_i) \to min </tex> | ||
− | |||
− | |||
− | |||
− | |||
− | |||
=== t×k-fold кросс-валидация === | === t×k-fold кросс-валидация === |
Версия 15:07, 22 января 2019
Кросс-валидация или скользящий контроль это процедура эмпирического оценивания обобщающей способности алгоритмов. С помощью кросс-валидации эмулируется наличие тестовой выборки, которая не участвует в обучении, но для которой известны правильные ответы.
Содержание
- 1 Определения
- 2 Разновидности Кросс-валидации
- 2.1 Валидация на отложенных данных (Hold-Out Validation)
- 2.2 Полная кросс-валидация (Complete cross-validation)
- 2.3 k-fold кросс-валидация
- 2.4 t×k-fold кросс-валидация
- 2.5 Кросс-валидация по отдельным объектам (leave-one-out)
- 2.6 Случайные разбиения (Random subsampling)
- 2.7 Критерий целостности модели (Model consistency criterion)
- 3 См. также
- 4 Примечания
- 5 Источники информации
Определения
- обучающая выборка.
- мера качества. - метод минимизации
Разновидности Кросс-валидации
Валидация на отложенных данных (Hold-Out Validation)
Обучающая выборка один раз случайным образом разбивается на две части
После чего решается задача оптимизации:
Метод Hold-out применяется в случаях больших датасетов, т.к. требует меньше вычислительных мощностей по сравнению с другими методами кросс-валидации. Недостатком метода является то, что оценка существенно зависит от разбиения, тогда как желательно, чтобы она характеризовала только алгоритм обучения.
Полная кросс-валидация (Complete cross-validation)
- Выбирается значение
- Выборка разбивается всеми возможными способами на две части
k-fold кросс-валидация
- Обучающая выборка разбивается на непересекающихся одинаковых по объему частей
- Производится
- Модель обучается на части обучающей выборки;
- Модель тестируется на части обучающей выборки, которая не участвовала в обучении;
итераций. На каждой итерации происходит следующее:
Каждая из
частей единожды используется для тестирования. Как правило (5 в случае малого размера выборки)
t×k-fold кросс-валидация
- Процедура выполняется
- Обучающая выборка случайным образом разбивается на непересекающихся одинаковых по объему частей
- Производится
- Модель обучается на части обучающей выборки;
- Модель тестируется на части обучающей выборки, которая не участвовала в обучении;
итераций. На каждой итерации происходит следующее:
раз:
Кросс-валидация по отдельным объектам (leave-one-out)
Выборка разбивается на
и 1 объект раз., где
Случайные разбиения (Random subsampling)
Выборка разбивается в случайной пропорции. Процедура повторяется несколько раз.
Критерий целостности модели (Model consistency criterion)
Не переобученый алгоритм должен показывать одинаковую эффективность на каждой части
Метод может быть обобщен как аналог
.См. также
- Общие понятия[на 17.01.19 не создан]
- Модель алгоритма и ее выбор
- Мета-обучение[на 17.01.19 не создан]
Примечания
Источники информации
- Скользящий контроль - статья на MachineLearning.ru
- Model assessment and selection