Изменения

Перейти к: навигация, поиск

Кросс-валидация

3115 байт добавлено, 03:58, 27 июля 2020
Разновидности кросс-валидации
'''Кросс-валидация''' или '''скользящий контроль''' это {{---}} процедура эмпирического оценивания обобщающей способности алгоритмов.
С помощью кросс-валидации эмулируется наличие тестовой выборки, которая не участвует в обучении, но для которой известны правильные ответы.
=== Определения и обозначения ===
Пусть <tex> X </tex> {{---}} множество [[Общие понятия | признаков]], описывающих объекты, а <tex> Y </tex> {{---}} конечное множество меток.
<tex>T^l = {(x_i, y_i)}_{i=1}^{l}, x_i \in X, y_i \in Y</tex> {{---}} обучающая выборка, <tex>Q</tex> {{---}} мера качества, <tex>A</tex> {{---}} [[Модель алгоритма и ее выбор | модель]], <tex>\mu: (X \times Y)^l \to A, </tex> {{---}} алгоритм обучения. == Разновидности Кросскросс-валидации ==
=== Валидация на отложенных данных (Hold-Out Validation) ===
Обучающая выборка один раз случайным образом разбивается на две части <tex> T^l = T^t \cup T^{l-t} </tex>
 
[[Файл:Hold-out.png|500px]]
 
После чего решается задача оптимизации:
<tex>HO(\mu, T^t, T^{l-t}) = Q(\mu(T^t), T^{l-t}) \to min </tex>,
Метод Hold-out применяется в случаях больших датасетов, т.к. требует меньше вычислительных мощностей по сравнению с другими методами кросс-валидации.
Недостатком метода является то, что оценка существенно зависит от разбиения, тогда как желательно, чтобы она характеризовала только алгоритм обучения.
=== Полная кросс-валидация (Complete cross-validation) ===
# Выбирается значение <tex>t</tex>;# Выборка разбивается всеми возможными способами на две части <tex> T^l = T^t \cup T^{l-t} </tex>. [[Файл:CompleteCrossValidation.png|500px]]
После чего решается задача оптимизации:
<tex>CVV_t = \frac{1}{C_l^{l-t}}
\displaystyle\sum_{T^l = T^t \cup T^{l-t}} Q(\mu(T^t), T^{l-t}) \to min </tex>, Здесь число разбиений <tex>C_l^{l-t}</tex> становится слишком большим даже при сравнительно малых значениях t, что затрудняет практическое применение данного метода.
=== k-fold кросс-валидация ===
# Обучающая выборка разбивается на <tex> k </tex> непересекающихся одинаковых по объему частей;
# Производится <tex> k </tex> итераций. На каждой итерации происходит следующее:
## Модель обучается на <tex> k - 1 </tex> части обучающей выборки;
## Модель тестируется на части обучающей выборки, которая не участвовала в обучении;.Каждая из <tex>k</tex> частей единожды используется для тестирования. Как правило, <tex>k = 10</tex> (5 в случае малого размера выборки).
<tex>T^l = F_1 \cup \dots \cup F_k, [[Файл:K-fold-validation.png|F_i| \approx \frac{l}{k} \\ CV_k = \frac{1}{k} \sum_{i=1}^{k} Q(\mu(T^l \setminus F_i),F_i) \to min </tex>500px]]
Каждая из <tex>T^l = F_1 \cup \dots \cup F_k, |F_i| \approx \frac{l}{k</tex> частей единожды используется для тестирования. }, Как правило <tex>\\ CV_k = \frac{1}{k } \sum_{i= 101}^{k} Q(\mu(T^l \setminus F_i),F_i) \to min </tex> (5 в случае малого размера выборки).
В результате можно посчитать различные метрики <font color="green"># Пример кода для k-fold кросс-валидации: '''# Пример классификатора, показывающиеcпособного проводить различие между всего лишь двумя '''# классами, насколько модель удачная"пятерка" и "не пятерка" из набор данных MNIST</font> '''import''' numpy '''as''' np '''from''' sklearn.model_selection '''import''' StratifiedKFold '''from''' sklearn.datasets '''import''' fetch_openml '''from''' sklearn.base '''import''' clone '''from''' sklearn.linear_model '''import''' SGDClassifier mnist = fetch_openml('mnist_784', version=1) X, y = mnist["data"], mnist["target"] y = y.astype(np.uint8) X_train, X_test, y_train, y_test = X[:60000], X[60000:], y[:60000], напримерy[60000:] y_train_5 = (y_train == 5) <font color="green"> # True для всех пятерок, среднюю ошибку False для в сех остальных цифр. Задача опознать пятерки</font> y_test_5 = (y_test == 5) sgd_clf = SGDClassifier(random_state=42)<font color="green"> # классификатор на основе метода стохастического градиентного спуска (Stochastic Gradient Descent SGD)</font> <font color="green"># Разбиваем обучающий набора на 3 блока</font> # выработку прогнозов и их оценку осуществляем на каждом блоке с использованием модели, обученной на частяхостальных блоках</font> skfolds = StratifiedKFold(n_splits=3, random_state=42) for train_index, test_index in skfolds.split(X_train, которые не участвовали в обучающей выборкеy_train_5): clone_clf = clone(sgd_clf) X_train_folds = X_train[train_index] y_train_folds = y_train_5[train_index] X_test_fold = X_train[test_index] y_test_fold = y_train_5[test_index] clone_clf.fit(X_train_folds, y_train_folds) y_pred = clone_clf.predict(X_test_fold) n_correct = sum(y_pred == y_test_fold) print(n_correct / len(y_pred)) <font color="green"># print 0.95035 # 0.96035 # 0.9604</font>
=== t×k-fold кросс-валидация ===
# Процедура выполняется <tex>t</tex> раз:
## Обучающая выборка случайным образом разбивается на <tex>k</tex> непересекающихся одинаковых по объему частей;
## Производится <tex> k </tex> итераций. На каждой итерации происходит следующее:
### Модель обучается на <tex> k - 1 </tex> части обучающей выборки;
### Модель тестируется на части обучающей выборки, которая не участвовала в обучении;.
<tex>T^l = F_{(1,1)} \cup \dots \cup F_{(k,1)} = \dots = F_{(1,t)} \cup \dots \cup F_{(k,t)}, |F_{(i,j)}| \approx \frac{l}{k} </tex> ,
<tex> CV_{t \times k} = \frac{1}{tk} \sum_{j=1}^t \sum_{i=1}^{k} Q(\mu(T^l \setminus F_{(i,j)}),F_{(i,j)}) \to min </tex>.
=== Кросс-валидация по отдельным объектам (leaveLeave-oneOne-outOut) ===
Выборка разбивается на <tex>l-1</tex> и 1 объект <tex>l</tex> раз.
[[Файл:LeaveOneOut.png|500px]] <tex>LOO = \frac{1}{l} \sum_{i=1}^{l} Q(\mu(T^l \setminus p_i),p_i) \to min </tex>, где <tex>p_i = (x_i, y_i)</tex>. Преимущества LOO в том, что каждый объект ровно один раз участвует в контроле, а длина обучающих подвыборок лишь на единицу меньше длины полной выборки. Недостатком LOO является большая ресурсоёмкость, так как обучаться приходится <tex>L</tex> раз. Некоторые методы обучения позволяют достаточно быстро перенастраивать внутренние параметры алгоритма при замене одного обучающего объекта другим. В этих случаях вычисление LOO удаётся заметно ускорить.
=== Случайные разбиения (Random subsampling) ===
Выборка разбивается в случайной пропорции. Процедура повторяется несколько раз.  [[Файл:CompleteCrossValidation.png|500px]]
=== Критерий целостности модели (Model consistency criterion) ===
Не переобученый алгоритм должен показывать одинаковую эффективность на каждой части. [[Файл:ModelConsistencyCriterion.png|500px]] <tex> D_1 = (\mu, T^{l-t}) = \frac{1}{l} \sum_{i=1}^l (\mu(T^t)(x_i)-\mu(T^{l-t})(x_i)) </tex>,
<tex> D_1 = (\mu, T^{l-t}) = \frac{1}{l} \sum_{i=1}^l (\mu(T^t)(x_i)-\mu(T^{l-t})(x_i)) </tex>
Метод может быть обобщен как аналог <tex> CV_{t \times 2} </tex>.
== Примечания ==
# [https://en.wikipedia.org/wiki/Cross-validation_(statistics) Кросс-валидация]
# [https://www.ml4aad.org/wp-content/uploads/2018/07/automl_book_draft_auto-weka.pdf Автоматизированный выбор модели в библиотеке WEKA для Java]# [https://epistasislab.github.io/tpot/ Автоматизированный выбор модели в библиотеке TPOT для Python]# [https://automl.github.io/auto-sklearn/stable/ Автоматизированный выбор модели в библиотеке sklearn для Python]
== Источники информации ==
# [http://www.machinelearning.ru/wiki/index.php?title=%D0%A1%D0%BA%D0%BE%D0%BB%D1%8C%D0%B7%D1%8F%D1%89%D0%B8%D0%B9_%D0%BA%D0%BE%D0%BD%D1%82%D1%80%D0%BE%D0%BB%D1%8C Скользящий контроль] - статья на MachineLearning.ru
# [httphttps://jmldadrive.org/papers/doc/2016google.com/no2/Efimova2016Reinforcement.pdf Применение обучения с подкреплением для одновременного выбора модели алгоритма классификации и ее структурных параметровopen?id=1p9CTAa1_gJpj94RXBEcQ09aVOa-KTlrd Model assessment and selection]
[[Категория: Машинное обучение]]
[[Категория: Автоматическое машинное обучение]]
Анонимный участник

Навигация