Изменения

Перейти к: навигация, поиск

Модель алгоритма и её выбор

4953 байта добавлено, 19:44, 14 января 2019
Исправлены замечания
==Понятие модели==
Пусть дана обучающая выборка <tex>(X, TY)</tex>, где <tex> X </tex> {{---}} множество значений признаков, описывающих объекты, а <tex> T Y </tex> {{---}} конечное множество, содержащее для каждого элемента из X его классификациюметок.
Пусть множество всевозможных значений признаков <tex> \hat{X} </tex>, множество всевозможных классификаций <tex> \hat{T} </tex>.
Пусть задана функция <tex> f: \hat{X} -> W -> \hat{T} </tex>, где <tex> W </tex> {{- --}} множество дополнительных параметров (весов) функции.
Описанная выше функция <tex> f </tex> для фиксированного значения весов <tex> w \in W </tex> называется '''решающим правилом'''.
== Задача выбора модели ==
'''Выбрать модель''' Пусть <tex> A </tex> {{---}} определить множество весов модель алгоритма, характеризующаяся гиперпараметрами <tex> W \lambda = \{\lambda_1, ..., \lambda_m\}, \lambda_1 \in \Lambda_1, ..., \lambda_m \in \Lambda_m </tex> и структуру решающего правила . Тогда с ней связано пространство гиперпараметров <tex> f(\Lambda = \Lambda_1 \times ... \times \Lambda_m </tex>. За <tex> A_{\lambda}</tex> обозначим алгоритм, .) то есть модель алгоритма, для которой задан вектор гиперпараметров <tex> \lambda \in \Lambda </tex>.
Пусть есть две модели Для выбора наилучшего алгоритма необходимо зафиксировать меру качества работы алгоритма. Назовем эту меру <tex> M_1 = \Q(A_{f_1(., w)| w \in W_1\lambda} </tex> и <tex> M_2 = \{f_2(., wD)| w \in W_2\} </tex>. Необходимо выбрать наилучшую модель из этих двух.
Стоит отметитьЗадачу выбора наилучшего алгоритма можно разбить на две подзадачи: подзадачу выбора лучшего алгоритма из портфолио и подзадачу настройки гиперпараметров. ==== Подзадача выбора лучшего алгоритма из портфолио ====Дано некоторое множество алгоритмов с фиксированными структурными параметрами <tex> \mathcal{A} = \{A^1_{\lambda_1}, что недостаточно обучить обе модели на обучающей выборке ..., A^m_{\lambda_m}\}</tex> и обучающая выборка <tex> D = \{d_1, ..., d_n\}</tex>. Здесь <tex> d_i = (x_i, y_i) \in (X, Y)</tex>. Требуется выбрать туалгоритм <tex> A^*_{\lambda_*} </tex>, которая лучше работает на обучающей выборкекоторый окажется наиболее эффективным с точки зрения меры качества <tex> Q </tex>==== Подзадача оптимизации гиперпараметров ====Подзадача оптимизации гиперпараметров заключается в подборе таких <tex> \lambda^* \in \Lambda </tex>, потому что лучшая работа может быть следствием переобученияпри которых заданная модель алгоритма <tex> A </tex> будет наиболее эффективна. Также выбирать модель надо исходя  Гиперпараметры могут выбираться из ограниченного множества или с помощью перебора из желаемого неограниченного множества гиперпараметров, это зависит от непосредственной задачи. Во втором случае актуален вопрос максимального времени обучения и , которое можно потратить на поиск наилучших гиперпараметров, так как чем больше времени получения ответа - более сложная модель происходит перебор, тем лучше гиперпараметры можно найти, но при этом может давать более точные результатыбыть ограничен временной бюджет, но работать значительно дольше более простой моделииз-за чего перебор придется прервать.
=== Методы выбора модели ===
# Проведение кросс-валидации требует значительного времени на многократное повторное обучение алгоритмов и применимо лишь для «быстрых» алгоритмов машинного обучения;
# Кросс-валидация плохо применима в задачах кластерного анализа и прогнозирования временных рядов.
 
==== Мета-обучение ====
Целью мета-обучения является решение задачи выбора алгоритма из портфолио алгоритмов для решения поставленной задачи без непосредственного применения каждого из них. Решение этой задачи в рамках мета-обучения сводится к задаче обучения с учителем. Для этого используется заранее отобранное множество наборов данных <tex> D </tex>. Для каждого набора данных <tex> d \in D </tex> вычисляется вектор мета-признаков, которые описывают свойства этого набора данных. Ими могут быть: число категориальных или численных признаков объеков в <tex> d </tex>, число возможных меток, размер <tex> d </tex> и многие другие. Каждый алгоритм запускается на всех наборах данных из <tex> D </tex>. После этого вычисляется эмпирический риск, на основе которого формируются метки классов. Затем мета-классификатор обучается на полученных результатах. В качестве описания набора данных выступает вектор мета-признаков, а в качестве метки — алгоритм, оказавшийся самым эффективным с точки зрения заранее выбранной меры качества.
 
Достоинства и недостатки мета-обучения:
# Алгоритм, обучающийся большое время, запускается меньшее количество раз, что сокращает время работы;
# Точность алгоритма может быть ниже, чем при кросс-валидации.
==== Теория Вапника-Червоненкиса ====
# [http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C_%D0%92%D0%B0%D0%BF%D0%BD%D0%B8%D0%BA%D0%B0-%D0%A7%D0%B5%D1%80%D0%B2%D0%BE%D0%BD%D0%B5%D0%BD%D0%BA%D0%B8%D1%81%D0%B0 Теория Вапника-Червоненкинса]
# [https://en.wikipedia.org/wiki/Cross-validation_(statistics) Кросс-валидация]
# [https://link.springer.com/article/10.1023/B:MACH.0000015878.60765.42 Мета-обучение]
# [https://www.ml4aad.org/wp-content/uploads/2018/07/automl_book_draft_auto-weka.pdf Автоматизированный выбор модели в библиотеке WEKA для Java]
# [https://epistasislab.github.io/tpot/ Автоматизированный выбор модели в библиотеке TPOT для Python]
# [https://automl.github.io/auto-sklearn/stable/ Автоматизированный выбор модели в библиотеке sklearn для Python]
== Источники информации ==
# [http://www.machinelearning.ru/wiki/images/0/05/BMMO11_4.pdf Выбор модели] - презентация на MachineLearning.ru
# [https://en.wikipedia.org/wiki/Hyperparameter_(machine_learning) Гиперпараметры] - статья на Википедии
# [https://machinelearningmastery.com/difference-between-a-parameter-and-a-hyperparameter/ Разница между параметрами и гиперпараметрами] - описание разницы между параметрами и гиперпараметрами модели
# [http://jmlda.org/papers/doc/2016/no2/Efimova2016Reinforcement.pdf Применение обучения с подкреплением для одновременного выбора модели алгоритма классификации и ее структурных параметров]
[[Категория: Машинное обучение]]
[[Категория: Модель алгоритма и ее выбор]]
Анонимный участник

Навигация