52
правки
Изменения
Нет описания правки
Для вызова оракула обычно требуется привлечение человеческих ресурсов. В роли оракула может выступать эксперт, размечающий текстовые документы, изображения или видеозаписи. Помимо временных затрат могут быть и значительные финансовые, например, исследование химического соединения или реакции.
В связи с этим одной из центральных задач активного обучения становится '''сэмплирование''' (англ. ''Sampling'') {{- --}} выбор объектов, которые следует отправить оракулу для получения достоверной информации об их классификации. От грамотности сэмплирования зависит время работы алгоритма, качество классификации и затраты на внешние ресурсы.
* Минимальная уверенность (англ. ''Least Confidence'')
$\Phi_{LC}(x) = 1 - P(y_1 | x)$, где $y_1$ {{---}} наиболее вероятный класс. Интересующие нас объекты {{---}} объекты с минимальной уверенностью, то есть с максимальным $\Phi_{LC}$.
Заметим, что в случае бинарной классификации эти методы эквивалентны.
Таким образом, наиболее информативными объектами будут считаться:
$x_{informative} = arg \max\limits_x{\Phi(x) p(x)}$, где $\Phi(x)$ {{- --}} мера неуверенности, а $p(x)$ {{--- }} эмпирическая плотность в точке $x$
=== Сэмплирование по несогласию в комитете ===
$\Phi(x) = \sum\limits_y{P(y | x) \cdot || \nabla_\theta L_{+(x, y)} ||}$
Здесь $L_{+(x, y)}$ обозначает функцию потерь на выборке дополненной парой $(x, y)$. При этом естественно предполагать, что на каждой итерации модель обучена, и параметр $\theta$ оптимален, что значит, что $\nabla_\theta L \simeq 0$. Заметим также, что если $L$ линейно зависит от одномерных функций потерь по каждому объекту, например $L$ {{- --}} среднее квадратичное отклонение, тогда остается посчитать градиент $L$ всего в одной точке {{--- }} $x$, поскольку $L_{+(x, y)} = L_T + L_{(x, y)} \simeq L_{(x, y)}$ вместо подсчета $L$ на всем тренировочном множестве $T$.
=== Ожидаемое сокращение ошибки ===
* [http://www.machinelearning.ru/wiki/images/6/6b/Voron-ML-AL-slides.pdf К.В. Воронцов. Активное обучение]
* [https://en.wikipedia.org/wiki/Active_learning_(machine_learning) Wikipedia. Active Learning]
* [https://arxiv.org/pdf/1408.2196.pdf Exponentiated Gradient Exploration for Active Learning, Djallel Bouneffouf, 2014]
[[Категория:Машинное обучение]]
[[Категория:Активное обучение]]