Изменения

Перейти к: навигация, поиск

Активное обучение

2263 байта добавлено, 03:20, 3 февраля 2020
Нет описания правки
Формула выше может быть интерпретирована как матожидание уверенности нового классификатора (учитывающего метку объекта $x$) на оставшемся неразмеченном множестве. Существует мнение, что этот метод более устойчив, чем предыдущие, поскольку он не склонен подавать на вход оракулу шумы, и явно увеличивает уверенность классификатора.
 
== Активное обучение с обучающими действиями ==
 
У рассмотренных выше стратегий сэмплирование есть недостатки: в пространстве $X$ могут оставаться неисследованные области, вследствие чего снижается качество и увеличивается время обучения. Эвристикой, позволяющей решить эту проблему является выбор случайных объектов, комбинированный с детерминированным выбором по степени информативности.
 
Есть два алгоритма обертки над любой стратегией сэмплирования  {{---}} алгоритм $\varepsilon$-active и экспоненциональный градиент (англ. ''Exponential gradient''). Алгоритм $\varepsilon$-active {{---}} это базовый вариант, в котором предлагается на каждой итерации производить следующие шаги:
 
# Выбрать неразмеченный объект $x$ случайно с вероятностью $\varepsilon$ или $x = arg \max\limits_{u \in X}{\Phi(u)}$ с вероятностью  $1 - \varepsilon$
# Запросить оракула на объекте $x$ и получить его метку $y$
# Дообучить текущую модель на еще одном примере $\langle x, y \rangle$
 
Алгоритм экспоненциальный градиент является улучшением $\varepsilon$-active. Идея состоит в том, что параметр $\varepsilon$ выбирается случайно из конечного множества, где каждому элементу присвоены вероятности. По ходу алгоритма экспоненциально увеличиваются вероятности наиболее успешных $\varepsilon$, что несколько напоминает алгоритм Adaboost по принципу работы.
== См. также ==
52
правки

Навигация