Изменения

Перейти к: навигация, поиск

Активное обучение

169 байт добавлено, 23:33, 3 февраля 2020
Активное обучение с исследовательскими действиями
У рассмотренных выше стратегий отборв есть недостатки: в пространстве $X$ могут оставаться неисследованные области, вследствие чего снижается качество и увеличивается время обучения. Эвристикой, позволяющей решить эту проблему, является выбор случайных объектов, комбинированный с детерминированным выбором по степени информативности.
Есть два алгоритма обертки над любой стратегией отбора  {{---}} алгоритм $\varepsilon$-active и экспоненциональный градиент алгоритм экспоненциального градиента (англ. ''Exponential gradient''). Алгоритм $\varepsilon$-active {{---}} это базовый вариант, в котором предлагается на каждой итерации производить следующие шаги:
# Выбрать неразмеченный объект $x$ случайно с вероятностью $\varepsilon$ или $x = arg \max\limits_{u \in X}{\Phi(u)}$ с вероятностью  $1 - \varepsilon$. <br> Здесь $\Phi(u)$ обозначает степень неуверенности на объекте $u$.# Запросить оракула на объекте $x$ и получить его метку $y$.# Дообучить текущую модель на еще одном примере $\langle x, y \rangle$.
Алгоритм экспоненциальный градиент экспоненциального градиента является улучшением $\varepsilon$-active. Идея состоит в том, что параметр $\varepsilon$ выбирается случайно из конечного множества, где каждому элементу присвоены вероятности. По ходу алгоритма экспоненциально увеличиваются вероятности наиболее успешных $\varepsilon$, что несколько напоминает алгоритм [[Бустинг, AdaBoost | Adaboost ]] по принципу работы.
== См. также ==
52
правки

Навигация