Изменения

Перейти к: навигация, поиск

Активное обучение

34 байта убрано, 22:51, 4 февраля 2020
Нет описания правки
[[Файл:Alal_russian.jpeg jpg | справа | 480пкс |мини| right| [https://intellect.icu/aktivnoe-obuchenie-active-learning-v-mashinnom-obuchenii-i-iskusstvennom-intellekte-120 оригинал]Схема отбора из выборки в активном обучении]]
'''Активное обучение''' (англ. ''Active learning'') {{---}} область машинного обучения, где алгоритм взаимодействует с некоторым источником информации, или '''оракулом''', способным размечать запрошенные данные.
Зачастую обращение к оракулу затратно по времени или другим ресурсам, и требуется решить задачу, минимизируя количество обращений к оракулу.
Для вызова оракула обычно необходимо привлечение человеческих ресурсовлюдей. В этой роли может выступать эксперт, размечающий текстовые документы, изображения или видеозаписи. Помимо временных затрат могут быть возникнуть и значительные финансовые, например, исследование химического соединения или реакции.
В связи с этим одной из центральных задач активного обучения становится '''отбор объектов''' (англ. ''Sampling'') {{---}} выбор тех объектов, которые следует отправить оракулу для получения достоверной информации об их классификации. От грамотности отбора зависит время работы алгоритма, качество классификации и затраты на внешние ресурсы.
На каждой итерации алгоритм фиксирует три множества:
1. # $X_{unlabeled}$ {{---}} множество еще не размеченных объектов. 2. # $X_{labeled}$ {{---}} множество размеченных, которые удовлетворяют некоторому порогу уверенности в классификации.  3. # $X_{query}$ {{---}} множество объектов, которые подаются на вход оракулу. Заметим, что не всегда $X_{query} \subset X_{unlabeled}$, поскольку алгоритм может сам синтезировать объекты.
== Основные стратегии ==
* '''Максимальная энтропия''' (англ. ''Maximum Entropy'')
:Энтропия классификации на объекте $x$:
:$\Phi_{ENT}(x) = - \sum\limits_y{P(y | x) \log{P(y | x)}}$.
:Чем больше энтропия {{---}} тем больше неуверенность в классификации.
* '''Минимальный отступ''' (англ. ''Smallest Margin'')
:Отступ (англ. ''margin'') от $y_1$ {{---}} самого вероятного класса до $y_2$ {{---}} второго по вероятности класса:
:$\Phi_{M}(x) = P(y_1 | x) - P(y_2 | x)$.
:Очевидно, что если отступ велик, то велика и уверенность, потому что один класс заметно выигрывает у всех остальных. Поэтому имеет смысл запрашивать оракула на объектах с минимальным отступом.
* '''Минимальная уверенность''' (англ. ''Least Confidence'')
:Функция неуверенности:
:$\Phi_{LC}(x) = 1 - P(y_1 | x)$,
:$y_1$ {{---}} наиболее вероятный класс. Интересующие нас объекты {{---}} объекты с минимальной уверенностью, то есть с максимальным $\Phi_{LC}$.
Заметим, что в случае бинарной классификации эти методы эквивалентны.
52
правки

Навигация