Изменения

Перейти к: навигация, поиск

Активное обучение

44 байта добавлено, 23:03, 3 февраля 2020
Выбор по степени неуверенности
Зафиксируем модель на некотором этапе обучения и обозначим за $P(y | x)$ вероятность того, что объект $x$ принадлежит классу $y$. Приведем основные меры неуверенности для текущей классификации:
* '''Максимальная энтропия ''' (англ. ''Maximum Entropy'')
$\Phi_{ENT}(x) = - \sum\limits_y{P(y | x) \log{P(y | x)}}$ {{---}} энтропия Энтропия классификации на объекте $x$. Чем больше энтропия {{---}} тем больше неуверенность в классификации.:
* Минимальный отступ $\Phi_{ENT}(англ. ''Smallest Margin''x)= - \sum\limits_y{P(y | x) \log{P(y | x)}}$
$\Phi_{M}(x) = P(y_1 | x) - P(y_2 | x)$ {{---}} отступ (англ. ''margin'') от $y_1$ {{---}} самого вероятного класса до $y_2$ Чем больше энтропия {{---}} второго по вероятности класса. Очевидно, что если отступ велик, то велика и уверенность, потому что один класс заметно выигрывает у всех остальных. Поэтому имеет смысл запрашивать оракула на объектах с минимальным отступомтем больше неуверенность в классификации.
* Минимальная уверенность '''Минимальный отступ''' (англ. ''Least ConfidenceSmallest Margin'')
Отступ (англ. ''margin'') от $y_1$ {{---}} самого вероятного класса до $y_2$ {{---}} второго по вероятности класса: $\Phi_{M}(x) = P(y_1 | x) - P(y_2 | x)$. Очевидно, что если отступ велик, то велика и уверенность, потому что один класс заметно выигрывает у всех остальных. Поэтому имеет смысл запрашивать оракула на объектах с минимальным отступом. * '''Минимальная уверенность''' (англ. ''Least Confidence'') Функция неуверенности: $\Phi_{LC}(x) = 1 - P(y_1 | x)$,  где  $y_1$ {{---}} наиболее вероятный класс. Интересующие нас объекты {{---}} объекты с минимальной уверенностью, то есть с максимальным $\Phi_{LC}$.
Заметим, что в случае бинарной классификации эти методы эквивалентны.
Таким образом, наиболее информативными объектами будут считаться:
$x_{informative} = arg \max\limits_x{\Phi(x) p(x)}$,  где $\Phi(x)$ {{---}} мера неуверенности, а $p(x)$ {{---}} эмпирическая плотность в точке $x$.
=== Сэмплирование по несогласию в комитете ===
52
правки

Навигация