Изменения

Перейти к: навигация, поиск

Soft-Max и Soft-Arg-Max

95 байт добавлено, 17:35, 1 июля 2022
Нет описания правки
Soft-Max и Soft-Arg-Max. ==Soft-Arg-Max==Пусть есть задача мягкой классификации: Алгоритм <tex>a</tex> выдает значения L1<tex>L_{1}, L2L_{2}, ... Ln\ldots, L_{n}</tex>, где <tex>n </tex> {{- --}} число классов. Li <tex>L_{i}</tex> {{--- }} уверенность алгоритма в том, что объект принадлежит классу <tex>i; -oo <=Li /tex>, <= tex>L_{i} \in \left [ -\infty, +oo. \infty\right ]</tex>
Нужно для этих значений найти такие p1,...pn, что pi из [0, 1], а сумма pi = 1, то есть p1..pn - распределение вероятностей.
Для этого возьмём экспоненту от L1..Ln; Получим числа от [0;+oo] и нормируем их:
Есть модель a, возвращающая Li. Необходимо сделать так, чтобы a возвращала pi, при этом оставаясь дифференциируемой.
==Soft-Arg-Max==
<tex>y = </tex> '''soft-arg-max'''<tex>\left ( x \right )</tex>, где <tex>y_{i} = \frac{\exp\left ( x_{i} \right )}{\sum_{j}\exp\left ( x_{i} \right )}</tex>
<tex>\frac{\partial y_{i}}{\partial x_{j}} = \begin{cases}
Анонимный участник

Навигация