Изменения

Перейти к: навигация, поиск

Soft-Max и Soft-Arg-Max

97 байт добавлено, 17:38, 1 июля 2022
Нет описания правки
Пусть есть задача мягкой классификации:
 
Алгоритм <tex>a</tex> выдает значения <tex>L_{1}, L_{2},\ldots, L_{n}</tex>, где <tex>n</tex> {{---}} число классов.
 
<tex>L_{i}</tex> {{---}} уверенность алгоритма в том, что объект принадлежит классу <tex>i</tex>, <tex>L_{i} \in \left [ -\infty, +\infty\right ]</tex>
Нужно для Для этих значений необходимо найти такие p1<tex>p_{1},\ldots,...pnp_{n}</tex>, что pi из : *<tex>p_{i} \in \left [0, 1\right ], а сумма pi </tex>*<tex>\sum{i}p_{i}= 1</tex>То есть <tex>p_{1},\ldots, то есть p1..pn p_{n}</tex> {{--- }} распределение вероятностей. 
Для этого возьмём экспоненту от L1..Ln; Получим числа от [0;+oo] и нормируем их:
pi = exp(Li)/Sum(exp(Li))
Анонимный участник

Навигация