Оценка качества в задачах классификации — различия между версиями
Faerytea (обсуждение | вклад) (базовые вещи) |
Faerytea (обсуждение | вклад) (→Простые оценки) |
||
Строка 25: | Строка 25: | ||
: <tex>Acc = \dfrac{TP + TN}{TP + TN + FP + FN}</tex> | : <tex>Acc = \dfrac{TP + TN}{TP + TN + FP + FN}</tex> | ||
* '''Recall''' (полнота), так же '''sensitivity''' и '''TPR''' (true positive rate), показывает долю найденных объектов класса к общему числу объектов класса. Иначе говоря то, насколько хорошо наш классификатор находит объекты из класса. | * '''Recall''' (полнота), так же '''sensitivity''' и '''TPR''' (true positive rate), показывает долю найденных объектов класса к общему числу объектов класса. Иначе говоря то, насколько хорошо наш классификатор находит объекты из класса. | ||
− | : <tex> | + | : <tex>Recall = \dfrac{TP}{TP + FN}</tex> |
* '''Precision''' (да, тоже точность), показывает долю объектов класса среди объектов выделенных классификатором. | * '''Precision''' (да, тоже точность), показывает долю объектов класса среди объектов выделенных классификатором. | ||
: <tex>Prec = \dfrac{TP}{TP + FP}</tex> | : <tex>Prec = \dfrac{TP}{TP + FP}</tex> | ||
* '''Fall-out''', так же '''FPR''' (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу. | * '''Fall-out''', так же '''FPR''' (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу. | ||
− | : <tex> | + | : <tex>FPR = \dfrac{FP}{FP + TN}</tex> |
+ | |||
= ROC кривая = | = ROC кривая = |
Версия 17:48, 9 апреля 2019
Общие понятия
- TP — true positive, классификатор верно отнёс объект к рассматриваемому классу.
- TN — true negative, классификатор верно утверждает, что объект не принадлежит к рассматриваемому классу.
- FP — false positive, классификатор неверно отнёс объект к рассматриваемому классу.
- FN — false negative, классификатор неверно утверждает, что объект не принадлежит к рассматриваемому классу.
Confusion matrix (матрица несоответствий) наглядно показывает суть этих показателей:
Принадлежит классу (P) | Не принадлежит классу (N) | |
---|---|---|
Предсказана принадлежность классу | TP | FP |
Предсказано отсутствие принадлежности к классу | FN | TN |
Простые оценки
- Accuracy (точность), показывает долю правильных классификаций. Несмотря на очевидность и простоту является одной из самых малоинформативных оценок классификаторов.
- Recall (полнота), так же sensitivity и TPR (true positive rate), показывает долю найденных объектов класса к общему числу объектов класса. Иначе говоря то, насколько хорошо наш классификатор находит объекты из класса.
- Precision (да, тоже точность), показывает долю объектов класса среди объектов выделенных классификатором.
- Fall-out, так же FPR (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу.