14
правок
Изменения
базовые вещи
= Общие понятия =
* '''TP''' — true positive, классификатор верно отнёс объект к рассматриваемому классу.
* '''TN''' — true negative, классификатор верно утверждает, что объект не принадлежит к рассматриваемому классу.
* '''FP''' — false positive, классификатор неверно отнёс объект к рассматриваемому классу.
* '''FN''' — false negative, классификатор неверно утверждает, что объект не принадлежит к рассматриваемому классу.
'''Confusion matrix''' ('''матрица несоответствий''') наглядно показывает суть этих показателей:
{| class="wikitable" style="text-align: center;"
|-
|
! Принадлежит классу (P)
! Не принадлежит классу (N)
|-
! Предсказана принадлежность классу
| style="color: #22aa22;" | TP
| style="color: #aa2222;" | FP
|-
! Предсказано отсутствие принадлежности к классу
| style="color: #aa2222;" | FN
| style="color: #22aa22;" | TN
|}
= Простые оценки =
* '''Accuracy''' (точность), показывает долю правильных классификаций. Несмотря на очевидность и простоту является одной из самых малоинформативных оценок классификаторов.
: <tex>Acc = \dfrac{TP + TN}{TP + TN + FP + FN}</tex>
* '''Recall''' (полнота), так же '''sensitivity''' и '''TPR''' (true positive rate), показывает долю найденных объектов класса к общему числу объектов класса. Иначе говоря то, насколько хорошо наш классификатор находит объекты из класса.
: <tex>Prec = \dfrac{TP}{TP + FN}</tex>
* '''Precision''' (да, тоже точность), показывает долю объектов класса среди объектов выделенных классификатором.
: <tex>Prec = \dfrac{TP}{TP + FP}</tex>
* '''Fall-out''', так же '''FPR''' (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу.
: <tex>Prec = \dfrac{FP}{FP + TN}</tex>
= ROC кривая =
* '''TP''' — true positive, классификатор верно отнёс объект к рассматриваемому классу.
* '''TN''' — true negative, классификатор верно утверждает, что объект не принадлежит к рассматриваемому классу.
* '''FP''' — false positive, классификатор неверно отнёс объект к рассматриваемому классу.
* '''FN''' — false negative, классификатор неверно утверждает, что объект не принадлежит к рассматриваемому классу.
'''Confusion matrix''' ('''матрица несоответствий''') наглядно показывает суть этих показателей:
{| class="wikitable" style="text-align: center;"
|-
|
! Принадлежит классу (P)
! Не принадлежит классу (N)
|-
! Предсказана принадлежность классу
| style="color: #22aa22;" | TP
| style="color: #aa2222;" | FP
|-
! Предсказано отсутствие принадлежности к классу
| style="color: #aa2222;" | FN
| style="color: #22aa22;" | TN
|}
= Простые оценки =
* '''Accuracy''' (точность), показывает долю правильных классификаций. Несмотря на очевидность и простоту является одной из самых малоинформативных оценок классификаторов.
: <tex>Acc = \dfrac{TP + TN}{TP + TN + FP + FN}</tex>
* '''Recall''' (полнота), так же '''sensitivity''' и '''TPR''' (true positive rate), показывает долю найденных объектов класса к общему числу объектов класса. Иначе говоря то, насколько хорошо наш классификатор находит объекты из класса.
: <tex>Prec = \dfrac{TP}{TP + FN}</tex>
* '''Precision''' (да, тоже точность), показывает долю объектов класса среди объектов выделенных классификатором.
: <tex>Prec = \dfrac{TP}{TP + FP}</tex>
* '''Fall-out''', так же '''FPR''' (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу.
: <tex>Prec = \dfrac{FP}{FP + TN}</tex>
= ROC кривая =