14
правок
Изменения
Многоклассовая классификация
| style="color: #22aa22;" | TN
|}
Для многоклассовой классификации матрица несоответствий строится по тому же принципу:
{| class="wikitable" style="text-align: center;"
|-
| Предсказанный класс
! Класс 1 (C₁)
! Класс 2 (C₂)
! Класс 3 (C₃)
|-
! 1 (P₁)
| style="color: #22aa22;" | T₁
| style="color: #aa2222;" | F₁₂
| style="color: #aa2222;" | F₁₃
|-
! 2 (P₂)
| style="color: #aa2222;" | F₂₁
| style="color: #22aa22;" | T₂
| style="color: #aa2222;" | F₂₃
|-
! 3 (P₃)
| style="color: #aa2222;" | F₃₁
| style="color: #aa2222;" | F₃₂
| style="color: #22aa22;" | T₃
|}
В этом случае TP, TN, FP и FN считаются относительно некоторого класса (i) следующим образом:
: <tex>TP_i = T_i</tex>
: <tex>FP_i = \sum\limits_{c \in Classes} F_{i,c}</tex>
: <tex>FN_i = \sum\limits_{c \in Classes} F_{c,i}</tex>
: <tex>TN_i = All - TP_i - FP_i - FN_i</tex>
= Простые оценки =
* '''Fall-out''', так же '''FPR''' (false positive rate), показывает долю неверных срабатываний классификатора к общему числу объектов за пределами класса. Иначе говоря то, насколько часто классификатор ошибается при отнесении того или иного объекта к классу.
: <tex>FPR = \dfrac{FP}{FP + TN}</tex>
В виду того, что такие оценки никак не учитывают изначальное распределение классов в выборке (что может существенно влиять на полученное значение), так же существуют взвешенные варианты этих оценок (в терминах многоклассовой классификации):
* '''Precision'''
: <tex>Prec_W = \dfrac{\sum\limits_{i = 1}^{N} \dfrac{T_i C_i}{P_i}}{All}</tex>
* '''Recall'''
: <tex>Recall_W = \dfrac{\sum\limits_{i = 1}^{N} T_i}{All}</tex>
= ROC кривая =
F<sub>β</sub> измеряет эффективность классификатора учитывая recall в β раз более важным чем precision.
Для многоклассовой классификации с учётом изначального распределения по классам имеет смысл рассматривать микро- и макро- F меру:
: <tex>micro F_β = \sum\limits_{c \in Classes} \dfrac{C_c F_β(c)}{All}</tex>
: <tex>macro F_β = (1 + β^2) \dfrac{Prec_W \cdot Recall_W}{β^2 \cdot Prec_W + Recall_W}