Изменения

Перейти к: навигация, поиск

Интерпретируемые модели

21 байт добавлено, 04:27, 12 января 2021
Важность признаков
Отчётливо это можно понять благодаря следующему примеру. Модель определяет кто на картинке собака или волк. Допустим выборка для обучения оказалось не самой удачной, и все картинки с волками были на снегу, а с собаками на асфальте. Соответственно модель могла начать определять собаку или волка по асфальту или снегу. Благодаря данному виду интерпретации, модель нам можешь сказать, что главным признаком для принятия решения было не само животное, а её окружение.
Одна из реализацией данной идеи является библиотека '''SHAP'''.
'''SHAP''' {{---}} (англ. SHapley Additive exPlanations) библиотека, которая для оценки важности признаков рассчитываются значения Шэпли<ref name="Shapley>Статья в википедии о значениях Шэпли [https://en.wikipedia.org/wiki/Shapley_value]</ref> (происходит оценка предсказаний модели с и без данного признака).
Анонимный участник

Навигация