Изменения

Перейти к: навигация, поиск

Интерпретируемые модели

49 байт добавлено, 14:26, 5 января 2021
Нет описания правки
=== Построить интерпретируемую модель поверх эмбендинга ===
'''Пример: ''' у нас есть лук. Если “лук” находится рядом с “чесноком”, то модель думает о “луке” как о овоще, если “лук” находится рядом с “пистолетом”, “рогаткой”, то модель думает о “луке” как о оружии.  '''Но ''' модель теперь интерпретируема, но сами признаки перестают быть таковым
=== Важность признаков ===
=== Суррогатные модели ===
 
[[Файл:lime.png|thumb|400px| рис. 2. Построение локальной суррогатной модели.]]
'''LIME''' - (англ. Local Interpretable Model-agnostic Explanations) <ref name="Lime">Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin "Explaining the Predictions of Any Classifier" [https://www.kdd.org/kdd2016/papers/files/rfp0573-ribeiroA.pdf]</ref>
Даже если простая модель не сможет смоделировать сложную во всём пространстве, в окрестности конкретной точки это вполне возможно. Локальные модели объясняют конкретный ответ чёрного ящика. Эта идея показана на рис. w. У нас есть чёрный ящик (ЧЯ), который построен на данных. В некоторой точке он выдал ответ, мы генерируем выборку в окрестности этой точки, узнаём ответы ЧЯ и настраиваем обычный линейный классификатор. Он описывает ЧЯ в окрестности точки, хотя во всём пространстве он сильно отличается от ЧЯ. Из рис. 2 понятны достоинства и недостатки такого подхода.
 
рис. 2. Построение локальной суррогатной модели.
89
правок

Навигация