<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=5.18.241.227&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=5.18.241.227&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/5.18.241.227"/>
		<updated>2026-04-16T08:17:39Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BF%D1%80%D0%B5%D1%82%D0%B8%D1%80%D1%83%D0%B5%D0%BC%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8&amp;diff=77152</id>
		<title>Интерпретируемые модели</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BF%D1%80%D0%B5%D1%82%D0%B8%D1%80%D1%83%D0%B5%D0%BC%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8&amp;diff=77152"/>
				<updated>2021-01-09T19:41:54Z</updated>
		
		<summary type="html">&lt;p&gt;5.18.241.227: /* Пример интерпретируемой модели */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Интерпретируемая модель''' {{---}} модель, обладающая свойством '''интерпретируемости'''.&lt;br /&gt;
&lt;br /&gt;
'''Интерпретируемость''' {{---}} это свойство модели, которое показывает, что структуру данной модели может объяснить человек.&lt;br /&gt;
При этом структура модели не противоречит данным, на которых данная модель построена, а также сохраняет некоторые свойства предоставленных данных.&lt;br /&gt;
При интерпретации модели могут быть объяснены принципы и закономерности, которые использует сама модель для предсказания на конкретных данных.&lt;br /&gt;
&lt;br /&gt;
== Практическая польза ==&lt;br /&gt;
&lt;br /&gt;
Если модель машинного обучения работает хорошо, почему мы просто не доверяем модели и игнорируем факторы, из-за которых она приняла то или иное решение?&lt;br /&gt;
Проблема в том, что используя только метрику для измерения точности предсказания, возможно такое, что мы решим задачу не полностью или даже не правильно. Нас могут интересовать причины, по которым модель сделала это предсказание.&amp;lt;ref name=&amp;quot;inv&amp;quot;&amp;gt;Doshi-Velez and Kim &amp;quot;Towards A Rigorous Science of Interpretable Machine Learning&amp;quot; 2017 Page 5&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
'''Например''': модель решает, когда нужно класть ковидного больного в палату, а когда отправлять лечиться дома. По статистике люди болеющие астмой выживают чаще, чем здоровые, и логично предположить, что их можно отправлять лечится дома, но дело в том, что этих людей врачи лечат более тщательней, поэтому они и выживают чаще. Если бы мы верили модели в слепую, то люди с астмой просто бы умирали. Поэтому нам важно понять, почему модель пришла к тому или иному выводу.&lt;br /&gt;
&lt;br /&gt;
=== Когда нужна интерпретируемость ===&lt;br /&gt;
&lt;br /&gt;
* Когда целью является получение каких-либо знаний с помощью изучения построенной модели.&lt;br /&gt;
&lt;br /&gt;
* Когда алгоритм оптимизировал неполную цель. Например, когда автомобильный инженер получает предсказания о параметрах двигателя, но ему нужно построит в целом достаточно хороший и надёжный автомобиль.&lt;br /&gt;
&lt;br /&gt;
* Для безопасности сложных систем. Такие системы, в большинстве случаев, нельзя протестировать от начала до конца. Вычислительно тяжело просмотреть все возможное входные данные и сценарии развития событий.&lt;br /&gt;
&lt;br /&gt;
=== Когда интерпретируемость не требуется ===&lt;br /&gt;
&lt;br /&gt;
* Влияние модели мало, а сама интерпретация требует большого количества ресурсов (предложение новых покупок на основе предыдущих в онлайн магазинах). &lt;br /&gt;
&lt;br /&gt;
* Проблема хорошо разработана, и специалистов обучают ещё в университетах.&lt;br /&gt;
&lt;br /&gt;
* Класс модели широко применяется: [[Линейная регрессия|линейные модели]] (стоимость квартиры: понятно, что это метраж, расстояние до метро, школы, детского сада и т.д., но когда параметров много, то уже сложно всё это держать в голове).&lt;br /&gt;
&lt;br /&gt;
* Необходимость скрыть систему (кому давать кредит, качество работы сотрудника, поисковое ранжирование).&lt;br /&gt;
&lt;br /&gt;
== Примеры моделей ==&lt;br /&gt;
=== Пример интерпретируемой модели ===&lt;br /&gt;
&lt;br /&gt;
Допустим есть модель в банке, которая помогает решить, давать ли кредит человеку или нет. Приходит в банк Вася, модель отказывает ему в кредите, вопрос почему? Интерпретируемая модель ответит, потому что у него, допустим, плохая кредитная история или маленькая зарплата, а по не интерпретируемой модели вряд ли будет что-то понятно.&lt;br /&gt;
&lt;br /&gt;
=== Пример эффективной в предсказании, но не интерпретируемой модели ===&lt;br /&gt;
&lt;br /&gt;
Допустим есть данные и задача бинарной [[Общие_понятия#.D0.A2.D0.B8.D0.BF.D1.8B_.D0.B7.D0.B0.D0.B4.D0.B0.D1.87|классификации]], и 99% объектов имеют класс 1, остальные 0.&lt;br /&gt;
Модель a(x) = 1, имеет точность 99%, но проинтерпретировать ее нельзя для каких-то наших исследований, особенно если нас интересуют, как возникает класс 0. Такая модель не интерпретируема, так как не информативна.&lt;br /&gt;
&lt;br /&gt;
== Другие свойства моделей ==&lt;br /&gt;
&lt;br /&gt;
* Предсказуемость и моделируемость: свойства при которых человек способен предсказывать поведение и ошибки модели, а так же умение &amp;quot;симулировать&amp;quot; их. Например: сложные физические модели, где часто возможно абстрагировать простые привила для примерного предсказания результатов.&lt;br /&gt;
&lt;br /&gt;
* Разложимость и модульность: свойства при которых человек способен декомпозировать модель на интепретируемые компоненты. Например: [[Дерево решений и случайный лес| деревья решений]] или [[Линейная регрессия|линейный модели]] для небольшой размерности.&lt;br /&gt;
&lt;br /&gt;
* Доверие: пользователь чувствует себя комфортно с настройками предсказания. Так же модель может показать, когда она не совсем уверена в своём предсказании.&lt;br /&gt;
&lt;br /&gt;
* Информативность: из модели можно выявить вспомогательную информацию полезную для принятия какого-либо решения.&lt;br /&gt;
&lt;br /&gt;
* Cтабильность: статисические и оптимизационные свойства&lt;br /&gt;
&lt;br /&gt;
== Как создать интерпретируемую модель? ==&lt;br /&gt;
&lt;br /&gt;
=== Использовать только интерпретируемые модели (англ. Transparent Models): ===&lt;br /&gt;
&lt;br /&gt;
[[Файл:inter2acc.png|thumb|400px| рис. 1. Зависимость интерпретируемости от точности.]]&lt;br /&gt;
&lt;br /&gt;
* [[Линейная регрессия|Линейные модели]].&lt;br /&gt;
&lt;br /&gt;
* [[Дерево решений и случайный лес| Деревья решений]], списки правил, наборы правил.&lt;br /&gt;
&lt;br /&gt;
* Модели основывающиеся на предыдущем опыте.&lt;br /&gt;
&lt;br /&gt;
'''Но''' не всё хорошо описывается этими моделями.&lt;br /&gt;
&lt;br /&gt;
=== Построить интерпретируемую модель поверх эмбендинга ===&lt;br /&gt;
&lt;br /&gt;
'''Пример:''' у нас есть лук. Если “лук” находится рядом с “чесноком”, то модель думает о “луке” как о овоще, если “лук” находится рядом с “пистолетом”, “рогаткой”, то модель думает о “луке” как о оружии. &lt;br /&gt;
&lt;br /&gt;
'''Но''' модель теперь интерпретируема, но сами признаки перестают быть таковым.&lt;br /&gt;
&lt;br /&gt;
=== Важность признаков ===&lt;br /&gt;
&lt;br /&gt;
Одна из возможностей проанализировать модель — оценить, насколько её решение зависит от отдельных признаков. &lt;br /&gt;
&lt;br /&gt;
'''SHAP''' {{---}} (англ. SHapley Additive exPlanations) Важность i-го признака здесь вычисляется по такой формуле:&amp;lt;ref name=&amp;quot;exp&amp;quot;&amp;gt; Реализация Shap [https://github.com/slundberg/shap]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{equation*} \phi_{i}(p) =\sum_{S \subseteq \{1,2..n\} / \{i\}} \frac{|S|!(n - |S| -1)!}{n!}(p(S \cup \{ i \}) - p(S)) \end{equation*}&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;habr&amp;quot;&amp;gt;Павел Трошенков &amp;quot;Как интерпретировать предсказания моделей в SHAP&amp;quot; [https://habr.com/ru/post/428213]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
где:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;p(S \cup \{ i \})&amp;lt;/math&amp;gt; {{---}} это предсказание модели с i-тым признаком,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;p(S)&amp;lt;/math&amp;gt; {{---}} это предсказание модели без i-того признака,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; {{---}} количество признаков,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt; {{---}} произвольный набор признаков без i-того признака.&lt;br /&gt;
&lt;br /&gt;
Видно, что вычисление требует обучения модели на всевозможных подмножествах признаках, поэтому на практике применяют приближения формулы.&lt;br /&gt;
&lt;br /&gt;
=== Суррогатные модели ===&lt;br /&gt;
&lt;br /&gt;
'''LIME''' {{---}} (англ. Local Interpretable Model-agnostic Explanations) &amp;lt;ref name=&amp;quot;Lime&amp;quot;&amp;gt;Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin &amp;quot;Explaining the Predictions of Any Classifier&amp;quot; [https://www.kdd.org/kdd2016/papers/files/rfp0573-ribeiroA.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
Даже если простая модель не сможет смоделировать сложную во всём пространстве, в окрестности конкретной точки это вполне возможно. Локальные модели объясняют конкретный ответ чёрного ящика. Эта идея показана на рис. 2. У нас есть чёрный ящик (ЧЯ), который построен на данных. В некоторой точке он выдал ответ, мы генерируем выборку в окрестности этой точки, узнаём ответы ЧЯ и настраиваем обычный линейный классификатор. Он описывает ЧЯ в окрестности точки, хотя во всём пространстве он сильно отличается от ЧЯ. Из рис. 2 понятны достоинства и недостатки такого подхода.&amp;lt;ref name=&amp;quot;lime_exp&amp;gt;Реализация Lime [https://github.com/marcotcr/lime]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Файл:lime.png|500px]]&lt;br /&gt;
&lt;br /&gt;
''рис. 2. Построение локальной суррогатной модели.''&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
&lt;br /&gt;
* [[Уменьшение размерности]]&lt;br /&gt;
&lt;br /&gt;
* [[Жизненный цикл модели машинного обучения]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
&lt;br /&gt;
* Doshi-Velez and Kim &amp;quot;Towards A Rigorous Science of Interpretable Machine Learning&amp;quot; 2017[https://arxiv.org/pdf/1702.08608.pdf]&lt;br /&gt;
&lt;br /&gt;
* Sanmi Koyejo &amp;quot;Interpretability&amp;quot; MACHINE LEARNING SUMMER SCHOOL 2019 [https://github.com/mlss-2019/slides/blob/master/interpretability/MLSS-interpretability-koyejo.pdf]&lt;br /&gt;
&lt;br /&gt;
[[Категория:Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>5.18.241.227</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BF%D1%80%D0%B5%D1%82%D0%B8%D1%80%D1%83%D0%B5%D0%BC%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8&amp;diff=77145</id>
		<title>Интерпретируемые модели</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BF%D1%80%D0%B5%D1%82%D0%B8%D1%80%D1%83%D0%B5%D0%BC%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8&amp;diff=77145"/>
				<updated>2021-01-09T19:40:09Z</updated>
		
		<summary type="html">&lt;p&gt;5.18.241.227: /* Пример интерпретируемой модели */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Интерпретируемая модель''' {{---}} модель, обладающая свойством '''интерпретируемости'''.&lt;br /&gt;
&lt;br /&gt;
'''Интерпретируемость''' {{---}} это свойство модели, которое показывает, что структуру данной модели может объяснить человек.&lt;br /&gt;
При этом структура модели не противоречит данным, на которых данная модель построена, а также сохраняет некоторые свойства предоставленных данных.&lt;br /&gt;
При интерпретации модели могут быть объяснены принципы и закономерности, которые использует сама модель для предсказания на конкретных данных.&lt;br /&gt;
&lt;br /&gt;
== Практическая польза ==&lt;br /&gt;
&lt;br /&gt;
Если модель машинного обучения работает хорошо, почему мы просто не доверяем модели и игнорируем факторы, из-за которых она приняла то или иное решение?&lt;br /&gt;
Проблема в том, что используя только метрику для измерения точности предсказания, возможно такое, что мы решим задачу не полностью или даже не правильно. Нас могут интересовать причины, по которым модель сделала это предсказание.&amp;lt;ref name=&amp;quot;inv&amp;quot;&amp;gt;Doshi-Velez and Kim &amp;quot;Towards A Rigorous Science of Interpretable Machine Learning&amp;quot; 2017 Page 5&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
'''Например''': модель решает, когда нужно класть ковидного больного в палату, а когда отправлять лечиться дома. По статистике люди болеющие астмой выживают чаще, чем здоровые, и логично предположить, что их можно отправлять лечится дома, но дело в том, что этих людей врачи лечат более тщательней, поэтому они и выживают чаще. Если бы мы верили модели в слепую, то люди с астмой просто бы умирали. Поэтому нам важно понять, почему модель пришла к тому или иному выводу.&lt;br /&gt;
&lt;br /&gt;
=== Когда нужна интерпретируемость ===&lt;br /&gt;
&lt;br /&gt;
* Когда целью является получение каких-либо знаний с помощью изучения построенной модели.&lt;br /&gt;
&lt;br /&gt;
* Когда алгоритм оптимизировал неполную цель. Например, когда автомобильный инженер получает предсказания о параметрах двигателя, но ему нужно построит в целом достаточно хороший и надёжный автомобиль.&lt;br /&gt;
&lt;br /&gt;
* Для безопасности сложных систем. Такие системы, в большинстве случаев, нельзя протестировать от начала до конца. Вычислительно тяжело просмотреть все возможное входные данные и сценарии развития событий.&lt;br /&gt;
&lt;br /&gt;
=== Когда интерпретируемость не требуется ===&lt;br /&gt;
&lt;br /&gt;
* Влияние модели мало, а сама интерпретация требует большого количества ресурсов (предложение новых покупок на основе предыдущих в онлайн магазинах). &lt;br /&gt;
&lt;br /&gt;
* Проблема хорошо разработана, и специалистов обучают ещё в университетах.&lt;br /&gt;
&lt;br /&gt;
* Класс модели широко применяется: [[Линейная регрессия|линейные модели]] (стоимость квартиры: понятно, что это метраж, расстояние до метро, школы, детского сада и т.д., но когда параметров много, то уже сложно всё это держать в голове).&lt;br /&gt;
&lt;br /&gt;
* Необходимость скрыть систему (кому давать кредит, качество работы сотрудника, поисковое ранжирование).&lt;br /&gt;
&lt;br /&gt;
== Примеры моделей ==&lt;br /&gt;
=== Пример интерпретируемой модели ===&lt;br /&gt;
&lt;br /&gt;
Допустим есть модель в банке, которая помогает решить, давать ли кредит человеку или нет. Приходит в банк Вася, модель отказывает ему в кредите, вопрос почему? Интерпретируемая модель ответит, потому что у него, допустим, плохая кредитная история или маленькая зарплата, а по неинтерпретируемой модели вряд ли будет что-то понятно.&lt;br /&gt;
&lt;br /&gt;
=== Пример эффективной в предсказании, но не интерпретируемой модели ===&lt;br /&gt;
&lt;br /&gt;
Допустим есть данные и задача бинарной [[Общие_понятия#.D0.A2.D0.B8.D0.BF.D1.8B_.D0.B7.D0.B0.D0.B4.D0.B0.D1.87|классификации]], и 99% объектов имеют класс 1, остальные 0.&lt;br /&gt;
Модель a(x) = 1, имеет точность 99%, но проинтерпретировать ее нельзя для каких-то наших исследований, особенно если нас интересуют, как возникает класс 0. Такая модель не интерпретируема, так как не информативна.&lt;br /&gt;
&lt;br /&gt;
== Другие свойства моделей ==&lt;br /&gt;
&lt;br /&gt;
* Предсказуемость и моделируемость: свойства при которых человек способен предсказывать поведение и ошибки модели, а так же умение &amp;quot;симулировать&amp;quot; их. Например: сложные физические модели, где часто возможно абстрагировать простые привила для примерного предсказания результатов.&lt;br /&gt;
&lt;br /&gt;
* Разложимость и модульность: свойства при которых человек способен декомпозировать модель на интепретируемые компоненты. Например: [[Дерево решений и случайный лес| деревья решений]] или [[Линейная регрессия|линейный модели]] для небольшой размерности.&lt;br /&gt;
&lt;br /&gt;
* Доверие: пользователь чувствует себя комфортно с настройками предсказания. Так же модель может показать, когда она не совсем уверена в своём предсказании.&lt;br /&gt;
&lt;br /&gt;
* Информативность: из модели можно выявить вспомогательную информацию полезную для принятия какого-либо решения.&lt;br /&gt;
&lt;br /&gt;
* Cтабильность: статисические и оптимизационные свойства&lt;br /&gt;
&lt;br /&gt;
== Как создать интерпретируемую модель? ==&lt;br /&gt;
&lt;br /&gt;
=== Использовать только интерпретируемые модели (англ. Transparent Models): ===&lt;br /&gt;
&lt;br /&gt;
[[Файл:inter2acc.png|thumb|400px| рис. 1. Зависимость интерпретируемости от точности.]]&lt;br /&gt;
&lt;br /&gt;
* [[Линейная регрессия|Линейные модели]].&lt;br /&gt;
&lt;br /&gt;
* [[Дерево решений и случайный лес| Деревья решений]], списки правил, наборы правил.&lt;br /&gt;
&lt;br /&gt;
* Модели основывающиеся на предыдущем опыте.&lt;br /&gt;
&lt;br /&gt;
'''Но''' не всё хорошо описывается этими моделями.&lt;br /&gt;
&lt;br /&gt;
=== Построить интерпретируемую модель поверх эмбендинга ===&lt;br /&gt;
&lt;br /&gt;
'''Пример:''' у нас есть лук. Если “лук” находится рядом с “чесноком”, то модель думает о “луке” как о овоще, если “лук” находится рядом с “пистолетом”, “рогаткой”, то модель думает о “луке” как о оружии. &lt;br /&gt;
&lt;br /&gt;
'''Но''' модель теперь интерпретируема, но сами признаки перестают быть таковым.&lt;br /&gt;
&lt;br /&gt;
=== Важность признаков ===&lt;br /&gt;
&lt;br /&gt;
Одна из возможностей проанализировать модель — оценить, насколько её решение зависит от отдельных признаков. &lt;br /&gt;
&lt;br /&gt;
'''SHAP''' {{---}} (англ. SHapley Additive exPlanations) Важность i-го признака здесь вычисляется по такой формуле:&amp;lt;ref name=&amp;quot;exp&amp;quot;&amp;gt; Реализация Shap [https://github.com/slundberg/shap]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{equation*} \phi_{i}(p) =\sum_{S \subseteq \{1,2..n\} / \{i\}} \frac{|S|!(n - |S| -1)!}{n!}(p(S \cup \{ i \}) - p(S)) \end{equation*}&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;habr&amp;quot;&amp;gt;Павел Трошенков &amp;quot;Как интерпретировать предсказания моделей в SHAP&amp;quot; [https://habr.com/ru/post/428213]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
где:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;p(S \cup \{ i \})&amp;lt;/math&amp;gt; {{---}} это предсказание модели с i-тым признаком,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;p(S)&amp;lt;/math&amp;gt; {{---}} это предсказание модели без i-того признака,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; {{---}} количество признаков,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt; {{---}} произвольный набор признаков без i-того признака.&lt;br /&gt;
&lt;br /&gt;
Видно, что вычисление требует обучения модели на всевозможных подмножествах признаках, поэтому на практике применяют приближения формулы.&lt;br /&gt;
&lt;br /&gt;
=== Суррогатные модели ===&lt;br /&gt;
&lt;br /&gt;
'''LIME''' {{---}} (англ. Local Interpretable Model-agnostic Explanations) &amp;lt;ref name=&amp;quot;Lime&amp;quot;&amp;gt;Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin &amp;quot;Explaining the Predictions of Any Classifier&amp;quot; [https://www.kdd.org/kdd2016/papers/files/rfp0573-ribeiroA.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
Даже если простая модель не сможет смоделировать сложную во всём пространстве, в окрестности конкретной точки это вполне возможно. Локальные модели объясняют конкретный ответ чёрного ящика. Эта идея показана на рис. 2. У нас есть чёрный ящик (ЧЯ), который построен на данных. В некоторой точке он выдал ответ, мы генерируем выборку в окрестности этой точки, узнаём ответы ЧЯ и настраиваем обычный линейный классификатор. Он описывает ЧЯ в окрестности точки, хотя во всём пространстве он сильно отличается от ЧЯ. Из рис. 2 понятны достоинства и недостатки такого подхода.&amp;lt;ref name=&amp;quot;lime_exp&amp;gt;Реализация Lime [https://github.com/marcotcr/lime]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Файл:lime.png|500px]]&lt;br /&gt;
&lt;br /&gt;
''рис. 2. Построение локальной суррогатной модели.''&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
&lt;br /&gt;
* [[Уменьшение размерности]]&lt;br /&gt;
&lt;br /&gt;
* [[Жизненный цикл модели машинного обучения]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
&lt;br /&gt;
* Doshi-Velez and Kim &amp;quot;Towards A Rigorous Science of Interpretable Machine Learning&amp;quot; 2017[https://arxiv.org/pdf/1702.08608.pdf]&lt;br /&gt;
&lt;br /&gt;
* Sanmi Koyejo &amp;quot;Interpretability&amp;quot; MACHINE LEARNING SUMMER SCHOOL 2019 [https://github.com/mlss-2019/slides/blob/master/interpretability/MLSS-interpretability-koyejo.pdf]&lt;br /&gt;
&lt;br /&gt;
[[Категория:Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>5.18.241.227</name></author>	</entry>

	</feed>