<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.17.57.165&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.17.57.165&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/188.17.57.165"/>
		<updated>2026-04-30T22:57:41Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B8%D0%B4%D1%8B_%D0%B0%D0%BD%D1%81%D0%B0%D0%BC%D0%B1%D0%BB%D0%B5%D0%B9&amp;diff=69626</id>
		<title>Виды ансамблей</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B8%D0%B4%D1%8B_%D0%B0%D0%BD%D1%81%D0%B0%D0%BC%D0%B1%D0%BB%D0%B5%D0%B9&amp;diff=69626"/>
				<updated>2019-01-29T09:23:19Z</updated>
		
		<summary type="html">&lt;p&gt;188.17.57.165: /* Вероятность ошибки */ Графики, которые нужно после вставить&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Ансамбль == &lt;br /&gt;
&lt;br /&gt;
Рассмотрим задачу классификации на K классов: &amp;lt;tex&amp;gt;Y = \{1, 2, ..., K\}&amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
Пусть имеется M классификатор (&amp;quot;экспертов&amp;quot;): &amp;lt;tex&amp;gt; f_1, f_2, ..., f_M &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt; &lt;br /&gt;
&amp;lt;tex&amp;gt; f_m : X \leftarrow Y, f_m \in F, m = (1 ... M) &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Тогда давайте посмотрим новый классификатор на основе данных:&lt;br /&gt;
&lt;br /&gt;
Простое голосование: &amp;lt;tex&amp;gt; f(x) = \max \limits_{k = 1 .. K} \sum \limits_{i = 1}^M I(f_i(x) = k) &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
Взвешенное голосование:  &amp;lt;tex&amp;gt; f(x) = \max \limits_{k = 1 .. K} \sum \limits_{i = 1}^M \alpha_i I(f_i(x) = k), \sum \limits_i \alpha_i = 1, \alpha_i &amp;gt; 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Вероятность ошибки ==&lt;br /&gt;
&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; - количество присяжный, &amp;lt;tex&amp;gt;p&amp;lt;/tex&amp;gt; -  вероятность правильного решения одного эксперта, &amp;lt;tex&amp;gt;R&amp;lt;/tex&amp;gt; - вероятность правильного решения всего жюри,&lt;br /&gt;
&amp;lt;tex&amp;gt;m&amp;lt;/tex&amp;gt; - минимальное большинство членов жюри &amp;lt;tex&amp;gt; = floor(N / 2) + 1 &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Тогда &amp;lt;tex&amp;gt; R = \sum \limits_{i = m}^M C_M^i  p ^ i (1 - p) ^ {M - i} &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
https://yadi.sk/i/4GVy9FPDJnL-cQ&lt;br /&gt;
https://yadi.sk/i/Tjwyk4Bkc2Ck3g&lt;br /&gt;
&lt;br /&gt;
== Бутстрэп ==&lt;br /&gt;
Метод бутстрэпа (англ. ''bootstrap'') — один из первых и самых простых видов ансамблей, который позволяет оценивать многие статистики сложных распределений и  заключается в следующем. Пусть имеется выборка &amp;lt;tex&amp;gt;X&amp;lt;/tex&amp;gt; размера &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt;. Равномерно возьмем из выборки &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; объектов с возвращением. Это означает, что мы будем &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; раз равновероятно выбирать произвольный объект выборки, причем каждый раз мы выбираем из всех исходных &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; объектов. Отметим, что из-за возвращения среди них окажутся повторы. &amp;lt;br&amp;gt;Обозначим новую выборку через &amp;lt;tex&amp;gt;X_1&amp;lt;/tex&amp;gt;. Повторяя процедуру &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; раз, сгенерируем &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; подвыборок &amp;lt;tex&amp;gt;X_1 ... X_M&amp;lt;/tex&amp;gt;. Теперь мы имеем достаточно большое число выборок и можем оценивать различные статистики исходного распределения.&lt;br /&gt;
&lt;br /&gt;
== Бэггинг ==&lt;br /&gt;
Рассмотрим, следующий вид ансамбля — бэггинг (англ. ''bootstrap aggregation''). Пусть имеется обучающая выборка &amp;lt;tex&amp;gt;X&amp;lt;/tex&amp;gt;. С помощью бутстрэпа сгенерируем из неё выборки &amp;lt;tex&amp;gt;X_1 ... X_M&amp;lt;/tex&amp;gt;. Теперь на каждой выборке обучим свой классификатор &amp;lt;tex&amp;gt;a_i(x)&amp;lt;/tex&amp;gt;. Итоговый классификатор будет усреднять ответы всех этих алгоритмов &amp;lt;tex&amp;gt;a(x) = \frac{1}{M} \sum\limits_{i = 1}^{M} a_i(x)&amp;lt;/tex&amp;gt;.&lt;/div&gt;</summary>
		<author><name>188.17.57.165</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B8%D0%B4%D1%8B_%D0%B0%D0%BD%D1%81%D0%B0%D0%BC%D0%B1%D0%BB%D0%B5%D0%B9&amp;diff=69622</id>
		<title>Виды ансамблей</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B8%D0%B4%D1%8B_%D0%B0%D0%BD%D1%81%D0%B0%D0%BC%D0%B1%D0%BB%D0%B5%D0%B9&amp;diff=69622"/>
				<updated>2019-01-29T09:13:06Z</updated>
		
		<summary type="html">&lt;p&gt;188.17.57.165: Добавлена формула вероятности&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Ансамбль == &lt;br /&gt;
&lt;br /&gt;
Рассмотрим задачу классификации на K классов: &amp;lt;tex&amp;gt;Y = \{1, 2, ..., K\}&amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
Пусть имеется M классификатор (&amp;quot;экспертов&amp;quot;): &amp;lt;tex&amp;gt; f_1, f_2, ..., f_M &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt; &lt;br /&gt;
&amp;lt;tex&amp;gt; f_m : X \leftarrow Y, f_m \in F, m = (1 ... M) &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Тогда давайте посмотрим новый классификатор на основе данных:&lt;br /&gt;
&lt;br /&gt;
Простое голосование: &amp;lt;tex&amp;gt; f(x) = \max \limits_{k = 1 .. K} \sum \limits_{i = 1}^M I(f_i(x) = k) &amp;lt;/tex&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
Взвешенное голосование:  &amp;lt;tex&amp;gt; f(x) = \max \limits_{k = 1 .. K} \sum \limits_{i = 1}^M \alpha_i I(f_i(x) = k), \sum \limits_i \alpha_i = 1, \alpha_i &amp;gt; 0&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Вероятность ошибки ==&lt;br /&gt;
&lt;br /&gt;
Пусть &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; - количество присяжный, &amp;lt;tex&amp;gt;p&amp;lt;/tex&amp;gt; -  вероятность правильного решения одного эксперта, &amp;lt;tex&amp;gt;R&amp;lt;/tex&amp;gt; - вероятность правильного решения всего жюри,&lt;br /&gt;
&amp;lt;tex&amp;gt;m&amp;lt;/tex&amp;gt; - минимальное большинство членов жюри &amp;lt;tex&amp;gt; = floor(N / 2) + 1 &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Тогда &amp;lt;tex&amp;gt; R = \sum \limits_{i = m}^M C_M^i  p ^ i (1 - p) ^ {M - i} &amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Бутстрэп ==&lt;br /&gt;
Метод бутстрэпа (англ. ''bootstrap'') — один из первых и самых простых видов ансамблей, который позволяет оценивать многие статистики сложных распределений и  заключается в следующем. Пусть имеется выборка &amp;lt;tex&amp;gt;X&amp;lt;/tex&amp;gt; размера &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt;. Равномерно возьмем из выборки &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; объектов с возвращением. Это означает, что мы будем &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; раз равновероятно выбирать произвольный объект выборки, причем каждый раз мы выбираем из всех исходных &amp;lt;tex&amp;gt;N&amp;lt;/tex&amp;gt; объектов. Отметим, что из-за возвращения среди них окажутся повторы. &amp;lt;br&amp;gt;Обозначим новую выборку через &amp;lt;tex&amp;gt;X_1&amp;lt;/tex&amp;gt;. Повторяя процедуру &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; раз, сгенерируем &amp;lt;tex&amp;gt;M&amp;lt;/tex&amp;gt; подвыборок &amp;lt;tex&amp;gt;X_1 ... X_M&amp;lt;/tex&amp;gt;. Теперь мы имеем достаточно большое число выборок и можем оценивать различные статистики исходного распределения.&lt;br /&gt;
&lt;br /&gt;
== Бэггинг ==&lt;br /&gt;
Рассмотрим, следующий вид ансамбля — бэггинг (англ. ''bootstrap aggregation''). Пусть имеется обучающая выборка &amp;lt;tex&amp;gt;X&amp;lt;/tex&amp;gt;. С помощью бутстрэпа сгенерируем из неё выборки &amp;lt;tex&amp;gt;X_1 ... X_M&amp;lt;/tex&amp;gt;. Теперь на каждой выборке обучим свой классификатор &amp;lt;tex&amp;gt;a_i(x)&amp;lt;/tex&amp;gt;. Итоговый классификатор будет усреднять ответы всех этих алгоритмов &amp;lt;tex&amp;gt;a(x) = \frac{1}{M} \sum\limits_{i = 1}^{M} a_i(x)&amp;lt;/tex&amp;gt;.&lt;/div&gt;</summary>
		<author><name>188.17.57.165</name></author>	</entry>

	</feed>