Изменения

Перейти к: навигация, поиск

Виды ансамблей

1805 байт убрано, 10:20, 19 февраля 2019
Эффективность: Удалено
<li> Взвешивание классификаторов: если классификаторов четное количество, то голосов может получиться поровну, еще возможно, что для эксперты одна из групп параметров важна в большей степени, тогда прибегают к взвешиванию классификаторов. То есть при голосовании голос классификатора умножается на его вес.
</ul>
 
 
== Эффективность ==
Рассмотрим задачу регрессии с базовыми алгоритмами <tex>b_1, b_2, ..., b_m</tex>. Предположим, что существует истинная функция ответа для всех объектов y(x), а также задано распределение p(x) на объектах. В этом случае мы можем записать ошибку каждой функции регрессии:
 
<tex> \epsilon_i(x) = b_i(x) - y(x), y = 1, ..., n </tex>
 
и записать матожидание среднеквадратичной ошибки:
 
<tex>E_x(b_i(x) - y(x))^2 = E_x \epsilon_i^2(x) </tex>
 
Средняя ошибка построенных функций регрессии имеет вид:
 
<tex>E_1 = \frac 1 n E_x \sum \limits_{i = 1}^n \epsilon_i^2(x) </tex>
 
Предположим, что ошибки несмещены и некоррелированы:
 
<tex> E_x\epsilon_i(x) = 0, E_x\epsilon_i(x)\epsilon_j(x) = 0, i ≠ j </tex>
 
Построим теперь новую функцию регрессии, которая будет усреднять ответы построенных нами функций:
 
<tex> a(x) = \frac 1 n \sum \limits_{i = 1}^n b_i(x) </tex>
 
Найдем ее среднеквадратичную ошибку:
 
<tex> E_n = E_x(\frac 1 n \sum \limits_{i = 1}^n (b_i(x) - y(x))^2
= E_x(\frac 1 n \sum \limits_{i = 1}^n \epsilon_i)^2
= \frac 1 {n^2} E_x(\sum \limits_{i = 1}^n \epsilon_i^2(x) + \sum \limits_{i ≠ j} \epsilon_i(x)\epsilon_j(x))
= \frac 1 n E_1 </tex>
 
Таким образом, усреднение ответов позволило уменьшить средний квадрат ошибки в <tex>n</tex> раз
68
правок

Навигация