Изменения

Перейти к: навигация, поиск

Метод опорных векторов (SVM)

715 байт добавлено, 21:50, 21 марта 2019
м
Нет описания правки
=== Линейно разделимая выборка ===
Пусть выборка линейно разделима, то есть существует некоторая гиперплоскость, разделяющая классы $-1$ и $+1$.Тогда в качестве алгоритма классификации можно взять линейный пороговый классификатор: $a(\vec{x}) = sign(\langle \vec{w}, \vec{x} \rangle - b) = sign\left(\sum\limits_{j=1}^\ell w_j x^j - b\right)$ где $\vec{x} = (x^1, \ldots, x^n)$ — вектор значений признаков объекта, а $\vec{w} = (w_1, \ldots, w_n) \in \mathbb{R}^n$ и $b \in \mathbb{R}$ — параметры алгоритма. Но для двух линейно разделимых классов существует бесконечное множество разделяющих гиперплоскостей. Метод опорных векторов выбирает ту гиперплоскость, которая максимизирует отступ между классами:
{{Определение
}}
[[ФайлТаким образом, для линейно разделимой выборки существует такая гиперплоскость, отступ от которой до каждого объекта положителен:SVM_margin.png|300px|thumb|right]] $\exists \vec{w}, b : M_i(\vec{w}, b) = y_i(\langle \vec{w}, \vec{x} \rangle - b) > 0, \; i = 1\ldots\ell$  
Возьмём в качестве алгоритма классификации $a(x) : X \to Y$ линейный пороговый классификатор:
$$a(x) = sign\left(\sum\limits_{j=1}^\ell w_j x^j - w_0\right) = sign(\langle w, x \rangle - w_0)$$
где $x = (x^1, \ldots, x^n)$ — вектор значений признаков объекта, а $w = (w_1, \ldots, w_n)$ и $w_0 \in \mathbb{R}$ — параметры алгоритма.
{{Теорема
23
правки

Навигация