Ядро — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м
м (rollbackEdits.php mass rollback)
 
(не показано 11 промежуточных версий 3 участников)
Строка 13: Строка 13:
 
Поскольку для задачи линейного разделения объектов не требуется их признаковое описание, а достаточно скаляров, то можно заменить скалярное произведение $\langle x,x'\rangle$ на ядро $K(x,x')$. Более того, можно вообще не строить спрямляющее пространство $H$ в явном виде, и вместо подбора отображения $\varphi$ заниматься непосредственно подбором ядра.
 
Поскольку для задачи линейного разделения объектов не требуется их признаковое описание, а достаточно скаляров, то можно заменить скалярное произведение $\langle x,x'\rangle$ на ядро $K(x,x')$. Более того, можно вообще не строить спрямляющее пространство $H$ в явном виде, и вместо подбора отображения $\varphi$ заниматься непосредственно подбором ядра.
  
Можно пойти ещё дальше, и вовсе отказаться от признаковых описаний объектов. Во многих практических задачах объекты изначально задаются информацией об их попарном взаимоотношении, например, отношении сходства. Если эта информация допускает представление в виде двуместной функции $K(x,x')$, удовлетворяющей аксиомам скалярного произведения, то задача может решаться методом[[Метод опорных векторов (SVM) | опорных векторов ]].
+
Можно пойти ещё дальше, и вовсе отказаться от признаковых описаний объектов. Во многих практических задачах объекты изначально задаются информацией об их попарном взаимоотношении, например, отношении сходства. Если эта информация допускает представление в виде двуместной функции $K(x,x')$, удовлетворяющей аксиомам скалярного произведения, то задача может решаться методом[[Метод опорных векторов (SVM) | опорных векторов]].
 
 
  
 
== Преимущества и недостатки ==
 
== Преимущества и недостатки ==
Строка 24: Строка 23:
 
а) с сохранением вычислительной эффективности линейных методов.
 
а) с сохранением вычислительной эффективности линейных методов.
  
б) с сохранением преимуществ линейных методов(локальный оптимум является глобальным, нет локальных оптимумов=>меньше переобучение).
+
б) с сохранением преимуществ линейных методов (локальный оптимум является глобальным, нет локальных оптимумов=>меньше переобучение).
  
* Объекты для которых не существует векторныхпредставлений фиксированной длины.
+
* Объекты для которых не существует векторных представлений фиксированной длины.
  
 
* Ускоренное вычисление скалярных произведений для высоких значений размерностей.
 
* Ускоренное вычисление скалярных произведений для высоких значений размерностей.
Строка 43: Строка 42:
 
* Случай, когда сложно представить объекты векторами фиксированной длины.
 
* Случай, когда сложно представить объекты векторами фиксированной длины.
  
Такие как строки, множества, картинки, тексты, графы,3D-структуры и т.д.
+
Такие, как строки, множества, картинки, тексты, графы, 3D-структуры и т.д.
  
 
* Существование естественного определения скалярного произведения.
 
* Существование естественного определения скалярного произведения.
  
Такие как строки(число совместно встречающихся подстрок) или множества(напр. для множеств $S_1$ и $S_2$ ядром будет являться $K(S_1, S_2) = 2^{|S_1\cap S_2|}$).
+
Такие, как строки (число совместно встречающихся подстрок) или множества (напр. для множеств $S_1$ и $S_2$ ядром будет являться $K(S_1, S_2) = 2^{|S_1\cap S_2|}$).
  
 
* Скалярное произведение может быть подсчитано эффективно.
 
* Скалярное произведение может быть подсчитано эффективно.
Строка 61: Строка 60:
 
Таким образом мы видим, что класс ядер достаточно широк.
 
Таким образом мы видим, что класс ядер достаточно широк.
  
Проверка неотрицательной определённости функции в реальных задачах может быть сложной. Чаще всего ограничиваются перебором конечного числа функций, про которые известно, что они являются ядрами. Среди них выбирается лучшая (обычно по критерию скользящего контроля). Такое решение не будет оптимальным, и на сегодняшний день проблема выбора ядра, оптимального для данной конкретной задачи, остаётся открытой.
+
Проверка неотрицательной определённости функции в реальных задачах может быть сложной. Чаще всего ограничиваются перебором конечного числа функций, про которые известно, что они являются ядрами. Среди них выбирается лучшая (обычно по критерию скользящего контроля). Такое решение не будет оптимальным, и на сегодняшний день проблема выбора ядра, оптимального для данной конкретной задачи, остаётся открытой, лучшие из известных на данный момент решений основываются на генетических алгоритмах<ref>[https://www.researchgate.net/publication/221080223_An_Evolutionary_Approach_to_Automatic_Kernel_Construction - T.Howley, M.G.Madden — An Evolutionary Approach to Automatic Kernel Construction]</ref>.
  
 
== Конструктивные способы построения ядер ==
 
== Конструктивные способы построения ядер ==
1.Произвольное скалярное произведение $ K(x,x') =\langle x,x'\rangle $ является ядром.
+
1. Произвольное скалярное произведение $ K(x,x') =\langle x,x'\rangle $ является ядром.
  
 
2. Константа $K(x,x') = 1$ является ядром.
 
2. Константа $K(x,x') = 1$ является ядром.
Строка 82: Строка 81:
 
9. Предел локально-равномерно сходящейся последовательности ядер {{---}} ядро.
 
9. Предел локально-равномерно сходящейся последовательности ядер {{---}} ядро.
  
10. Композиция произвольного ядра $K_0$ и произвольной функции $f:R\rightarrow R$, представимой в виде сходящегося степенного ряда с неотрицательными коэффициентами $K(x,x') = f(K_0(x,x'))$, является ядром. В частности, функции $f(z) =e^z$ и $f(z) =\frac{1}{1−z}$ где $z$ - функция ядра {{---}} являются ядрами.
+
10. Композиция произвольного ядра $K_0$ и произвольной функции $f:R\rightarrow R$, представимой в виде сходящегося степенного ряда с неотрицательными коэффициентами $K(x,x') = f(K_0(x,x'))$, является ядром. В частности, функции $f(z) =e^z$ и $f(z) =\frac{1}{1−z}$ где $z$ {{---}} функция ядра {{---}} являются ядрами.
  
  
Строка 88: Строка 87:
  
 
0. '''Линейное''' (англ. linear) $K(x, x')= \langle x, x'\rangle$
 
0. '''Линейное''' (англ. linear) $K(x, x')= \langle x, x'\rangle$
 +
 
Используется в алгоритме [[Метод опорных векторов (SVM) | SVM ]] по умолчанию.
 
Используется в алгоритме [[Метод опорных векторов (SVM) | SVM ]] по умолчанию.
  
1. '''Полиномиальное''' (англ. polynomial) $K(x, x') = (\langle x, x' \rangle + R)^d$
+
1. '''Полиномиальное''' (англ. polynomial) $K(x, x') = (\langle x, x' \rangle + R)^d$<ref>https://en.wikipedia.org/wiki/Polynomial_kernel - Polynomial kernel</ref>
  
Используется когда необходимо получить полином $p(y)$, где в качестве y выступает скалярное произведение $\langle x, x' \rangle$. Поскольку в конструктивных возможностях у нас есть умножение ядер, умножение на коэффициент и сложение, то любой многочлен так же является ядром.
+
Используется когда необходимо получить полином $p(y)$, где в качестве $y$ выступает скалярное произведение $\langle x, x' \rangle$. Поскольку в конструктивных возможностях у нас есть умножение ядер, умножение на коэффициент и сложение, то любой многочлен так же является ядром.
  
2. '''Гаусово''' (англ. gaussian) ядро RBF K(x, x') = $exp(-\frac{\parallel x - x'\parallel^2}{2\sigma^2})$
+
2. '''Гаусово''' (англ. gaussian) ядро RBF (Radial basis function)<ref>[https://en.wikipedia.org/wiki/Radial_basis_function_kernel - RBF]</ref> $K(x, x') = exp(-\frac{\parallel x - x'\parallel^2}{2\sigma^2})$
  
Такое ядро соответсвует бесконечномерному пространству. Поскольку оно является пределом последовательности полиномиальных ядер при стремлении степени ядра к бесконечности.
+
Такое ядро соответствует бесконечномерному пространству. Поскольку оно является пределом последовательности полиномиальных ядер при стремлении степени ядра к бесконечности.
  
3.'''Сигмоидальное''' (англ. sigmoid) ядро $tangh (\gamma \langle x, x'\rangle + r)$  
+
3. '''Сигмоидальное''' (англ. sigmoid) ядро $tangh (\gamma \langle x, x'\rangle + r)$  
  
В отличии от предыдущих 3-х не является ядром Мерсера(не выполняет условие теоремы), но при этом на практике работает хорошо.
+
В отличие от предыдущих 3-х не является ядром Мерсера (не выполняет условие теоремы), но при этом на практике работает хорошо.
  
4.'''Строковое'''
+
4. '''Строковое'''
  
 
Строковые ядра <ref>[https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D1%80%D0%BE%D0%BA%D0%BE%D0%B2%D0%BE%D0%B5_%D1%8F%D0%B4%D1%80%D0%BE#%D0%9E%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 - Строковое ядро]</ref> это различные ядерные функции для вычисления расстояний между двумя строками.
 
Строковые ядра <ref>[https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D1%80%D0%BE%D0%BA%D0%BE%D0%B2%D0%BE%D0%B5_%D1%8F%D0%B4%D1%80%D0%BE#%D0%9E%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 - Строковое ядро]</ref> это различные ядерные функции для вычисления расстояний между двумя строками.
 +
 +
 +
== Использование ядер в коде ==
 +
 +
В библиотеке языка Python {{---}} sklearn.clustering<ref>https://scikit-learn.org/stable/modules/classes.html#module-sklearn.cluster - sklearn.cluster</ref>, есть функции и классы которые используют ядра для кластеризации, например SVM(Support vector machines).
 +
 +
* Подключаем библиотеки:
 +
  '''import''' svm model
 +
  '''from''' sklearn '''import''' svm
 +
 +
* Создаём классификатор svm {{---}} Classifier. В данном случае используется линейное ядро. Так же можно использовать 'polynomial' и 'rbf' [[Ядро#Некоторые часто используемые ядра|(см. используемые ядра)]].
 +
 +
  clf = svm.SVC(kernel='linear')
 +
 +
*Тренируем модель  используя заданные сеты и смотрим на предсказанные ответы:
 +
  clf.'''fit'''(X_train, y_train)
 +
  y_pred = clf.'''predict'''(X_test)
 +
 +
Кроме того, у этой функции так же присутствует гипперпараметры {{---}} '''регуляризация''' (англ. regularization), который отвечает за размер штрафа и гамма, которая отвечает за приближенность результирующей функций к датасету. Здесь нужно помнить, что при больших значениях гамма возможно [[Переобучение|переобучение]].
  
 
== См. также ==
 
== См. также ==
 
* [[Метод опорных векторов (SVM)]]
 
* [[Метод опорных векторов (SVM)]]
 +
* [[Линейная регрессия]]
 +
* [[Логистическая регрессия]]
 +
* [[Регуляризация]]
  
 
== Примечания ==
 
== Примечания ==
Строка 118: Строка 140:
 
#[https://ru.wikipedia.org/wiki/%D0%AF%D0%B4%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4#%D0%9C%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D0%BA%D0%B0:_%D1%8F%D0%B4%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D1%82%D1%80%D1%8E%D0%BA wikipedia.org — Ядерный метод]
 
#[https://ru.wikipedia.org/wiki/%D0%AF%D0%B4%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4#%D0%9C%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D0%BA%D0%B0:_%D1%8F%D0%B4%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D1%82%D1%80%D1%8E%D0%BA wikipedia.org — Ядерный метод]
 
#[http://www.machinelearning.ru/wiki/images/7/78/Kitov-ML-09-Kernel_methods.pdf www.machinelearning.ru — Виктор Китов Ядерные методы]
 
#[http://www.machinelearning.ru/wiki/images/7/78/Kitov-ML-09-Kernel_methods.pdf www.machinelearning.ru — Виктор Китов Ядерные методы]
 +
#[https://www.datacamp.com/community/tutorials/svm-classification-scikit-learn-python#kernels datacamp.com — Support Vector Machines with Scikit-learn]
  
 
[[Категория: Машинное обучение]]
 
[[Категория: Машинное обучение]]
 
[[Категория: Классификация]]
 
[[Категория: Классификация]]
 +
[[Категория: Регрессия]]

Текущая версия на 19:36, 4 сентября 2022

Пример использования ядерного трюка

Ядерный трюк (англ. kernel function) метод в машинном обучении, позволяющий перевести элементы для случая линейной неразделимости в новое линейно разделимое пространство. Такое пространство называют спрямляющим. Поскольку для любой непротиворечивой выборки соответствующее пространство большей размерности существует, главной проблемой становится его найти.

Пример: На первой картинке справа можно увидеть, что 2 класса не разделимы линейно, но после преобразования появляется разделяющая плоскость.


Описание

Определение:
Функция $K(x,x'):X×X\rightarrow \mathbb{R}$ называется ядром (англ. kernel), если она может быть представлена в виде $K(x,x')=\langle \varphi(x),\varphi(x')\rangle_H$ при некотором отображении $\varphi(x):X\rightarrow H$, где $H$ — пространство со скалярным произведением.


Поскольку для задачи линейного разделения объектов не требуется их признаковое описание, а достаточно скаляров, то можно заменить скалярное произведение $\langle x,x'\rangle$ на ядро $K(x,x')$. Более того, можно вообще не строить спрямляющее пространство $H$ в явном виде, и вместо подбора отображения $\varphi$ заниматься непосредственно подбором ядра.

Можно пойти ещё дальше, и вовсе отказаться от признаковых описаний объектов. Во многих практических задачах объекты изначально задаются информацией об их попарном взаимоотношении, например, отношении сходства. Если эта информация допускает представление в виде двуместной функции $K(x,x')$, удовлетворяющей аксиомам скалярного произведения, то задача может решаться методом опорных векторов.

Преимущества и недостатки

Преимущества

  • Обобщение линейных методов на нелинейный случай:

а) с сохранением вычислительной эффективности линейных методов.

б) с сохранением преимуществ линейных методов (локальный оптимум является глобальным, нет локальных оптимумов=>меньше переобучение).

  • Объекты для которых не существует векторных представлений фиксированной длины.
  • Ускоренное вычисление скалярных произведений для высоких значений размерностей.

Недостатки

  • Вычислительно сложно проверять принадлежность функции ядру.
  • Поиск подходящего ядра экспоненциально сложен из-за их большого многообразия.

Характерные случаи применения

  • Признаковое пространство высокой размерности.

Например все полиномы до степени $M$, для случая Гаусовского ядра — признаковое пространство бесконечной размерности.

  • Случай, когда сложно представить объекты векторами фиксированной длины.

Такие, как строки, множества, картинки, тексты, графы, 3D-структуры и т.д.

  • Существование естественного определения скалярного произведения.

Такие, как строки (число совместно встречающихся подстрок) или множества (напр. для множеств $S_1$ и $S_2$ ядром будет являться $K(S_1, S_2) = 2^{|S_1\cap S_2|}$).

  • Скалярное произведение может быть подсчитано эффективно.

Выбор функции ядра

Теорема (Мерсера):
Функция $K(x,y)$ является ядром тогда и только тогда, когда она симметрична: $K(x,y)=K(y,x)$ и неотрицательно определена, то есть $\forall g: X \rightarrow \mathbb{R}, \int_X \int_X K(x, x')g(x)g(x')dxdx' \geqslant 0$

Таким образом мы видим, что класс ядер достаточно широк.

Проверка неотрицательной определённости функции в реальных задачах может быть сложной. Чаще всего ограничиваются перебором конечного числа функций, про которые известно, что они являются ядрами. Среди них выбирается лучшая (обычно по критерию скользящего контроля). Такое решение не будет оптимальным, и на сегодняшний день проблема выбора ядра, оптимального для данной конкретной задачи, остаётся открытой, лучшие из известных на данный момент решений основываются на генетических алгоритмах[1].

Конструктивные способы построения ядер

1. Произвольное скалярное произведение $ K(x,x') =\langle x,x'\rangle $ является ядром.

2. Константа $K(x,x') = 1$ является ядром.

3. Произведение ядер $K(x,x')=K_1(x,x')K_2(x,x')$является ядром.

4. Для любой функции $\psi :X\rightarrow R$ произведение $K(x,x′) =\psi(x)\psi(x')$— ядро.

5. Линейная комбинация ядер с неотрицательными коэффициентами $K(x,x')=\alpha_1K_1(x,x') +\alpha_2K_2(x,x')$является ядром.

6. Композиция произвольной функции $\varphi:X \rightarrow X$ и произвольного ядра $K_0$ является ядром: $K(x,x')=K_0(\varphi(x),\varphi(x'))$.

7. Если $s:X×X\rightarrow R$ произвольная симметричная интегрируемая функция, то $K(x,x′) =\int_Xs(x,z)s(x',z)dz$ является ядром.

8. Функция вида $K(x,x') = k(x−x')$ является ядром тогда и только тогда, когда Фурье-образ $F[k](\omega) = (2\pi)^{\frac{n}{2}}\int_Xe^{−i\langle\omega,x\rangle }k(x)dx$ неотрицателен.

9. Предел локально-равномерно сходящейся последовательности ядер — ядро.

10. Композиция произвольного ядра $K_0$ и произвольной функции $f:R\rightarrow R$, представимой в виде сходящегося степенного ряда с неотрицательными коэффициентами $K(x,x') = f(K_0(x,x'))$, является ядром. В частности, функции $f(z) =e^z$ и $f(z) =\frac{1}{1−z}$ где $z$ — функция ядра — являются ядрами.


Некоторые часто используемые ядра

0. Линейное (англ. linear) $K(x, x')= \langle x, x'\rangle$

Используется в алгоритме SVM по умолчанию.

1. Полиномиальное (англ. polynomial) $K(x, x') = (\langle x, x' \rangle + R)^d$[2]

Используется когда необходимо получить полином $p(y)$, где в качестве $y$ выступает скалярное произведение $\langle x, x' \rangle$. Поскольку в конструктивных возможностях у нас есть умножение ядер, умножение на коэффициент и сложение, то любой многочлен так же является ядром.

2. Гаусово (англ. gaussian) ядро RBF (Radial basis function)[3] $K(x, x') = exp(-\frac{\parallel x - x'\parallel^2}{2\sigma^2})$

Такое ядро соответствует бесконечномерному пространству. Поскольку оно является пределом последовательности полиномиальных ядер при стремлении степени ядра к бесконечности.

3. Сигмоидальное (англ. sigmoid) ядро $tangh (\gamma \langle x, x'\rangle + r)$

В отличие от предыдущих 3-х не является ядром Мерсера (не выполняет условие теоремы), но при этом на практике работает хорошо.

4. Строковое

Строковые ядра [4] это различные ядерные функции для вычисления расстояний между двумя строками.


Использование ядер в коде

В библиотеке языка Python — sklearn.clustering[5], есть функции и классы которые используют ядра для кластеризации, например SVM(Support vector machines).

  • Подключаем библиотеки:
 import svm model
 from sklearn import svm
  • Создаём классификатор svm — Classifier. В данном случае используется линейное ядро. Так же можно использовать 'polynomial' и 'rbf' (см. используемые ядра).
 clf = svm.SVC(kernel='linear')
  • Тренируем модель используя заданные сеты и смотрим на предсказанные ответы:
 clf.fit(X_train, y_train)
 y_pred = clf.predict(X_test)

Кроме того, у этой функции так же присутствует гипперпараметры — регуляризация (англ. regularization), который отвечает за размер штрафа и гамма, которая отвечает за приближенность результирующей функций к датасету. Здесь нужно помнить, что при больших значениях гамма возможно переобучение.

См. также

Примечания

Источники информации

  1. Ядра и спрямляющие пространства p.73-75 — К. В. Воронцов Математические методы обучения по прецедентам
  2. github.com/esokolov/ml-course-msu — Евгений Соколов Ядра и их применение в машинном обучении
  3. wikipedia.org — Ядерный метод
  4. www.machinelearning.ru — Виктор Китов Ядерные методы
  5. datacamp.com — Support Vector Machines with Scikit-learn