Кластеризация — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
([Major] Hierarchical clustering added)
м (rollbackEdits.php mass rollback)
 
(не показаны 32 промежуточные версии 10 участников)
Строка 1: Строка 1:
 +
[[Файл:clusters.png|thumb|300px|Пример кластеризации]]
 
'''Кластеризация''' (англ. ''cluster analysis'') {{---}} задача группировки множества объектов на подмножества ('''кластеры''') таким образом,
 
'''Кластеризация''' (англ. ''cluster analysis'') {{---}} задача группировки множества объектов на подмножества ('''кластеры''') таким образом,
 
чтобы объекты из одного кластера были более похожи друг на друга, чем на объекты из других кластеров по какому-либо критерию.
 
чтобы объекты из одного кластера были более похожи друг на друга, чем на объекты из других кластеров по какому-либо критерию.
  
 
Задача кластеризации относится к классу задач обучения без учителя.
 
Задача кластеризации относится к классу задач обучения без учителя.
 
 
== Постановка задачи кластеризации ==
 
== Постановка задачи кластеризации ==
 
Пусть <tex>X</tex> {{---}} множество объектов, <tex>Y</tex> {{---}} множество идентификаторов (меток) кластеров.
 
Пусть <tex>X</tex> {{---}} множество объектов, <tex>Y</tex> {{---}} множество идентификаторов (меток) кластеров.
Строка 10: Строка 10:
 
Необходимо разбить выборку на подмножества (кластеры), то есть каждому объекту <tex>x_i \in X^m</tex> сопоставить метку <tex>y_i \in Y</tex>,
 
Необходимо разбить выборку на подмножества (кластеры), то есть каждому объекту <tex>x_i \in X^m</tex> сопоставить метку <tex>y_i \in Y</tex>,
 
таким образом чтобы объекты внутри каждого кластера были близки относительно метрики <tex>\rho</tex>, а объекты из разных кластеров значительно различались.
 
таким образом чтобы объекты внутри каждого кластера были близки относительно метрики <tex>\rho</tex>, а объекты из разных кластеров значительно различались.
 
 
{{Определение
 
{{Определение
 
|definition =
 
|definition =
Строка 22: Строка 21:
  
 
Решение задачи кластеризации объективно неоднозначно по ряду причин:
 
Решение задачи кластеризации объективно неоднозначно по ряду причин:
* не существует однозначного критерия качества кластеризации. Известен ряд алгоритмов, осуществляющих разумную кластеризацию "по построению", однако все они могут давать разные результаты. Следовательно, для определения качества кластеризации и оценки выделенных кластеров необходим эксперт предметной области.
+
* Не существует однозначного критерия качества кластеризации. Известен ряд алгоритмов, осуществляющих разумную кластеризацию "по построению", однако все они могут давать разные результаты. Следовательно, для определения качества кластеризации и оценки выделенных кластеров необходим эксперт предметной области;
* число кластеров, как правило, заранее не известно и выбирается по субъективным критериям. Даже если алгоритм не требует изначального знания о числе классов, конкретные реализации зачастую требуют указать этот параметр<ref>[https://scikit-learn.org/0.20/modules/clustering.html scikit-learn {{---}} Clustering]</ref>.
+
* Число кластеров, как правило, заранее не известно и выбирается по субъективным критериям. Даже если алгоритм не требует изначального знания о числе классов, конкретные реализации зачастую требуют указать этот параметр<ref>[https://scikit-learn.org/stable/modules/clustering.html scikit-learn {{---}} Clustering]</ref>;
* результат кластеризации существенно зависит от метрики. Однако существует ряд рекомендаций по выбору для определенных классов задач.
+
* Результат кластеризации существенно зависит от метрики. Однако существует ряд рекомендаций по выбору метрик для определенных классов задач.<ref>Cornwell, B. (2015). Linkage Criteria for Agglomerative Hierarchical Clustering. Social Sequence Analysis, 270–274</ref>.
+
 
 +
Число кластеров фактически является гиперпараметром для алгоритмов кластеризации. Подробнее про другие гиперпараметры и их настройку можно прочитать в статье<ref>Shalamov Viacheslav, Valeria Efimova, Sergey Muravyov, and Andrey Filchenkov. "Reinforcement-based Method for Simultaneous Clustering Algorithm Selection and its Hyperparameters Optimization." Procedia Computer Science 136 (2018): 144-153.</ref>.
 +
 
 +
== Теорема невозможности Клейнберга ==
 +
Для формализации алгоритмов кластеризации была использована аксиоматическая теория. Клейнберг постулировал три простых свойства в качестве аксиом кластеризации и доказал теорему, связывающую эти свойства.
 +
{{Определение
 +
|definition =
 +
Алгоритм кластеризации <tex>a</tex> является '''масштабно инвариантным''' (англ. ''scale-invariant''), если для любой функции расстояния <tex>\rho</tex> и любой константы <tex>\alpha > 0</tex> результаты кластеризации с использованием расстояний <tex>\rho</tex> и <tex>\alpha\cdot\rho</tex> совпадают.
 +
}}
 +
Первая аксиома интуитивно понятна. Она требует, чтобы функция кластеризации не зависела от системы счисления функции расстояния и была нечувствительна к линейному растяжению и сжатию метрического пространства обучающей выборки.
 +
{{Определение
 +
|definition =
 +
'''Полнота''' (англ. ''Richness''). Множество результатов кластеризации алгоритма <tex>a</tex> в зависимости от изменения функции расстояния <tex>\rho</tex> должно совпадать со множеством всех возможных разбиений множества объектов <tex>X</tex>.
 +
}}
 +
Вторая аксиома утверждает, что алгоритм кластеризации должен уметь кластеризовать обучающую выборку на любое фиксированное разбиение для какой-то функции расстояния <tex>\rho</tex>.
 +
{{Определение
 +
|definition =
 +
Функция расстояния <tex>{\rho}'</tex> является '''допустимым преобразованием''' функции расстояния <tex>\rho</tex>, если
 +
#<tex>{\rho}'(x_i, x_j) \leqslant \rho(x_i, x_j)</tex>, если <tex>x_i</tex> и <tex>x_j</tex> лежат в одном кластере;
 +
#<tex>{\rho}'(x_i, x_j) \geqslant \rho(x_i, x_j)</tex>, если <tex>x_i</tex> и <tex>x_j</tex> лежат в разных кластерах.
 +
}}
 +
{{Определение
 +
|definition =
 +
Алгоритм кластеризации является '''согласованным''' (англ. ''consistent''), если результат кластеризации не изменяется после допустимого преобразования функции расстояния.
 +
}}
 +
Третья аксиома требует сохранения кластеров при уменьшении внутрикластерного расстояния и увеличении межкластерного расстояния.
 +
 
 +
{| class="wikitable"
 +
| style="text-align:center; font-weight:bold;" colspan=3|Примеры преобразований с сохранением кластеров
 +
|-
 +
| style="padding:5px;" |[[Файл:cluster_0.png|300px]]
 +
| style="padding:5px;" |[[Файл:clusters_scale_inv.png|300px]]
 +
| style="padding:5px;" |[[Файл:cluster_consist.png|300px]]
 +
|-
 +
| style="text-align:center;width:305px;" | Исходное расположение объектов и их кластеризация
 +
| style="text-align:center;width:305px;" | Пример масштабной инвариантности. Уменьшен масштаб по оси ординат в два раза.
 +
| style="text-align:center;width:305px;" | Пример допустимого преобразования. Каждый объект в два раза приближен к центроиду своего класса. Внутриклассовое расстояние уменьшилось, межклассовое увеличилось.
 +
|}
 +
 
 +
 
 +
Исходя из этих аксиом Клейнберг сформулировал и доказал теорему:
 +
{{Теорема
 +
|author=Клейнберга
 +
|about=о невозможности
 +
|statement=Для множества объектов, состоящего из двух и более элементов, не существует алгоритма кластеризации, который был бы одновременно масштабно-инвариантным, согласованным и полным.
 +
}}
 +
Несмотря на эту теорему Клейнберг показал<ref>[https://www.cs.cornell.edu/home/kleinber/nips15.pdf Kleinberg J. An Impossibility Theorem for Clustering]</ref>,
 +
что иерархическая кластеризация по методу одиночной связи с различными критериями останова удовлетворяет любым двум из трех аксиом.
 +
 
 
== Типология задач кластеризации ==
 
== Типология задач кластеризации ==
 
=== Типы входных данных ===
 
=== Типы входных данных ===
* Признаковое описание объектов. Каждый объект описывается набором своих характеристик, называемых признаками (англ. ''features''). Признаки могут быть как числовыми, так и нечисловыми.
+
* Признаковое описание объектов. Каждый объект описывается набором своих характеристик, называемых признаками (англ. ''features''). Признаки могут быть как числовыми, так и категориальными;
 
* Матрица расстояний между объектами. Каждый объект описывается расстоянием до всех объектов из обучающей выборки.
 
* Матрица расстояний между объектами. Каждый объект описывается расстоянием до всех объектов из обучающей выборки.
  
Строка 35: Строка 82:
  
 
=== Цели кластеризации ===
 
=== Цели кластеризации ===
* Классификация объектов. Попытка понять зависимости между объектами путем выявления их кластерной структуры. Разбиение выборки на группы схожих объектов упрощает дальнейшую обработку данных и принятие решений, позволяет применить к каждому кластеру свой метод анализа (стратегия «разделяй и властвуй»). В данном случае стремятся уменьшить число кластеров для выявления наиболее общих закономерностей.
+
* Классификация объектов. Попытка понять зависимости между объектами путем выявления их кластерной структуры. Разбиение выборки на группы схожих объектов упрощает дальнейшую обработку данных и принятие решений, позволяет применить к каждому кластеру свой метод анализа (стратегия «разделяй и властвуй»). В данном случае стремятся уменьшить число кластеров для выявления наиболее общих закономерностей;
* Сжатие данных. Можно сократить размер исходной выборки, взяв один или несколько наиболее типичных представителей каждого кластера. Здесь важно наиболее точно очертить границы каждого кластера, их количество не является важным критерием.
+
* Сжатие данных. Можно сократить размер исходной выборки, взяв один или несколько наиболее типичных представителей каждого кластера. Здесь важно наиболее точно очертить границы каждого кластера, их количество не является важным критерием;
 
* Обнаружение новизны (обнаружение шума). Выделение объектов, которые не подходят по критериям ни в один кластер. Обнаруженные объекты в дальнейшем обрабатывают отдельно.
 
* Обнаружение новизны (обнаружение шума). Выделение объектов, которые не подходят по критериям ни в один кластер. Обнаруженные объекты в дальнейшем обрабатывают отдельно.
  
 
=== Методы кластеризации ===
 
=== Методы кластеризации ===
* Графовые алгоритмы кластеризации. Наиболее примитивный класс алгоритмов. В настоящее время практически не применяется на практике.
+
* Графовые алгоритмы кластеризации. Наиболее примитивный класс алгоритмов. В настоящее время практически не применяется на практике;
* Вероятностные алгоритмы кластеризации. Каждый объект из обучающей выборки относится к каждому из кластеров с определенной степенью вероятности.
+
* Вероятностные алгоритмы кластеризации. Каждый объект из обучающей выборки относится к каждому из кластеров с определенной степенью вероятности:
** Алгоритм <tex>k-</tex>средних (англ. ''<tex>k-</tex>means'')
+
** [[EM-алгоритм]];
** EM-алгоритм
+
* [[Иерархическая_кластеризация|Иерархические алгоритмы кластеризации]]. Упорядочивание данных путем создания иерархии вложенных кластеров;
* Иерархические алгоритмы кластеризации. Упорядочивание данных путем создания иерархии вложенных кластеров.
+
* [[K-средних|Алгоритм <tex>\mathrm{k}</tex>-средних]]<sup>[на 28.01.19 не создан]</sup> (англ. ''<tex>\mathrm{k}</tex>-means''). Итеративный алгоритм, основанный на минимизации суммарного квадратичного отклонения точек кластеров от центров этих кластеров;
 +
* Распространение похожести (англ. ''affinity propagation''). Распространяет сообщения о похожести между парами объектов для выбора типичных представителей каждого кластера;
 +
* Сдвиг среднего значения (англ. ''mean shift''). Выбирает центроиды кластеров в областях с наибольшей плотностью;
 +
* Спектральная кластеризация (англ. ''spectral clustering''). Использует собственные значения матрицы расстояний для понижения размерности перед использованием других методов кластеризации;
 +
* Основанная на плотности пространственная кластеризация для приложений с шумами (англ. ''Density-based spatial clustering of applications with noise'', ''DBSCAN''). Алгоритм группирует в один кластер точки в области с высокой плотностью. Одиноко расположенные точки помечает как шум.
 +
 
 +
 
 +
[[Файл:cluster_comparison.png|thumb|800px|center|<div style="text-align:center">Сравнение алгоритмов кластеризации из пакета scikit-learn<ref>[https://scikit-learn.org/stable/auto_examples/cluster/plot_cluster_comparison.html scikit-learn {{---}} Comparing different clustering algorithms on toy datasets]</ref></div>]]
 +
 
 +
== Меры качества кластеризации ==
 +
Для оценки качества кластеризации задачу можно переформулировать в терминах задачи дискретной оптимизации.  
 +
Необходимо так сопоставить объектам из множества <tex>X</tex> метки кластеров, чтобы значение выбранного функционала качества приняло наилучшее значение.
 +
В качестве примера, стремятся достичь минимума среднего внутрикластерного расстояния <tex>F_0 = \dfrac{\sum_{i<j}{[y_i=y_j]\cdot\rho(x_i, x_j)}}{\sum_{i<j}[y_i=y_j]}</tex> или максимума среднего межкластерного расстояния <tex>F_1 = \dfrac{\sum_{i<j}{[y_i\neq y_j]\cdot\rho(x_i, x_j)}}{\sum_{i<j}[y_i\neq y_j]}</tex>.
  
== Иерархическая кластеризация ==
+
Подробнее про меры качества можно прочитать в статье [[Оценка_качества_в_задаче_кластеризации|оценка качества в задаче кластеризации]].
{{Определение
+
 
|definition =
+
== Применение ==
'''Иерархическая кластеризация''' (англ. ''hierarchical clustering'') — множество алгоритмов
+
=== Биология и биоинформатика ===
кластеризации, направленных на создание иерархии вложенных разбиений исходного множества объектов.
+
* В области экологии кластеризация используется для выделения пространственных и временных сообществ организмов в однородных условиях;
}}
+
* Кластерный анализ используется для группировки схожих геномных последовательностей в семейство генов, которые являются консервативными структурами для многих организмов и могут выполнять схожие функции;
Иерархические алгоритмы кластеризации часто называют '''алгоритмами таксономии'''.
+
* Кластеризация помогает автоматически определять генотипы по различным частям хромосом;
Для визуального представления результатов кластеризации используется '''дендрограмма''' 
+
* Алгоритмы применяются для выделения небольшого числа групп генетических вариации человеческого генома.
{{---}} дерево, построенное по матрице мер близости между кластерами. В узлах дерева находятся подмножества объектов из обучающей выборки.
+
=== Медицина ===
При этом на каждом ярусе дерева множество объектов из всех узлов составляет исходное множество объектов.
+
* Используется в позитронно-эмиссионной томографии для автоматического выделения различных типов тканей на трехмерном изображении;
Объединение узлов между ярусами соответствует слиянию двух кластеров. При этом длина ребра соответствует расстоянию между кластерами.
+
* Применяется для выявления шаблонов устойчивости к антибиотикам; для классификации антибиотиков по типу антибактериальной активности.
 +
=== Маркетинг ===
 +
Кластеризация широко используется при изучении рынка для обработки данных, полученных из различных опросов.
 +
Может применяться для выделения типичных групп покупателей, разделения рынка для создания персонализированных предложений, разработки новых линий продукции.
 +
=== Интернет ===
 +
* Выделение групп людей на основе графа связей в социальных сетях;
 +
* Повышение релевантности ответов на поисковые запросы путем группировки веб-сайтов по смысловым значениям поискового запроса.
 +
=== Компьютерные науки ===
 +
* Кластеризация используется в сегментации изображений для определения границ и распознавания объектов;
 +
* Кластерный анализ применяется для определения образовавшихся популяционных ниш в ходе работы эволюционных алгоритмов для улучшения параметров эволюции;
 +
* Подбор рекомендаций для пользователя на основе предпочтений других пользователей в данном кластере;
 +
* Определение аномалий путем построения кластеров и выявления неклассифицированных объектов.
 +
 
 +
== Псевдокод некоторых алгоритмов кластеризации ==
 +
=== Метод K-средних (Алгоритм Ллойда) ===
 +
Основная идея заключается в том, что на каждой итерации перевычисляется центр масс для каждого кластера, полученного на предыдущем шаге, затем объекты снова разбиваются на кластеры в соответствии с тем, какой из новых центров оказался ближе по выбранной метрике. Алгоритм завершается, когда на какой-то итерации не происходит изменения внутрикластерного расстояния.
 +
 
 +
Алгоритм минимизирует сумму квадратов внутрикластерных расстояний:
 +
<tex> \sum_{i = 1}^{m} ||x_i - \mu_{a_i}||^2 \: \to \: \min_{ \{a_i\}, \{\mu_a\}}, \: \: ||x_i - \mu_a||^2 = \sum_{j = 1}^{n} (f_j(x_i) - \mu_{a_j})^2</tex>
  
Дерево строится от листьев к корню. В начальный момент времени каждый объект содержится в собственном кластере.
+
На вход алгоритму подаётся выборка <tex>X^m = \{ x_1, \dots, x_m \}</tex> и количество кластеров <tex>K = |Y|</tex>.
Далее происходит итеративный процесс слияния двух ближайших кластеров до тех пор, пока все кластеры не объединятся в один или не будет найдено необходимое число кластеров.
 
На каждом шаге необходимо уметь вычислять расстояние между кластерами и пересчитывать расстояние между новыми кластерами.
 
Расстояние между одноэлементными кластерами определяется через расстояние между объектами: <tex>\mathrm{R}(\{x\}, \{y\}) = \rho(x, y)</tex>.
 
Для вычисления расстояния <tex>\mathrm{R}(U, V)</tex> между кластерами <tex>\mathrm{U}</tex> и <tex>\mathrm{V}</tex> на практике используются различные функции в зависимости от специфики задачи.
 
  
=== Функции расстояния между кластерами ===
+
На выходе получаем центры кластеров <tex>\mu_a</tex> для кластеров <tex>a \in Y</tex>.
* '''Метод одиночной связи''' (англ. ''single linkage'')
 
: <tex>\mathrm{R_{min}}(U, V) = \displaystyle\min_{u \in U, v \in V} \rho(u, v)</tex>
 
* '''Метод полной связи''' (англ. ''complete linkage'')
 
: <tex>\mathrm{R_{max}}(U, V) = \displaystyle\max_{u \in U, v \in V} \rho(u, v)</tex>
 
* '''Метод средней связи''' (англ. ''UPGMA (Unweighted Pair Group Method with Arithmetic mean)'')
 
: <tex>\mathrm{R_{avg}}(U, V) = \displaystyle\dfrac{1}{|U| \cdot |V|}\sum_{u \in U} \sum_{v \in V} \rho(u, v)</tex>
 
* '''Центроидный метод''' (англ. ''UPGMC (Unweighted Pair Group Method with Centroid average)'')
 
: <tex>\mathrm{R_{c}}(U, V) = \displaystyle\rho^2\left(\sum_{u \in U}\dfrac{u}{|U|}, \sum_{v \in V}\dfrac{v}{|V|}\right)</tex>
 
* '''Метод Уорда''' (англ. ''Ward's method'')
 
: <tex>\mathrm{R_{ward}}(U, V) = \displaystyle\dfrac{|U| \cdot |V|}{|U| + |V|}\rho^2\left(\sum_{u \in U}\dfrac{u}{|U|}, \sum_{v \in V}\dfrac{v}{|V|}\right)</tex>
 
  
=== Формула Ланса-Уильямса ===
+
  <tex>\mu_a := init(X^m)</tex>  <font color="gray"># Инициализируем произвольно начальное приближение для центров кластеров <tex>a \in Y</tex></font>. (Можно наиболее удалённые друг от друга объекты выборки)
На каждом шаге необходимо уметь быстро подсчитывать расстояние от образовавшегося кластера <tex>\mathrm{W}=\mathrm{U}\cup\mathrm{V}</tex> до любого другого кластера <tex>\mathrm{S}</tex>, используя известные расстояния с предыдущих шагов.
+
  <tex>A := [ -1 \: | \: for \: x_i \in X^m ]</tex>  <font color="gray"># Инициализируем массив отображений из объектов выборки в их кластеры</font>
Это легко выполняется при использовании формулы, предложенной Лансом и Уильямсом в 1967 году:
+
  <tex>changed := True</tex>
<center><tex>\mathrm{R}(W, S) = \alpha_U \cdot \mathrm{R}(U, S) + \alpha_V \cdot \mathrm{R}(V, S) + \beta \cdot \mathrm{R}(U, V) + \gamma \cdot |\mathrm{R}(U, S) - \mathrm{R}(V, S)| </tex></center>
+
  <font color="blue"><tex>while</tex></font> <tex>changed</tex>:  <font color="gray"># Повторяем пока <tex>A_i</tex> изменяются</font>
, где <tex>\alpha_U, \alpha_V, \beta, \gamma </tex> {{---}} числовые параметры.
+
      <tex>changed := False</tex>
 +
      <font color="blue"><tex>for</tex></font> <tex>x_i \in X^m</tex>:  <font color="gray"># Относим каждый <tex>x_i</tex> к ближайшему центру</font>
 +
          <tex>A_{i, old} := A_i</tex>
 +
          <tex>A_i := arg \min_{a \in Y} ||x_i - \mu_a||</tex>
 +
          <font color="blue"><tex>if</tex></font> <tex>A_i \neq A_{i, old}</tex>:
 +
              <tex>changed := True</tex>
 +
      <font color="blue"><tex>for</tex></font> <tex>a \in Y</tex>:  <font color="gray"># Вычисляем новые положения центров</font>
 +
          <tex>\mu_a := \frac{\sum_{i = 1}^{m}[A_i = a] x_i}{\sum_{i = 1}^{m}[A_i = a]}</tex>
 +
  <font color="blue"><tex>return</tex></font> <tex>\mu_a, \: A</tex> <font color="gray"># Возвращаем центры кластеров и распределение по ним объектов выборки</font>
  
Каждая из указанных выше функций расстояния удовлетворяет формуле Ланса-Уильямса со следующими коэффициентами:
+
=== DBSCAN ===
* '''Метод одиночной связи''' (англ. ''single linkage'')
+
Основная идея метода заключается в том, что алгоритм разделит заданный набор точек в некотором пространстве на группы точек, которые лежат друг от друга на большом расстоянии. Объекты, которые лежат отдельно от скоплений с большой плотностью, будут помечены как шумовые.
: <tex>\alpha_U = \dfrac{1}{2}, \alpha_V = \dfrac{1}{2}, \beta = 0, \gamma = -\dfrac{1}{2}</tex>
 
* '''Метод полной связи''' (англ. ''complete linkage'')
 
: <tex>\alpha_U = \dfrac{1}{2}, \alpha_V = \dfrac{1}{2}, \beta = 0, \gamma = \dfrac{1}{2} </tex>
 
* '''Метод средней связи''' (англ. ''UPGMA (Unweighted Pair Group Method with Arithmetic mean)'')
 
: <tex>\alpha_U = \dfrac{|U|}{|W|}, \alpha_V = \dfrac{|V|}{|W|}, \beta = 0, \gamma = 0 </tex>
 
* '''Центроидный метод''' (англ. ''UPGMC (Unweighted Pair Group Method with Centroid average)'')
 
: <tex>\alpha_U = \dfrac{|U|}{|W|}, \alpha_V = \dfrac{|V|}{|W|}, \beta = -\alpha_U \cdot \alpha_V, \gamma = 0</tex>
 
* '''Метод Уорда''' (англ. ''Ward's method'')
 
: <tex>\alpha_U = \dfrac{|S|+|U|}{|S|+|W|}, \alpha_V = \dfrac{|S|+|V|}{|S|+|W|}, \beta = \dfrac{-|S|}{|S|+|W|}, \gamma = 0 </tex>
 
  
=== Свойство монотонности ===
+
На вход алгоритму подаётся набор точек, параметры <tex>\epsilon</tex> (радиус окружности) и <tex>m</tex> (минимальное число точек в окрестности). Для выполнения кластеризации потребуется поделить точки на четыре вида: основные точки, прямо достижимые, достижимые и шумовые.
Введем обозначение <tex>\mathrm{R_t}</tex> {{---}} расстояние между кластерами, выбранными на шаге <tex>t</tex> для объединения.
+
* Точка является ''основной'', если в окружности с центром в этой точке и радиусом <tex>\epsilon</tex> находится как минимум <tex>m</tex> точек.
 +
* Точка <tex>a</tex> является ''прямо достижимой'' из основной точки <tex>b</tex>, если <tex>a</tex> находится на расстоянии, не большем <tex>{\epsilon}</tex> от точки <tex>b</tex>.
 +
* Точка <tex>a</tex> является ''достижимой'' из <tex>b</tex>, если существует путь <tex>p_1, \dots, p_n</tex> с <tex>p_1 = a</tex> и <tex>p_n = b</tex>, где каждая точка <tex>p_{i+1}</tex> прямо достижима из точки <tex>p_i</tex> .
 +
* Все остальные точки, которые не достижимы из основных точек, считаются ''шумовыми''.
  
Дендрограмма позволяет представлять зависимости между множеством объектов с любым числом заданных характеристик
+
Основная точка вместе со всеми достижимыми из нее точками формирует ''кластер''. В кластер будут входить как основные, так и неосновные точки. Таким образом, каждый кластер содержит по меньшей мере одну основную точку.
на двумерном графике, где по одной из осей откладываются все объекты, а по другой {{---}} расстояние <tex>\mathrm{R_t}</tex>.
 
Если не накладывать на это расстояние никаких ограничений, то дендрограмма будет иметь большое число самопересечений и изображение перестанет быть наглядным.
 
Чтобы любой кластер мог быть представлен в виде непрерывного отрезка на оси объектов и ребра не пересекались,
 
необходимо наложить ограничение монотонности на <tex>\mathrm{R_t}</tex>.
 
  
{{Определение
+
Алгоритм начинается с произвольной точки из набора, которая еще не просматривалась. Для точки ищется <tex>{\epsilon}</tex>-окрестность. Если она не содержит как минимум <tex>m</tex> точек, то помечается как шумовая, иначе образуется кластер <tex>K</tex>, который включает все точки из окрестности. Если точка из окрестности уже является частью другого кластера <tex>C_j</tex>, то все точки данного кластера добавляются в кластер <tex>K</tex>. Затем выбирается и обрабатывается новая, не посещённая ранее точка, что ведёт к обнаружению следующего кластера или шума.
|definition =
 
Функция расстояния <tex>\mathrm{R}</tex> является '''монотонной''', если на каждом следующем шаге расстояние между кластерами не уменьшается:
 
<tex>\mathrm{R_2} \leqslant \mathrm{R_3} \leqslant \dots \leqslant \mathrm{R_m}</tex>
 
}}
 
  
Расстояние является монотонным, если для коэффициентов в формул Ланса-Уильямса верна теорема Миллигана.
+
На выходе получаем разбиение на кластеры и шумовые объекты. Каждый из полученных кластеров <tex>C_j</tex> является непустым множеством точек и удовлетворяет двум условиям:
 +
* Любые две точки в кластере попарно связаны (то есть найдется такая точка в кластере, из которой достижимы обе этих точки).
 +
* Если точка достижима из какой-либо точки кластера, то она принадлежит кластеру.
  
{{Теорема
+
Рассмотрим код:
|author=Миллиган, 1979
 
|statement=Если выполняются следующие три условия, то кластеризация является монотонной:
 
# <tex>\alpha_U \geqslant 0, \alpha_V \geqslant 0 </tex>;
 
# <tex>\alpha_U + \alpha_V + \beta \geqslant 1</tex>;
 
# <tex>\min\{\alpha_U, \alpha_V\} + \gamma \geqslant 0 </tex>.
 
}}
 
  
Из перечисленных выше расстояний теореме удовлетворяют все, кроме центроидного.
+
Пусть для каждого <tex>x \in X^m</tex> имеем посчитанной его <tex>\epsilon</tex>-окрестность <tex>U_{\epsilon}(x) = \{x' \in X^m \: | \: \rho(x, x') \lt \epsilon\}</tex>.
  
=== Определение числа кластеров ===
+
  <tex>U := X^m</tex>  <font color="gray"># Непомеченные объекты</font>
Для определения числа кластеров находится интервал максимальной длины <tex>|\mathrm{R_{t+1}} - \mathrm{R_t}|</tex>.
+
  <tex>A := [ -1 \: | \: for \: x_i \in X^m ]</tex>  <font color="gray"># Инициализируем массив отображений из объектов выборки в их кластеры</font>
В качестве итоговых кластеров выдаются кластеры, полученные на шаге <tex>\mathrm{t}</tex>.
+
  <tex>a := 0</tex>  <font color="gray"># Количество кластеров</font>
При этом число кластеров равно <tex>m - t + 1</tex>.
+
  <font color="blue"><tex>while</tex></font> <tex>U \neq \varnothing</tex>:  <font color="gray"># Пока в выборке есть непомеченные объекты</font>
 +
      <tex>x := rand(U)</tex>  <font color="gray"># Берём случайную непомеченную точку</font>
 +
      <font color="blue"><tex>if</tex></font> <tex>|U_{\epsilon}(x) < m|</tex>:
 +
          <tex>mark[x]</tex> <tex>:=</tex> "<tex>noise</tex>"  <font color="gray"># Пометим <tex>x</tex> как, возможно, шумовой</font>
 +
      <font color="blue"><tex>else</tex></font>:
 +
          <tex>K := U_{\epsilon}(x)</tex>
 +
          <tex>a := a + 1</tex> <font color="gray"># Создадим новый кластер K</font>
 +
          <font color="blue"><tex>for</tex></font> <tex>x' \in K</tex>:
 +
              <font color="blue"><tex>if</tex></font> <tex>x' \in U</tex> || <tex>mark[x']</tex> <tex>==</tex> "<tex>noise</tex>":  <font color="gray"># Если <tex>x'</tex> не помечен или помечен как шумовой</font>
 +
                  <font color="blue"><tex>if</tex></font> <tex>|U_{\epsilon}(x')| \geq m</tex>:
 +
                      <tex>mark[x'] :=</tex> "<tex>interior</tex>"  <font color="gray"># Пометим <tex>x'</tex> как внутренний кластера <tex>K</tex></font>
 +
                      <tex>K := K \cup U_{\epsilon}(x')</tex> <font color="gray"># Добавим вместе с <tex>x'</tex> всю его окрестность</font>
 +
                  <font color="blue"><tex>else</tex></font>:
 +
                      <tex>mark[x'] :=</tex> "<tex>frontier</tex>"  <font color="gray"># Пометим <tex>x'</tex> как граничный кластера <tex>K</tex></font>
 +
          <font color="blue"><tex>for</tex></font> <tex>x_i \in K</tex>:
 +
              <tex>A_i := a</tex>
 +
          <tex>U := U \setminus K</tex>
 +
  <font color="blue"><tex>return</tex></font> <tex>a, \: A, \: mark</tex> <font color="gray"># Возвращаем количество кластеров, распределение по кластерам и метки объектов (внутренние, граничные или шумовые)</font>
  
Однако, когда число кластеров заранее неизвестно и объектов в выборке не очень много, бывает полезно изучить дендрограмму целиком.
+
DBSCAN находит практическое применение во многих реальных задачах, например, в маркетинге: необходимо предложить покупателю релевантный товар, который подойдет под его заказ. Выбрать такой товар можно, если посмотреть на похожие заказы других покупателей {{---}} в таком случае похожие заказы образуют кластер вещей, которые часто берут вместе. Похожим образом с помощью DBSCAN можно исследовать и находить общие интересы людей, делить их на социальные группы, моделировать поведение посетителей сайта. Алгоритм также может использоваться для [[Сегментация изображений|сегментации изображений]].
  
=== Псевдокод ===
+
== Пример кода ==
<font color=darkgreen>// алгоритм принимает множество объектов и возвращает множество кластеров для каждого шага </font>
+
=== Пример на языке R ===
'''function''' hierarchy(X: '''Set<Object>'''): '''Set<Set<Object>>'''
+
{{Main|Примеры кода на R}}
  t = 1
+
Для реализации алгоритма ''k-средних'' используется пакет <code>ClusterR</code>. В нем реализовано 2 функции:  <code>KMeans_arma()</code> и <code>KMeans_rcpp()</code>. В примере далее рассмотрена реализация с использованием функции <code>KMeans_arma()</code>.
  <tex>\mathrm{C_t} = {{x_1}, \dots, {x_m}}</tex>
 
  '''for''' i = 2 '''to''' m
 
      <tex>\langle U, V \rangle = \displaystyle \arg \min_{U \neq V, U \in C_{i-1}, V \in C_{i-1}} R(U, V)</tex>
 
      <tex>\mathrm{R_{t}} = \mathrm{R}(U, V)</tex>
 
      <tex>\mathrm{C_{i}} = \mathrm{C_{i-1}} \cup \{\mathrm{W}\} \setminus \{\mathrm{U}, \mathrm{V}\}</tex>
 
      '''for''' <tex> S </tex> '''in''' <tex> C_t </tex>  
 
          <tex>\mathrm{R_{i}}(W, S) = \alpha_U \cdot \mathrm{R_{i-1}}(U, S) + \alpha_V \cdot \mathrm{R_{i-1}}(V, S) + \beta \cdot \mathrm{R_{i-1}}(U, V) + \gamma \cdot |\mathrm{R_{i-1}}(U, S) - \mathrm{R{i-1}}(V, S)| </tex>
 
  '''return''' <tex> C </tex>
 
  
=== Пример ===
+
  <font color="gray"># importing package and its' dependencies</font>
  <font color=darkgreen># Подключение библиотек</font>
+
  library(ClusterR)
  from scipy.cluster.hierarchy import linkage, dendrogram
+
   
from sklearn import datasets
+
  <font color="gray"># reading data</font>
  import matplotlib.pyplot as plt
+
  data <- read.csv(<font color="green">"data.csv"</font>)
  <tex></tex>
+
   
  <font color=darkgreen># Создание полотна для рисования</font>
+
  <font color="gray"># evaluating model</font>
fig = plt.figure(figsize=(15, 30))
+
  model <- KMeans_arma(data, <font color="#660099">clusters</font> = <font color="blue">2</font>, <font color="#660099">n_iter</font> = <font color="blue">10</font>, <font color="#660099">seed_mode</font> = <font color="green">"random_subset"</font>,
  fig.patch.set_facecolor('white')
+
                      <font color="#660099">verbose</font> = T, <font color="#660099">CENTROIDS</font> = NULL)
  <tex></tex>
+
   
  <font color=darkgreen># Загрузка набора данных "Ирисы Фишера"</font>
+
  <font color="gray"># predicting results</font>
iris = datasets.load_iris()
+
  predictions <- predict_KMeans(test_data, model)
<tex></tex>
 
<font color=darkgreen># Реализация иерархической кластеризации при помощи функции linkage</font>
 
mergings = linkage(iris.data, method='ward')
 
<tex></tex>
 
<font color=darkgreen># Построение дендрограммы. Разными цветами выделены автоматически определенные кластеры</font>
 
R = dendrogram(mergings, labels=[iris.target_names[i] for i in iris.target], orientation = 'left', leaf_font_size = 12)
 
  <tex></tex>
 
  <font color=darkgreen># Отображение дендрограммы</font>
 
  plt.show()
 
  
{| class="wikitable"
 
| style="text-align:center;" colspan = 4 |Дендрограммы кластеризации ирисов Фишера<ref>[https://ru.wikipedia.org/wiki/%D0%98%D1%80%D0%B8%D1%81%D1%8B_%D0%A4%D0%B8%D1%88%D0%B5%D1%80%D0%B0 Википедия {{---}} Ирисы Фишера]</ref> в зависимости от функции расстояния между кластерами
 
|-
 
| style="padding:5px;" |[[Файл:hierarchy_min.png|270px|Расстояние минимума.]]
 
| style="padding:5px;" |[[Файл:hierarchy_max.png|270px|Расстояние максимума.]]
 
| style="padding:5px;" |[[Файл:hierarchy_avg.png|270px|Расстояние среднего.]]
 
| style="padding:5px;" |[[Файл:hierarchy_ward.png|270px|Расстояние Уорда.]]
 
|-
 
| style="text-align:center;" | Метод одиночной связи
 
| style="text-align:center;" | Метод полной связи
 
| style="text-align:center;" | Метод средней связи
 
| style="text-align:center;" | Метод Уорда
 
|}
 
  
Лучше всего с задачей справился алгоритм с использованием расстояния Уорда. Он точно выделил класс ''Iris setosa'' и заметно отделили вид ''Iris virginica'' от ''Iris versicolor''.
+
== См. также ==
 +
* [[Оценка_качества_в_задаче_кластеризации|Оценка качества в задаче кластеризации]]
 +
* [[EM-алгоритм|EM-алгоритм]]
 +
* [[Иерархическая_кластеризация|Иерархическая кластеризация]]
 +
* [[k-средних|<tex>\mathrm{k}</tex>-средних]]<sup>[на 28.01.18 не создан]</sup>
  
 
== Примечания ==
 
== Примечания ==
Строка 187: Строка 231:
 
* [https://en.wikipedia.org/wiki/Cluster_analysis Wikipedia {{---}} Cluster analysis]
 
* [https://en.wikipedia.org/wiki/Cluster_analysis Wikipedia {{---}} Cluster analysis]
 
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F MachineLearning {{---}} Кластеризация]  
 
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F MachineLearning {{---}} Кластеризация]  
* [https://ru.wikipedia.org/wiki/%D0%98%D0%B5%D1%80%D0%B0%D1%80%D1%85%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F Википедия {{---}} Иерархическая кластеризация]
 
* [https://docs.scipy.org/doc/scipy/reference/cluster.hierarchy.html Scipy Documentation {{---}} Hierarchical clustering (scipy.cluster.hierarchy)]
 
 
* [http://www.machinelearning.ru/wiki/images/c/ca/Voron-ML-Clustering.pdf К.В.Воронцов Лекции по алгоритмам кластеризации и многомерного шкалирования]
 
* [http://www.machinelearning.ru/wiki/images/c/ca/Voron-ML-Clustering.pdf К.В.Воронцов Лекции по алгоритмам кластеризации и многомерного шкалирования]
* G. N. Lance, W. T. Williams; A General Theory of Classificatory Sorting Strategies: 1. Hierarchical Systems, The Computer Journal, Volume 9, Issue 4, 1 February 1967, Pages 373–380
+
* [https://www.cs.cornell.edu/home/kleinber/nips15.pdf Kleinberg J. An Impossibility Theorem for Clustering]
  
 
[[Категория: Машинное обучение]]
 
[[Категория: Машинное обучение]]
 +
[[Категория: Кластеризация]]

Текущая версия на 19:11, 4 сентября 2022

Пример кластеризации

Кластеризация (англ. cluster analysis) — задача группировки множества объектов на подмножества (кластеры) таким образом, чтобы объекты из одного кластера были более похожи друг на друга, чем на объекты из других кластеров по какому-либо критерию.

Задача кластеризации относится к классу задач обучения без учителя.

Постановка задачи кластеризации

Пусть [math]X[/math] — множество объектов, [math]Y[/math] — множество идентификаторов (меток) кластеров. На множестве [math]X[/math] задана функция расстояния между объектами [math]\rho(x,x')[/math]. Дана конечная обучающая выборка объектов [math]X^m = \{ x_1, \dots, x_m \} \subset X[/math]. Необходимо разбить выборку на подмножества (кластеры), то есть каждому объекту [math]x_i \in X^m[/math] сопоставить метку [math]y_i \in Y[/math], таким образом чтобы объекты внутри каждого кластера были близки относительно метрики [math]\rho[/math], а объекты из разных кластеров значительно различались.

Определение:
Алгоритм кластеризации — функция [math]a\colon X\to Y[/math], которая любому объекту [math]x\in X[/math] ставит в соответствие идентификатор кластера [math]y\in Y[/math].

Множество [math]Y[/math] в некоторых случаях известно заранее, однако чаще ставится задача определить оптимальное число кластеров, с точки зрения того или иного критерия качества кластеризации.

Кластеризация (обучение без учителя) отличается от классификации (обучения с учителем) тем, что метки объектов из обучающей выборки [math]y_i[/math] изначально не заданы, и даже может быть неизвестно само множество [math]Y[/math].

Решение задачи кластеризации объективно неоднозначно по ряду причин:

  • Не существует однозначного критерия качества кластеризации. Известен ряд алгоритмов, осуществляющих разумную кластеризацию "по построению", однако все они могут давать разные результаты. Следовательно, для определения качества кластеризации и оценки выделенных кластеров необходим эксперт предметной области;
  • Число кластеров, как правило, заранее не известно и выбирается по субъективным критериям. Даже если алгоритм не требует изначального знания о числе классов, конкретные реализации зачастую требуют указать этот параметр[1];
  • Результат кластеризации существенно зависит от метрики. Однако существует ряд рекомендаций по выбору метрик для определенных классов задач.[2].

Число кластеров фактически является гиперпараметром для алгоритмов кластеризации. Подробнее про другие гиперпараметры и их настройку можно прочитать в статье[3].

Теорема невозможности Клейнберга

Для формализации алгоритмов кластеризации была использована аксиоматическая теория. Клейнберг постулировал три простых свойства в качестве аксиом кластеризации и доказал теорему, связывающую эти свойства.

Определение:
Алгоритм кластеризации [math]a[/math] является масштабно инвариантным (англ. scale-invariant), если для любой функции расстояния [math]\rho[/math] и любой константы [math]\alpha \gt 0[/math] результаты кластеризации с использованием расстояний [math]\rho[/math] и [math]\alpha\cdot\rho[/math] совпадают.

Первая аксиома интуитивно понятна. Она требует, чтобы функция кластеризации не зависела от системы счисления функции расстояния и была нечувствительна к линейному растяжению и сжатию метрического пространства обучающей выборки.

Определение:
Полнота (англ. Richness). Множество результатов кластеризации алгоритма [math]a[/math] в зависимости от изменения функции расстояния [math]\rho[/math] должно совпадать со множеством всех возможных разбиений множества объектов [math]X[/math].

Вторая аксиома утверждает, что алгоритм кластеризации должен уметь кластеризовать обучающую выборку на любое фиксированное разбиение для какой-то функции расстояния [math]\rho[/math].

Определение:
Функция расстояния [math]{\rho}'[/math] является допустимым преобразованием функции расстояния [math]\rho[/math], если
  1. [math]{\rho}'(x_i, x_j) \leqslant \rho(x_i, x_j)[/math], если [math]x_i[/math] и [math]x_j[/math] лежат в одном кластере;
  2. [math]{\rho}'(x_i, x_j) \geqslant \rho(x_i, x_j)[/math], если [math]x_i[/math] и [math]x_j[/math] лежат в разных кластерах.


Определение:
Алгоритм кластеризации является согласованным (англ. consistent), если результат кластеризации не изменяется после допустимого преобразования функции расстояния.

Третья аксиома требует сохранения кластеров при уменьшении внутрикластерного расстояния и увеличении межкластерного расстояния.

Примеры преобразований с сохранением кластеров
Cluster 0.png Clusters scale inv.png Cluster consist.png
Исходное расположение объектов и их кластеризация Пример масштабной инвариантности. Уменьшен масштаб по оси ординат в два раза. Пример допустимого преобразования. Каждый объект в два раза приближен к центроиду своего класса. Внутриклассовое расстояние уменьшилось, межклассовое увеличилось.


Исходя из этих аксиом Клейнберг сформулировал и доказал теорему:

Теорема (Клейнберга, о невозможности):
Для множества объектов, состоящего из двух и более элементов, не существует алгоритма кластеризации, который был бы одновременно масштабно-инвариантным, согласованным и полным.

Несмотря на эту теорему Клейнберг показал[4], что иерархическая кластеризация по методу одиночной связи с различными критериями останова удовлетворяет любым двум из трех аксиом.

Типология задач кластеризации

Типы входных данных

  • Признаковое описание объектов. Каждый объект описывается набором своих характеристик, называемых признаками (англ. features). Признаки могут быть как числовыми, так и категориальными;
  • Матрица расстояний между объектами. Каждый объект описывается расстоянием до всех объектов из обучающей выборки.

Вычисление матрицы расстояний по признаковому описанию объектов может быть выполнено бесконечным числом способов в зависимости от определения метрики между объектами. Выбор метрики зависит от обучающей выборки и поставленной задачи.

Цели кластеризации

  • Классификация объектов. Попытка понять зависимости между объектами путем выявления их кластерной структуры. Разбиение выборки на группы схожих объектов упрощает дальнейшую обработку данных и принятие решений, позволяет применить к каждому кластеру свой метод анализа (стратегия «разделяй и властвуй»). В данном случае стремятся уменьшить число кластеров для выявления наиболее общих закономерностей;
  • Сжатие данных. Можно сократить размер исходной выборки, взяв один или несколько наиболее типичных представителей каждого кластера. Здесь важно наиболее точно очертить границы каждого кластера, их количество не является важным критерием;
  • Обнаружение новизны (обнаружение шума). Выделение объектов, которые не подходят по критериям ни в один кластер. Обнаруженные объекты в дальнейшем обрабатывают отдельно.

Методы кластеризации

  • Графовые алгоритмы кластеризации. Наиболее примитивный класс алгоритмов. В настоящее время практически не применяется на практике;
  • Вероятностные алгоритмы кластеризации. Каждый объект из обучающей выборки относится к каждому из кластеров с определенной степенью вероятности:
  • Иерархические алгоритмы кластеризации. Упорядочивание данных путем создания иерархии вложенных кластеров;
  • Алгоритм [math]\mathrm{k}[/math]-средних[на 28.01.19 не создан] (англ. [math]\mathrm{k}[/math]-means). Итеративный алгоритм, основанный на минимизации суммарного квадратичного отклонения точек кластеров от центров этих кластеров;
  • Распространение похожести (англ. affinity propagation). Распространяет сообщения о похожести между парами объектов для выбора типичных представителей каждого кластера;
  • Сдвиг среднего значения (англ. mean shift). Выбирает центроиды кластеров в областях с наибольшей плотностью;
  • Спектральная кластеризация (англ. spectral clustering). Использует собственные значения матрицы расстояний для понижения размерности перед использованием других методов кластеризации;
  • Основанная на плотности пространственная кластеризация для приложений с шумами (англ. Density-based spatial clustering of applications with noise, DBSCAN). Алгоритм группирует в один кластер точки в области с высокой плотностью. Одиноко расположенные точки помечает как шум.


Сравнение алгоритмов кластеризации из пакета scikit-learn[5]

Меры качества кластеризации

Для оценки качества кластеризации задачу можно переформулировать в терминах задачи дискретной оптимизации. Необходимо так сопоставить объектам из множества [math]X[/math] метки кластеров, чтобы значение выбранного функционала качества приняло наилучшее значение. В качестве примера, стремятся достичь минимума среднего внутрикластерного расстояния [math]F_0 = \dfrac{\sum_{i\lt j}{[y_i=y_j]\cdot\rho(x_i, x_j)}}{\sum_{i\lt j}[y_i=y_j]}[/math] или максимума среднего межкластерного расстояния [math]F_1 = \dfrac{\sum_{i\lt j}{[y_i\neq y_j]\cdot\rho(x_i, x_j)}}{\sum_{i\lt j}[y_i\neq y_j]}[/math].

Подробнее про меры качества можно прочитать в статье оценка качества в задаче кластеризации.

Применение

Биология и биоинформатика

  • В области экологии кластеризация используется для выделения пространственных и временных сообществ организмов в однородных условиях;
  • Кластерный анализ используется для группировки схожих геномных последовательностей в семейство генов, которые являются консервативными структурами для многих организмов и могут выполнять схожие функции;
  • Кластеризация помогает автоматически определять генотипы по различным частям хромосом;
  • Алгоритмы применяются для выделения небольшого числа групп генетических вариации человеческого генома.

Медицина

  • Используется в позитронно-эмиссионной томографии для автоматического выделения различных типов тканей на трехмерном изображении;
  • Применяется для выявления шаблонов устойчивости к антибиотикам; для классификации антибиотиков по типу антибактериальной активности.

Маркетинг

Кластеризация широко используется при изучении рынка для обработки данных, полученных из различных опросов. Может применяться для выделения типичных групп покупателей, разделения рынка для создания персонализированных предложений, разработки новых линий продукции.

Интернет

  • Выделение групп людей на основе графа связей в социальных сетях;
  • Повышение релевантности ответов на поисковые запросы путем группировки веб-сайтов по смысловым значениям поискового запроса.

Компьютерные науки

  • Кластеризация используется в сегментации изображений для определения границ и распознавания объектов;
  • Кластерный анализ применяется для определения образовавшихся популяционных ниш в ходе работы эволюционных алгоритмов для улучшения параметров эволюции;
  • Подбор рекомендаций для пользователя на основе предпочтений других пользователей в данном кластере;
  • Определение аномалий путем построения кластеров и выявления неклассифицированных объектов.

Псевдокод некоторых алгоритмов кластеризации

Метод K-средних (Алгоритм Ллойда)

Основная идея заключается в том, что на каждой итерации перевычисляется центр масс для каждого кластера, полученного на предыдущем шаге, затем объекты снова разбиваются на кластеры в соответствии с тем, какой из новых центров оказался ближе по выбранной метрике. Алгоритм завершается, когда на какой-то итерации не происходит изменения внутрикластерного расстояния.

Алгоритм минимизирует сумму квадратов внутрикластерных расстояний: [math] \sum_{i = 1}^{m} ||x_i - \mu_{a_i}||^2 \: \to \: \min_{ \{a_i\}, \{\mu_a\}}, \: \: ||x_i - \mu_a||^2 = \sum_{j = 1}^{n} (f_j(x_i) - \mu_{a_j})^2[/math]

На вход алгоритму подаётся выборка [math]X^m = \{ x_1, \dots, x_m \}[/math] и количество кластеров [math]K = |Y|[/math].

На выходе получаем центры кластеров [math]\mu_a[/math] для кластеров [math]a \in Y[/math].

 [math]\mu_a := init(X^m)[/math]  # Инициализируем произвольно начальное приближение для центров кластеров [math]a \in Y[/math]. (Можно наиболее удалённые друг от друга объекты выборки)
 [math]A := [ -1 \: | \: for \: x_i \in X^m ][/math]  # Инициализируем массив отображений из объектов выборки в их кластеры
 [math]changed := True[/math]
 [math]while[/math] [math]changed[/math]:  # Повторяем пока [math]A_i[/math] изменяются
     [math]changed := False[/math]
     [math]for[/math] [math]x_i \in X^m[/math]:  # Относим каждый [math]x_i[/math] к ближайшему центру
         [math]A_{i, old} := A_i[/math]
         [math]A_i := arg \min_{a \in Y} ||x_i - \mu_a||[/math]
         [math]if[/math] [math]A_i \neq A_{i, old}[/math]:
             [math]changed := True[/math]
     [math]for[/math] [math]a \in Y[/math]:  # Вычисляем новые положения центров
         [math]\mu_a := \frac{\sum_{i = 1}^{m}[A_i = a] x_i}{\sum_{i = 1}^{m}[A_i = a]}[/math]
 [math]return[/math] [math]\mu_a, \: A[/math]  # Возвращаем центры кластеров и распределение по ним объектов выборки

DBSCAN

Основная идея метода заключается в том, что алгоритм разделит заданный набор точек в некотором пространстве на группы точек, которые лежат друг от друга на большом расстоянии. Объекты, которые лежат отдельно от скоплений с большой плотностью, будут помечены как шумовые.

На вход алгоритму подаётся набор точек, параметры [math]\epsilon[/math] (радиус окружности) и [math]m[/math] (минимальное число точек в окрестности). Для выполнения кластеризации потребуется поделить точки на четыре вида: основные точки, прямо достижимые, достижимые и шумовые.

  • Точка является основной, если в окружности с центром в этой точке и радиусом [math]\epsilon[/math] находится как минимум [math]m[/math] точек.
  • Точка [math]a[/math] является прямо достижимой из основной точки [math]b[/math], если [math]a[/math] находится на расстоянии, не большем [math]{\epsilon}[/math] от точки [math]b[/math].
  • Точка [math]a[/math] является достижимой из [math]b[/math], если существует путь [math]p_1, \dots, p_n[/math] с [math]p_1 = a[/math] и [math]p_n = b[/math], где каждая точка [math]p_{i+1}[/math] прямо достижима из точки [math]p_i[/math] .
  • Все остальные точки, которые не достижимы из основных точек, считаются шумовыми.

Основная точка вместе со всеми достижимыми из нее точками формирует кластер. В кластер будут входить как основные, так и неосновные точки. Таким образом, каждый кластер содержит по меньшей мере одну основную точку.

Алгоритм начинается с произвольной точки из набора, которая еще не просматривалась. Для точки ищется [math]{\epsilon}[/math]-окрестность. Если она не содержит как минимум [math]m[/math] точек, то помечается как шумовая, иначе образуется кластер [math]K[/math], который включает все точки из окрестности. Если точка из окрестности уже является частью другого кластера [math]C_j[/math], то все точки данного кластера добавляются в кластер [math]K[/math]. Затем выбирается и обрабатывается новая, не посещённая ранее точка, что ведёт к обнаружению следующего кластера или шума.

На выходе получаем разбиение на кластеры и шумовые объекты. Каждый из полученных кластеров [math]C_j[/math] является непустым множеством точек и удовлетворяет двум условиям:

  • Любые две точки в кластере попарно связаны (то есть найдется такая точка в кластере, из которой достижимы обе этих точки).
  • Если точка достижима из какой-либо точки кластера, то она принадлежит кластеру.

Рассмотрим код:

Пусть для каждого [math]x \in X^m[/math] имеем посчитанной его [math]\epsilon[/math]-окрестность [math]U_{\epsilon}(x) = \{x' \in X^m \: | \: \rho(x, x') \lt \epsilon\}[/math].

 [math]U := X^m[/math]  # Непомеченные объекты
 [math]A := [ -1 \: | \: for \: x_i \in X^m ][/math]  # Инициализируем массив отображений из объектов выборки в их кластеры
 [math]a := 0[/math]  # Количество кластеров
 [math]while[/math] [math]U \neq \varnothing[/math]:  # Пока в выборке есть непомеченные объекты
     [math]x := rand(U)[/math]  # Берём случайную непомеченную точку
     [math]if[/math] [math]|U_{\epsilon}(x) \lt  m|[/math]:
         [math]mark[x][/math] [math]:=[/math] "[math]noise[/math]"  # Пометим [math]x[/math] как, возможно, шумовой
     [math]else[/math]:
         [math]K := U_{\epsilon}(x)[/math]
         [math]a := a + 1[/math] # Создадим новый кластер K
         [math]for[/math] [math]x' \in K[/math]:
             [math]if[/math] [math]x' \in U[/math] || [math]mark[x'][/math] [math]==[/math] "[math]noise[/math]":  # Если [math]x'[/math] не помечен или помечен как шумовой
                 [math]if[/math] [math]|U_{\epsilon}(x')| \geq m[/math]:
                     [math]mark[x'] :=[/math] "[math]interior[/math]"  # Пометим [math]x'[/math] как внутренний кластера [math]K[/math]
                     [math]K := K \cup U_{\epsilon}(x')[/math]  # Добавим вместе с [math]x'[/math] всю его окрестность
                 [math]else[/math]:
                     [math]mark[x'] :=[/math] "[math]frontier[/math]"  # Пометим [math]x'[/math] как граничный кластера [math]K[/math]
         [math]for[/math] [math]x_i \in K[/math]:
             [math]A_i := a[/math]
         [math]U := U \setminus K[/math] 
 [math]return[/math] [math]a, \: A, \: mark[/math]  # Возвращаем количество кластеров, распределение по кластерам и метки объектов (внутренние, граничные или шумовые)

DBSCAN находит практическое применение во многих реальных задачах, например, в маркетинге: необходимо предложить покупателю релевантный товар, который подойдет под его заказ. Выбрать такой товар можно, если посмотреть на похожие заказы других покупателей — в таком случае похожие заказы образуют кластер вещей, которые часто берут вместе. Похожим образом с помощью DBSCAN можно исследовать и находить общие интересы людей, делить их на социальные группы, моделировать поведение посетителей сайта. Алгоритм также может использоваться для сегментации изображений.

Пример кода

Пример на языке R

Основная статья: Примеры кода на R

Для реализации алгоритма k-средних используется пакет ClusterR. В нем реализовано 2 функции: KMeans_arma() и KMeans_rcpp(). В примере далее рассмотрена реализация с использованием функции KMeans_arma().

# importing package and its' dependencies
library(ClusterR)

# reading data
data <- read.csv("data.csv")

# evaluating model
model <- KMeans_arma(data, clusters = 2, n_iter = 10, seed_mode = "random_subset", 
                     verbose = T, CENTROIDS = NULL)

# predicting results
predictions <- predict_KMeans(test_data, model)


См. также

Примечания

  1. scikit-learn — Clustering
  2. Cornwell, B. (2015). Linkage Criteria for Agglomerative Hierarchical Clustering. Social Sequence Analysis, 270–274
  3. Shalamov Viacheslav, Valeria Efimova, Sergey Muravyov, and Andrey Filchenkov. "Reinforcement-based Method for Simultaneous Clustering Algorithm Selection and its Hyperparameters Optimization." Procedia Computer Science 136 (2018): 144-153.
  4. Kleinberg J. An Impossibility Theorem for Clustering
  5. scikit-learn — Comparing different clustering algorithms on toy datasets

Источники информации