Поиск ближайших соседей с помощью иерархического маленького мира — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Операции над структурой)
 
(не показано 9 промежуточных версий 3 участников)
Строка 1: Строка 1:
'''Иерархический маленький мир''' (англ. ''Hierarchical Navigable Small World''<ref>[https://arxiv.org/abs/1603.09320 Yu. A. Malkov, D. A. Yashunin {{---}} Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs]</ref>) {{---}} структура данных, позволяющая эффективно искать k почти что ближайших соседей. <br/>
+
'''Иерархический маленький мир''' (англ. ''Hierarchical Navigable Small World'') {{---}} структура данных, позволяющая эффективно искать <tex>k</tex> почти что ближайших соседей на больших множествах вершин.
По своей концепции напоминает [[список с пропусками]]. <br/>
+
Поиск ближайших соседей нужен в задачах [[Общие понятия|классификации]] и [[кластеризация|кластеризации]].
+
 
* Структура состоит из N слоёв с экспоненциально убвающим количеством вершин на них; все вершины из слоя i+1 так же присутствуют и в слое i.
+
По своей концепции напоминает [[список с пропусками]].
* На вершинах каждого слоя построен граф почти что ближайших соседей. Таким образом, на каждом cледующем уровне длина рёбер экспоненциально растёт.
 
  
 
== Применение ==
 
== Применение ==
Представим себе ситуацию: <br/>
+
Представим себе ситуацию:
* У социальной сети есть 10&sup1;&sup1; пользовательских фотографий с отмеченными лицами на них.
+
* У социальной сети есть <tex>10^{11}</tex> пользовательских фотографий с отмеченными лицами на них.
* По новой фотографии требуется быстро узнать кто на ней и предложить пользователю отметить этого человека.<br/>
+
* По новой фотографии требуется быстро узнать кто на ней и предложить пользователю отметить этого человека.
<br/>
+
 
 
Возможный процесс:
 
Возможный процесс:
# Обучаем FaceNet<ref>[https://github.com/davidsandberg/facenet FaceNet]</ref> выдавать 128-мерные вектора по изображению лица, т.ч. у фотографий одного человека похожие значения векторов.
+
# Обучаем [https://github.com/davidsandberg/facenet FaceNet] выдавать <tex>128</tex>-мерные вектора по изображению лица, такие, что у фотографий одного человека похожие значения векторов.
# Добавляем 10&sup1;&sup1; векторов в иерархический маленький мир.
+
# Добавляем <tex>10^{11}</tex> векторов в иерархический маленький мир.
 
# При добавлении новой фотографии, вычисляем соответствующий лицу вектор.
 
# При добавлении новой фотографии, вычисляем соответствующий лицу вектор.
# Ищем k его ближайших соседей.
+
# Ищем <tex>k</tex> его ближайших соседей.
 
# Классифицируем лицо с использованием [[Метрический классификатор и метод ближайших соседей#Использование ядер сглаживания|ядер сглаживания]].
 
# Классифицируем лицо с использованием [[Метрический классификатор и метод ближайших соседей#Использование ядер сглаживания|ядер сглаживания]].
 
# Если пользователь подтвердил нашу догадку, добавляем этот вектор в иерархический маленький мир.
 
# Если пользователь подтвердил нашу догадку, добавляем этот вектор в иерархический маленький мир.
Строка 20: Строка 19:
 
==Маленький мир==
 
==Маленький мир==
 
[[Файл:SmallWorld_Greedy.png|мини|500px|Жадный поиск ближайшего соседа.  
 
[[Файл:SmallWorld_Greedy.png|мини|500px|Жадный поиск ближайшего соседа.  
Чёрные ребра {{---}} короткие связи с ближайшими соседями, красные рёбра {{---}} длинные связи, обеспечивающие малое мат. ожидание длины пути.
+
Чёрные ребра {{---}} короткие связи с соседями в небольшом радиусе <tex>R</tex>, красные рёбра {{---}} длинные связи, созданные по какой-то эвристике, обеспечивающие логарифмическое мат. ожидание длины пути.
 
[https://www.hse.ru/mirror/pubs/lib/data/access/ram/ticket/30/1551306415713d428dca7fd05f3d108fe8e66042c4/Approximate%20nearest%20neighbor%20algorithm%20based%20on%20navigable%20(Information%20Systems).pdf Оригинал]]]
 
[https://www.hse.ru/mirror/pubs/lib/data/access/ram/ticket/30/1551306415713d428dca7fd05f3d108fe8e66042c4/Approximate%20nearest%20neighbor%20algorithm%20based%20on%20navigable%20(Information%20Systems).pdf Оригинал]]]
'''Маленький мир'''<ref>[https://ru.wikipedia.org/wiki/%D0%9C%D0%B8%D1%80_%D1%82%D0%B5%D1%81%D0%B5%D0%BD_(%D0%B3%D1%80%D0%B0%D1%84) Статья о маленьком мире на википедии]</ref> (англ. ''Small World''<ref>[https://en.wikipedia.org/wiki/Small-world_network Статья о маленьком мире на английской википедии]</ref>) {{---}} граф, в котором мат. ожидание кратчайшего пути между двумя случайно выбранными вершинами растёт пропорционально <tex>\log{N}</tex>. Но при этом средняя степень вершины мала.
+
'''Маленький мир''' (англ. ''Small World'') {{---}} граф, в котором мат. ожидание кратчайшего пути между двумя случайно выбранными вершинами растёт пропорционально <tex>\log{N}</tex>. Но при этом средняя степень вершины мала.
  
Для маленького мира на точках в Евклидовом пространстве жадный поиск k ближайших соседей будет выглядеть так:
+
Для маленького мира на точках в Евклидовом пространстве жадный поиск <tex>k</tex> ближайших соседей будет выглядеть так:
 
  '''knn'''(V, E, request, m, k)''':'''
 
  '''knn'''(V, E, request, m, k)''':'''
 
     W = <tex>\emptyset</tex>  <font color="green">// Ближайшие к q вершины. </font>
 
     W = <tex>\emptyset</tex>  <font color="green">// Ближайшие к q вершины. </font>
Строка 46: Строка 45:
  
 
Расстояние между вершинами графа может измеряться [[Метрический классификатор и метод ближайших соседей#Использование различных метрик расстояния|различными метриками]]. <br/>
 
Расстояние между вершинами графа может измеряться [[Метрический классификатор и метод ближайших соседей#Использование различных метрик расстояния|различными метриками]]. <br/>
Очевидный недостаток этого алгоритма {{---}} опасность свалиться в локальный минимум, остановившись в каком-то кластере. С увеличением числа m, вероятность такого застревания экспоненциально падает.
+
Очевидный недостаток этого алгоритма {{---}} опасность свалиться в локальный минимум, остановившись в каком-то кластере. С увеличением числа <tex>m</tex>, вероятность такого застревания экспоненциально падает.
  
 
==Описание структуры==
 
==Описание структуры==
'''Иерархический Маленький мир''' {{---}} слоистая структура графов. На нулевом слое представлены все '''N''' вершин из исходной выборки. Вершина, присутствующая на уровне '''L''' так же присутствует на уровне '''L + 1''' с вероятностью '''P'''. Т.е. кол-во слоёв растет как <tex>O(\log N)</tex>. Количество соседей каждой вершины на каждом уровне ограниченно константой, что позволяет делать запросы на добавление и удаление вершины за <tex>O(\log N)</tex>.
+
'''Иерархический Маленький мир''' {{---}} слоистая структура графов. На нулевом слое представлены все <tex>N</tex> вершин из исходной выборки. Вершина, присутствующая на уровне <tex>L</tex> так же присутствует на уровне <tex>L + 1</tex> с вероятностью <tex>P</tex>. Т.е. кол-во слоёв растет как <tex>O(\log N)</tex>. Количество соседей каждой вершины на каждом уровне ограниченно константой, что позволяет делать запросы на добавление и удаление вершины за <tex>O(\log N)</tex>.
 
{|align="center"
 
{|align="center"
 
  |-valign="top"
 
  |-valign="top"
Строка 62: Строка 61:
 
     <font color="green">// Входные данные: иерархия графов hnsw, запрос q, входные точки ep, искомое количество ближайших соседей ef, номер слоя layer.</font>
 
     <font color="green">// Входные данные: иерархия графов hnsw, запрос q, входные точки ep, искомое количество ближайших соседей ef, номер слоя layer.</font>
 
     <font color="green">// Возвращает: ef ближайших соседей q в слое layer.</font>
 
     <font color="green">// Возвращает: ef ближайших соседей q в слое layer.</font>
     W = <tex>\emptyset</tex> <font color="green">// Ближайшие к q вершины. </font>
+
     W = {ep} <font color="green">// Ближайшие к q вершины. </font>
     C = <tex>\emptyset</tex> <font color="green">// Вершины, которые предстоит посетить. </font>
+
     C = {ep} <font color="green">// Вершины, которые предстоит посетить. </font>
     V = <tex>\emptyset</tex> <font color="green">// Посещённые вершины. </font>
+
     V = {ep} <font color="green">// Посещённые вершины. </font>
 
     '''while''' C != <tex>\emptyset</tex>
 
     '''while''' C != <tex>\emptyset</tex>
 
         u = {q1 | <tex>\forall</tex> q2 <tex>\in</tex> C, |q - q1| <= |q - q2|} <font color="green">// Ближайшая к q вершина из C. </font>
 
         u = {q1 | <tex>\forall</tex> q2 <tex>\in</tex> C, |q - q1| <= |q - q2|} <font color="green">// Ближайшая к q вершина из C. </font>
Строка 85: Строка 84:
 
[https://arxiv.org/abs/1603.09320 Оригинал]]]
 
[https://arxiv.org/abs/1603.09320 Оригинал]]]
 
# Идём с верхнего уровня до первого:
 
# Идём с верхнего уровня до первого:
## Жадно ищем ближайшую к '''q''' вершину на текущем уровне.
+
## Жадно ищем ближайшую к <tex>q</tex> вершину на текущем уровне.
 
## Спускаемся в соответствующую соседу вершине на уровень ниже.
 
## Спускаемся в соответствующую соседу вершине на уровень ниже.
# На нулевом уровне жадно ищем '''k''' ближайших соседей.
+
# На нулевом уровне жадно ищем <tex>k</tex> ближайших соседей.
 
  '''knn'''(hnsw, q, k, ef)''':'''
 
  '''knn'''(hnsw, q, k, ef)''':'''
 
     <font color="green">// Входные данные: иерархия графов hnsw, запрос q, искомое количество ближайших соседей  k, количество кандидатов при поиске ef. </font>
 
     <font color="green">// Входные данные: иерархия графов hnsw, запрос q, искомое количество ближайших соседей  k, количество кандидатов при поиске ef. </font>
Строка 101: Строка 100:
  
 
===Вставка элемента===
 
===Вставка элемента===
# Случайным образом выбираем максимальный слой, на котором будет представлена '''q'''.
+
# Случайным образом выбираем максимальный слой, на котором будет представлена <tex>q</tex>.
# На каждом уровне, где будет представлена '''q''', сверху вниз:
+
# На каждом уровне, где будет представлена <tex>q</tex>, сверху вниз:
## Жадно ищем '''m''' ближайших к '''q''' вершин.
+
## Жадно ищем <tex>m</tex> ближайших к <tex>q</tex> вершин.
## Добавляем связи '''q''' с ними.
+
## Добавляем связи <tex>q</tex> с ними.
 
## Удаляем лишние связи у новообразовавшихся соседей.
 
## Удаляем лишние связи у новообразовавшихся соседей.
 
  '''insert'''(hnsw, q, m, mMax, ef, mL)''':'''
 
  '''insert'''(hnsw, q, m, mMax, ef, mL)''':'''
Строка 138: Строка 137:
  
 
== Практическое использование ==
 
== Практическое использование ==
В библиотеке Hnswlib<ref>[https://github.com/nmslib/hnswlib Hnswlib]</ref> есть реализация иерархического маленького мира. Эта библиотека написана на C++, с биндингами на python. <br/>
+
В библиотеке [https://github.com/nmslib/hnswlib Hnswlib] есть реализация иерархического маленького мира. Эта библиотека написана на C++, с биндингами на python.
 
Пример использования:
 
Пример использования:
  import hnswlib
+
  '''import''' hnswlib
  import numpy as np
+
  '''import''' numpy '''as''' np
 
   
 
   
 
  dim = 128
 
  dim = 128
 
  num_elements = 10000
 
  num_elements = 10000
 
   
 
   
  # Создаём тестовые данные.
+
  <font color="green"># Создаём тестовые данные.</font>
 
  data = np.float32(np.random.random((num_elements, dim)))
 
  data = np.float32(np.random.random((num_elements, dim)))
 
  data_labels = np.arange(num_elements)
 
  data_labels = np.arange(num_elements)
 
   
 
   
  # Создаём иерархический маленький мир в L2.
+
  <font color="green"># Создаём иерархический маленький мир в L2.</font>
  # Возможные метрики {{---}} l2, cosine, ip (L2, косинус угла между векторами, скалярное произведение).
+
  <font color="green"># Возможные метрики {{---}} l2, cosine, ip (L2, косинус угла между векторами, скалярное произведение).</font>
 
  p = hnswlib.Index(space = 'l2', dim = dim)
 
  p = hnswlib.Index(space = 'l2', dim = dim)
 
   
 
   
  # Инициализируем структуру.
+
  <font color="green"># Инициализируем структуру.</font>
 
  p.init_index(max_elements = num_elements, ef_construction = 200, M = 16)
 
  p.init_index(max_elements = num_elements, ef_construction = 200, M = 16)
 
   
 
   
  # Добавляем данные (можно вызывать много раз).
+
  <font color="green"># Добавляем данные (можно вызывать много раз).</font>
 
  p.add_items(data, data_labels)
 
  p.add_items(data, data_labels)
 
   
 
   
  # Настраиваем качество, выставляя ef:
+
  <font color="green"># Настраиваем качество, выставляя ef:</font>
  p.set_ef(50) # ef должно быть > k
+
  p.set_ef(50) <font color="green"># ef должно быть > k</font>
 
   
 
   
  # Делаем запрос.
+
  <font color="green"># Делаем запрос.</font>
  # k - количество ближайших вершин
+
  <font color="green"># k - количество ближайших вершин</font>
 
  labels, distances = p.knn_query(data, k = 1)
 
  labels, distances = p.knn_query(data, k = 1)
  
 
== См. также ==
 
== См. также ==
[[Метрический классификатор и метод ближайших соседей]]<br />
+
* [[Общие понятия]]
[[Список с пропусками]]<br />
+
* [[Метрический классификатор и метод ближайших соседей]]
 +
* [[Список с пропусками]]
  
== Примечания ==
+
== Источники информации ==
[https://github.com/sgjurano/ysda-celebrity-faces Поиск знаменитостей на фотографии с помощью иерархического маленького мира]
+
* [https://arxiv.org/abs/1603.09320 Yu. A. Malkov, D. A. Yashunin {{---}} Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs]
 +
* [https://ru.wikipedia.org/wiki/%D0%9C%D0%B8%D1%80_%D1%82%D0%B5%D1%81%D0%B5%D0%BD_(%D0%B3%D1%80%D0%B0%D1%84) Википедия {{---}} Мир тесен (граф)]
 +
* [https://en.wikipedia.org/wiki/Small-world_network Wikipedia {{---}} Small-world network]
 +
* [https://github.com/sgjurano/ysda-celebrity-faces Поиск знаменитостей на фотографии с помощью иерархического маленького мира]
 +
* [https://m.habr.com/ru/company/mailru/blog/338360/ Статья от Mail.ru об использовании иерархического маленького мира]
  
== Источники информации ==
 
 
[[Категория: Машинное обучение]]
 
[[Категория: Машинное обучение]]

Текущая версия на 17:45, 24 марта 2020

Иерархический маленький мир (англ. Hierarchical Navigable Small World) — структура данных, позволяющая эффективно искать [math]k[/math] почти что ближайших соседей на больших множествах вершин. Поиск ближайших соседей нужен в задачах классификации и кластеризации.

По своей концепции напоминает список с пропусками.

Применение[править]

Представим себе ситуацию:

  • У социальной сети есть [math]10^{11}[/math] пользовательских фотографий с отмеченными лицами на них.
  • По новой фотографии требуется быстро узнать кто на ней и предложить пользователю отметить этого человека.

Возможный процесс:

  1. Обучаем FaceNet выдавать [math]128[/math]-мерные вектора по изображению лица, такие, что у фотографий одного человека похожие значения векторов.
  2. Добавляем [math]10^{11}[/math] векторов в иерархический маленький мир.
  3. При добавлении новой фотографии, вычисляем соответствующий лицу вектор.
  4. Ищем [math]k[/math] его ближайших соседей.
  5. Классифицируем лицо с использованием ядер сглаживания.
  6. Если пользователь подтвердил нашу догадку, добавляем этот вектор в иерархический маленький мир.

Маленький мир[править]

Жадный поиск ближайшего соседа. Чёрные ребра — короткие связи с соседями в небольшом радиусе [math]R[/math], красные рёбра — длинные связи, созданные по какой-то эвристике, обеспечивающие логарифмическое мат. ожидание длины пути. Оригинал

Маленький мир (англ. Small World) — граф, в котором мат. ожидание кратчайшего пути между двумя случайно выбранными вершинами растёт пропорционально [math]\log{N}[/math]. Но при этом средняя степень вершины мала.

Для маленького мира на точках в Евклидовом пространстве жадный поиск [math]k[/math] ближайших соседей будет выглядеть так:

knn(V, E, request, m, k):
    W = [math]\emptyset[/math]  // Ближайшие к q вершины. 
    C = [math]\emptyset[/math]  // Вершины, которые предстоит посетить. 
    V = [math]\emptyset[/math]  // Посещённые вершины. 
    for i = 1 to m
        C = С [math]\bigcup[/math] [math]random_v[/math] v [math]\in[/math] G
        TN = [math]\emptyset[/math]  // Ближайшие вершины в этом проходе.
        while true
            u = {q1 | [math]\forall[/math] q2 [math]\in[/math] C, |q - q1| <= |q - q2|} // Ближайшая к q вершина из C. 
            C = C [math]\setminus[/math] u
            if u дальше чем k-й элемент W
                break
            for e: (u, e) in G
                if e [math]{\notin}[/math] V
                    C = C [math]\bigcup[/math] e
                    V = V [math]\bigcup[/math] e
                    TN = TN [math]\bigcup[/math] e
        W = W [math]\bigcup[/math] TN
    return k ближайших к q вершин из W

Расстояние между вершинами графа может измеряться различными метриками.
Очевидный недостаток этого алгоритма — опасность свалиться в локальный минимум, остановившись в каком-то кластере. С увеличением числа [math]m[/math], вероятность такого застревания экспоненциально падает.

Описание структуры[править]

Иерархический Маленький мир — слоистая структура графов. На нулевом слое представлены все [math]N[/math] вершин из исходной выборки. Вершина, присутствующая на уровне [math]L[/math] так же присутствует на уровне [math]L + 1[/math] с вероятностью [math]P[/math]. Т.е. кол-во слоёв растет как [math]O(\log N)[/math]. Количество соседей каждой вершины на каждом уровне ограниченно константой, что позволяет делать запросы на добавление и удаление вершины за [math]O(\log N)[/math].

Иерархический маленький мир. Источник

Операции над структурой[править]

Поиск ближайших соседей в слое[править]

Жадно идём по уровню в сторону запроса.

searchLayer(q, ep, ef, layer):
    // Входные данные: иерархия графов hnsw, запрос q, входные точки ep, искомое количество ближайших соседей ef, номер слоя layer.
    // Возвращает: ef ближайших соседей q в слое layer.
    W = {ep}  // Ближайшие к q вершины. 
    C = {ep}  // Вершины, которые предстоит посетить. 
    V = {ep}  // Посещённые вершины. 
    while C != [math]\emptyset[/math]
        u = {q1 | [math]\forall[/math] q2 [math]\in[/math] C, |q - q1| <= |q - q2|} // Ближайшая к q вершина из C. 
        f = {q1 | [math]\forall[/math] q2 [math]\in[/math] W, |q - q1| >= |q - q2|} // Самая дальняя от q вершина из W. 
        if |u - q| > |f - q|
            break // Мы в локальном минимуме. 
        for e : (u, e) in G
            if e [math]{\notin}[/math] V
                V = V [math]\bigcup[/math] e
                f = {q1 | [math]\forall[/math] q2 [math]\in[/math] W, |q - q1| >= |q - q2|} // Самая дальняя от q вершина из W. 
                if |e - q| < |f - q| or |W| < ef
                    C = C [math]\bigcup[/math] e
                    W = W [math]\bigcup[/math] e
                    if |W| > ef
                        W = W \ f
    return W

Поиск ближайших соседей во всей структуре[править]

Жадный поиск вершины. Оригинал
  1. Идём с верхнего уровня до первого:
    1. Жадно ищем ближайшую к [math]q[/math] вершину на текущем уровне.
    2. Спускаемся в соответствующую соседу вершине на уровень ниже.
  2. На нулевом уровне жадно ищем [math]k[/math] ближайших соседей.
knn(hnsw, q, k, ef):
    // Входные данные: иерархия графов hnsw, запрос q, искомое количество ближайших соседей  k, количество кандидатов при поиске ef. 
    // Возвращает: k ближайших соседей q. 
    W = [math]\emptyset[/math]  // Ближайшие к q вершины. 
    mL = |hnsw| - 1
    ep = [math]random_v[/math] v [math]\in[/math] hnsw[mL]
    for level = mL to 1
        W = searchLayer(hnsw, q, ep, ef=1, level) // На каждом уровне, кроме нижнего мы ищем всего одну ближайшую вершину. 
        ep = W
    W = searchLayer(hnsw, q, ep, ef, lc=0)
    return k ближайших к q вершин из W

Вставка элемента[править]

  1. Случайным образом выбираем максимальный слой, на котором будет представлена [math]q[/math].
  2. На каждом уровне, где будет представлена [math]q[/math], сверху вниз:
    1. Жадно ищем [math]m[/math] ближайших к [math]q[/math] вершин.
    2. Добавляем связи [math]q[/math] с ними.
    3. Удаляем лишние связи у новообразовавшихся соседей.
insert(hnsw, q, m, mMax, ef, mL):
    // Входные данные: иерархия графов hnsw, запрос на добавление q, желаемое количество связей m, максимальное количество связей вершины 
    //       на одном слое mMax, количество кандидатов при поиске ef, коэффициент выбора высоты mL. 
    // Возвращает: hnsw с вставленным элементом q. 
    W = [math]\emptyset[/math]  // Ближайшие к q вершины. 
    mL = |hnsw| - 1
    ep = [math]random_v[/math] v [math]\in[/math] hnsw[mL]
    qL = -ln(rand(eps, 1.0)) * mL // Верхний слой для вершины q. 
    for level = mL to qL + 1
        W = searchLayer(q, ep, ef=1, level)
        ep = W
    for level = min(mL, qL) to 0
        W = searchLayer(q, ep, ef, level)
        neighbours = M ближайших к q вершин из W
        for n [math]\in[/math] neighbours:
            // Добавляем двусторонние связи между n и q. 
            hnsw[level] = hnsw[level] [math]\bigcup[/math] (n, q)
            hnsw[level] = hnsw[level] [math]\bigcup[/math] (q, n)
            
            nNeighbours = {v| (v, n) in hnsw[level]} // Ищем всех соседей n на уровне level. 
            // Убираем лишние связи, если требуется. 
            if nNeighbours.Count() > mMax
                // Самая дальняя от n вершина, смежняя с ней. 
                v = {q1 | (q2, n) [math]\in[/math] nNeighbours & [math]\forall[/math]q2 [math]\in[/math] hnsw[level], |q - q1| >= |q - q2|}
                hnsw[level] = hnsw[level] [math]\setminus[/math] (n, v)
                hnsw[level] = hnsw[level] [math]\setminus[/math] (v, n)
        ep = W
    if qL > mL
        for level = mL to qL
            hnsw.append({q, {}})

Практическое использование[править]

В библиотеке Hnswlib есть реализация иерархического маленького мира. Эта библиотека написана на C++, с биндингами на python. Пример использования:

import hnswlib
import numpy as np

dim = 128
num_elements = 10000

# Создаём тестовые данные.
data = np.float32(np.random.random((num_elements, dim)))
data_labels = np.arange(num_elements)

# Создаём иерархический маленький мир в L2.
# Возможные метрики — l2, cosine, ip (L2, косинус угла между векторами, скалярное произведение).
p = hnswlib.Index(space = 'l2', dim = dim)

# Инициализируем структуру.
p.init_index(max_elements = num_elements, ef_construction = 200, M = 16)

# Добавляем данные (можно вызывать много раз).
p.add_items(data, data_labels)

# Настраиваем качество, выставляя ef:
p.set_ef(50) # ef должно быть > k

# Делаем запрос.
# k - количество ближайших вершин
labels, distances = p.knn_query(data, k = 1)

См. также[править]

Источники информации[править]