Стохастическое вложение соседей с t-распределением

Материал из Викиконспекты
Версия от 23:13, 18 января 2020; Slelaron (обсуждение | вклад) (Новая страница: «== Определение == Файл:MNIST_compression_methods_comparison.png|thumb|250px|Пример работы t-SNE, Isomap, Sammon mapping, LLE на da…»)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

Определение

Пример работы t-SNE, Isomap, Sammon mapping, LLE на dataset-е MNIST

t-SNE (Стохастическое вложение соседей с t-распределением) -- алгоритм визуализации высокоразмерных данных с помощью представления каждой точки данных в двух или трехмерном пространстве.

Данный алгоритм является модификацией алгоритма SNE, который будет описан далее.


SNE

Пусть стоит задача вложить высокоразмерные точки [math]x_i \in X[/math] в низкоразмерное пространство. Обозначим точки, которые получаются после вложения через [math]y_i \in Y[/math]. SNE (Стохастическое вложение соседей) конвертирует расстояния в высокоразмерном Евклидовом пространстве между точками в условные вероятности [math]p_{j|i}[/math]. [math]p_{j|i}[/math] - вероятность, что точка [math]x_i[/math] выберет в качестве своего соседа точку [math]x_j[/math] среди остальных точек данных. Будем считать, что вероятность для точки [math]x_i[/math] найти соседа падает с увеличением расстояния от точки [math]x_i[/math] в соответствии с распределением Гаусса с нулевым математическим ожиданием и стандартным отклонением [math]\sigma_i[/math]. В соответствии с этим [math]p_{j|i}[/math] выражается как
[math]p_{j|i} = \frac{\exp{(-{\left\Vert x_i - x_j \right\Vert}^2/2\sigma_i^2)}}{\sum\limits_{k \neq i}\exp{({-\left\Vert x_i - x_k \right\Vert}^2/2\sigma_i^2)}}[/math].

Теперь определим похожие вероятности [math]q_{i|j}[/math] для низкоразмерного пространства, куда вкладываются высокоразмерные точки.
[math]q_{j|i} = \frac{\exp{(-{\left\Vert y_i - y_j \right\Vert}^2)}}{\sum\limits_{k \neq i}\exp{({-\left\Vert x_i - x_k \right\Vert}^2)}}[/math].

Заметим, что данное распределение получается из тех же самых предложений, что были сделаны для высокоразмерного пространства, за исключением того, что все распределения Гаусса имеют стандартное отклонение [math]\frac{1}{\sqrt{2}}[/math] для всех точек.

Если удастся хорошо вложить высокоразмерное пространство в низкоразмерное, должны совпасть распределения совместных вероятностей. То есть [math]p_{i|j}[/math] должны стать похожими на [math]q_{i|j}[/math]. В связи с этим SNE пытается уменьшить разницу в распределении вероятностей. Стандартной мерой для измерения различия вероятностей служит дивергенция Кульбэка-Лейблера. Определяется она так:
[math]KL(P \Vert Q) = \sum\limits_j p_j \log_2 \frac{p_j}{q_j}[/math].

В данном случае имеем [math]|X|[/math] распределений. Тогда определим целевую функцию, который будем оптимизировать, определим как сумму соответствующих дивергенций Кульбэка-Лейблера. То есть:
[math]C = \sum\limits_i KL(p_i \Vert q_i) = \sum\limits_i \sum\limits_j p_{j|i} \log_2 \frac{p_{j|i}}{q_{j|i}}[/math].

Дивергенция Кульбэка-Лейблера не является симметричной мерой, поэтому, например, вложение близких точек в удаленные даёт гораздо большее значение ошибки, чем вложение далеких точек в близкие. Другими словами, целевая функция нацелена на сохранение локальной структуры вокруг точек.

Параметры [math]\sigma_i[/math] подбираются следующим образом. Каждое значение параметра порождает свое распределение вероятностей [math]P_i[/math]. Это распределение имеет энтропию
[math]H(P_i) = \sum\limits_j p_{j|i}\log_2 p_{j|i} [/math],
которая возрастает с ростом [math]\sigma_i[/math]. В самом алгоритме [math]\sigma_i[/math] вычисляются с помощью бинарного поиска по заранее заданной пользователем величине, называемой перплексией, которая определяется как
[math]Perp(P_i) = 2 ^ {H(P_i)}[/math].

Изначально точки [math]y_i[/math] сэмплируют в низкоразмерном пространстве в соответствии с Гауссовским распределением с маленьким стандартным отклонением с математическим ожиданием в нуле, далее идет оптимизация целевой функции. Она проводится методом градиентного спуска. Градиент равен:
[math]\frac {\delta C} {\delta y_i} = 2 \sum\limits_j (p_{j|i} - q_{j|i} + p_{i|j} - q_{i|j})(y_i - y_j)[/math]

Физическая интерпретация

Есть следующая физическая интерпретация модели. Между точками в низкоразмерном пространстве натянуты пружины между каждой парой точек [math]y_i[/math] и [math]y_j[/math]. действующие в направлении [math]y_i - y_j[/math]. Пружины могут притягивать или отталкивать точки в зависимости от расстояния между ними. Сила, прикладываемая пружиной, пропорциональна её длине [math]\left\Vert y_i - y_j \right\Vert[/math] и жесткости [math]p_{j|i} - q_{j|i} + p_{i|j} - q_{i|j}[/math]. Оптимизация функционала в данном случае является поиск положения точек, в котором будет наблюдаться равновесие сил.

Симметричный SNE

Следующая модификация SNE носит название симметричный SNE. Было странно, что в классическом SNE [math]p_{j|i} \neq p_{i|j}[/math] и [math]q_{j|i} \neq q_{i|j}[/math]. Симметричный SNE -- попытка исправить эту ситуацию путем определения совместных вероятностей вместо условных. Теперь:
[math]C = KL(P \Vert Q) = \sum\limits_i \sum\limits_j p_{i j} \log_2 \frac {p_{i j}} {q_{i j}}[/math].

Очевидным образом определяется [math]q_{i j}[/math]:
[math]q_{i j} = \frac {\exp { -{\left\Vert y_i - y_j \right\Vert}^2 } } {\sum\limits_{k \neq l} \exp { -{\left\Vert y_k - y_l \right\Vert}^2 } }[/math],
но то же решение для [math]p_{i j}[/math] привело бы к проблеме, что для выброса [math]x_i[/math] [math]p_{i j}[/math] будет очень маленькой для любого [math]x_j[/math], таким образом будет почти нулевой соответствующая дивергенция Кульбэка-Лейблера для любого распределения q_{i j}. Это означало бы, что положение точки [math]y_i[/math] определялось бы очень неточно относительно положения других точек. Поэтому в t-SNE [math]p_{i j}[/math] определили как:
[math]p_{i j} = \frac {p_{i|j} + p_{i|j} } {2|X|}[/math].
Очевидный плюс такого определения в том, что [math]\sum\limits_j p_{i j} \gt \frac 1 {2|X|}[/math] для всех точек, что хорошо скажется на выбросах. А также теперь [math]p_{i j} = p_{j i}[/math], [math]q_{i j} = q_{j i}[/math]. Авторами утверждается, что симметричный SNE вкладывает данные в низкоразмерное пространство почти также как и ассимитричный, а иногда даже лучше.

Градиент при таком подходе принимает вид: [math]\frac {\delta C} {\delta y_i} = 2 \sum\limits_j (p_{i j} - q_{i j})(y_i - y_j)[/math].

Проблема скученности

При использовании обычного SNE возникает следующая проблема, которая вытекает из разного распределения вероятностей в высокоразмерном и низкоразмерном пространствах. Пусть есть некоторое высокоразмерное пространство. Пусть в нем точки равномерно распределены вокруг некоторой точки [math]x_i[/math]. Теперь попытаемся вложить высокоразмерное пространство в низкоразмерное. Заметим, что область пространства, доступная для размещения умеренно-удаленных точек высокоразмерного пространства относительно области пространства, доступное для размещения близких точек высокоразмерного пространства достаточно мала по сравнению с тем же самым в исходном пространстве (нужно сравнить отношения объемов сфер в низкоразмерном и высокоразмерном пространствах). Таким образом, если мы хотим правильно моделировать близкие расстояния и не иметь лишних маленьких расстояний, возникающих между умеренно-удаленными между собой точками, следовало бы поместить умеренно-удаленные точки подальше от точки [math]x_i[/math], чем в исходном. В таком случае на слишком далекие точки в низкоразмерном пространстве будет действовать небольшая сила притяжения от точки [math]x_i[/math]. Но, принимая во внимание остальные точки, таких сил будет достаточно много, что схлопнет точки и будет мешать образованию кластеров.

t-SNE

Чтобы избежать проблемы скученности было решено использовать в низкоразмерном пространстве t-распределение Стьюдента с одной степенью свободы вместо распределения Гаусса. Данное распределение очень похоже на распределение Гаусса, но имеет большую вероятностную массу на участках, отдаленных от нуля, что решает описанную выше проблему, т.к. теперь удаленные точки лучше отталкиваются.

В связи с заменой распределения [math]q_{i j}[/math] определяется следующим образом:
[math]q_{i j} = \frac {(1 + {\left\Vert y_i - y_j \right\Vert}^2)^{-1}} {\sum\limits_{k \neq l} (1 + {\left\Vert y_k - y_l \right\Vert}^2)^{-1}}[/math].

Еще одно свойство данного распределения состоит в том, что [math](1 + {\left\Vert y_i - y_j \right\Vert}^2)^{-1}[/math] описывает закон обратных квадратов для далеких точек в низкоразмерном пространстве, что позволяет думать не об отдельных точках, а о кластерах, которые будут взаимодействовать между собой как отдельные точки.

После замены распределения изменился градиент целевой функции, теперь он равен:
[math]\frac {\delta C} {\delta y_i} = 4 \sum\limits_j (p_{i j} - q_{i j})(y_i - y_j)(1 + {\left\Vert y_i - y_j \right\Vert}^2)^{-1}[/math].

Оптимизации в t-SNE

В t-SNE используется 2 основных оптимизации:

1) Первая оптимизация называется "раннее сжатие". В данной оптимизации на ранних итерациях оптимизации к целевой функции добавляется [math]L_2[/math]-штраф на расстояния в низкоразмерном пространстве, что влечет за собой сжатие всех точек в нуле. В связи с этим кластерам будет легче переходить друг через друга, чтобы правильно расположиться в пространстве.

2) Вторая оптимизация называется "раннее преувеличение". В данной оптимизации на ранних итерациях [math]p_{i j}[/math] умножаются на некоторое положительное число, например на [math]4[/math]. Так как [math]q_{i j}[/math] остаются теми же самыми, они слишком маленькие, чтобы моделировать соответствующие [math]p_{i j}[/math]. Как следствие, образуются очень плотные кластера, которые широко раскиданы в низкоразмерном пространстве. Это создает много пустого пространства, которое используется кластерами, чтобы легко менять и находить наилучшее взаимное расположение.

См. также

Источники информации