Рекомендательные системы — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(User-based и item-based алгоритмы)
(не показано 109 промежуточных версий 5 участников)
Строка 3: Строка 3:
 
== Обзор и постановка задачи ==
 
== Обзор и постановка задачи ==
  
Основная задача рекомендательных систем {{---}} проинформировать пользователя о товарах или услугах, которые будут для него наиболее интересными и актуальными. Разнообразие таких систем можно проиллюстрировать основными характеристиками:
+
Основная задача рекомендательных систем<ref>[https://ru.wikipedia.org/wiki/%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0 Рекомендательные системы]</ref> {{---}} проинформировать пользователя о товарах или услугах, которые будут для него наиболее интересными и актуальными. Разнообразие таких систем можно проиллюстрировать основными характеристиками:
  
 
* предмет рекомендации;
 
* предмет рекомендации;
Строка 13: Строка 13:
 
* прозрачность рекомендации.
 
* прозрачность рекомендации.
  
В центре таких систем лежит матрица предпочтений. В этой матрице одна из осей отвечает за пользователей, вторая за объекты рекомендации. Заполнена же эта матрица значениями по заданной шкале (например от <tex>1</tex> до <tex>5</tex>). Каждый клиент с малой долей вероятностью оценивал все объекты рекомендации, поэтому задача системы {{---}} это обобщение информации и предсказание: какое отношение к рекомендуемому объекту будет у пользователя.  
+
В центре таких систем лежит матрица предпочтений. В этой матрице одна из осей отвечает за пользователей, вторая за объекты рекомендации. Заполнена же эта матрица значениями по заданной шкале (например от <tex>1</tex> до <tex>5</tex>). Так как каждый пользователь обычно может оценить только небольшую часть объектов, то данная матрица очень разрежена. Задача системы {{---}} обобщение информации и предсказание отношения пользователя к объекту (заполнение пропущенных значений матрицы).  
  
Пользовательские оценки, необходимые для составления матрицы предпочтений, можно получить двумя способами:
+
Данные, сообщающие предпочтения пользователя, можно получить двумя способами:
  
* явно (англ. ''explicit ratings'');
+
* явно (англ. ''explicit feedback'', ''explicit ratings'');
* неявно (англ. ''implicit ratings'').
+
* неявно (англ. ''implicit feedback'', ''implicit ratings'').
  
Очевидно, что явное оценивание лучше, так как сам пользователь определяет насколько ему интересен тот или иной объект, однако из-за непостоянства в получении явных оценок от пользователей, на практике используется оба подхода.  
+
При явном оценивании пользователь сам показывает, насколько ему интересен тот или иной объект. Типичным примером данных, полученных при явном оценивании, являются рейтинги, проставленные пользователями объектам. На практике таких данных обычно мало.
 +
Гораздо больше имеется информации о неявных предпочтениях пользователя: просмотры, клики, добавления в закладки. Однако по таким данным не всегда можно сделать явный вывод об отношении пользователя к объекту. Например, если пользователь посмотрел фильм, то это означает, что до просмотра он ему был интересен, но сделать вывод о том, понравился ли ему фильм, нельзя.
 +
В большинстве рекомендательных систем эти два подхода используются вместе, тем самым минимизируются недостатки каждого из них в отдельности.
  
Формализуем задачу. Имеется множество пользователей <tex> u \in U </tex>, множество объектов <tex> i \in I </tex> и множество событий <tex> (r_{ui}, u, i,\dots) \in D </tex> (действия, которые совершают пользователи с объектами). Каждое событие задается пользователем <tex> u </tex>, объектом <tex> i </tex>, своим результатом <tex> r_{ui} </tex> и, возможно, но не обязательно, другими характеристиками. По итогу требуется:
+
Формализуем задачу. Имеется множество пользователей <tex> u \in U </tex>, множество объектов <tex> i \in I </tex> и множество событий <tex> (r_{ui}, u, i,\dots) \in D </tex> (действия, которые совершают пользователи с объектами). Каждое событие задается пользователем <tex> u </tex>, объектом <tex> i </tex>, своим результатом <tex> r_{ui} </tex> и, возможно, но не обязательно, другими характеристиками. По итогу от рекомендательной системы требуется:
  
* предсказать предпочтение: <tex> \hat{r}_{ui} = Predict(u, i,\dots) \approx r_{ui}; </tex>
+
* предсказывать предпочтение пользователя <tex> u </tex> к объекту <tex> i </tex>: <tex> \hat{r}_{ui} = Predict(u, i,\dots) \approx r_{ui}; </tex>
* персональные рекомендации: <tex> u \mapsto (i_1,\dots, i_k) = Recommend_k(u,\dots); </tex>
+
* выдавать персональные рекомендации для пользователя <tex> u </tex>: <tex> Recommend_k(u,\dots) = (i_1,\dots, i_k); </tex>
* похожие объекты: <tex> u \mapsto (i_1,\dots, i_M) = Similar_M(i). </tex>
+
* определять объекты, похожие на объект <tex>i</tex>: <tex>Similar_M(i) = (i_1,\dots, i_M). </tex>
  
 
==Кластеризация пользователей==
 
==Кластеризация пользователей==
Строка 44: Строка 46:
 
Проблемы алгоритма:
 
Проблемы алгоритма:
  
* Нечего рекомендовать новым пользователям, так как их невозможно определить к какому-либо кластеру;
+
* нечего рекомендовать новым пользователям, так как их невозможно отнести к какому-либо кластеру;
* Не учитывается контекст и специфика пользователя;
+
* не учитывается контекст и специфика пользователя;
* Если в кластере нет оценки объекта, то предсказание невозможно.
+
* если в кластере нет оценки объекта, то предсказание невозможно.
  
 
== Холодный старт ==
 
== Холодный старт ==
Строка 53: Строка 55:
 
'''Холодный старт''' (англ. ''cold start'') {{---}} ситуация, когда ещё не накоплено достаточное количество данных для корректной работы рекомендательной системы.
 
'''Холодный старт''' (англ. ''cold start'') {{---}} ситуация, когда ещё не накоплено достаточное количество данных для корректной работы рекомендательной системы.
 
}}
 
}}
Данная проблема актуальна для новых объектов или объектов, которые редко покупают. Если средний рейтинг посчитан по оценкам всего трёх пользователей, такая оценка явно не будет достоверной, и пользователи это понимают. Часто в таких ситуациях рейтинги искусственно корректируют.
+
Данная проблема актуальна для новых объектов или объектов, с которыми пользователи редко совершают действия. Если средний рейтинг посчитан по оценкам всего трёх пользователей, такая оценка явно не будет достоверной, и пользователи это понимают. Часто в таких ситуациях рейтинги искусственно корректируют.
  
 
'''Первый способ.''' Предлагается показывать не среднее значение, а сглаженное среднее (англ. ''damped mean''). Смысл таков: при малом количестве оценок отображаемый рейтинг больше тяготеет к некому безопасному «среднему» показателю, а как только набирается достаточное количество новых оценок, «усредняющая» корректировка перестает действовать.
 
'''Первый способ.''' Предлагается показывать не среднее значение, а сглаженное среднее (англ. ''damped mean''). Смысл таков: при малом количестве оценок отображаемый рейтинг больше тяготеет к некому безопасному «среднему» показателю, а как только набирается достаточное количество новых оценок, «усредняющая» корректировка перестает действовать.
  
'''Второй способ.''' Будем рассчитывать по каждому рейтингу интервалы достоверности (англ. ''сonfidence intervals''). Математически, чем больше оценок, тем меньше вариация среднего и, значит, больше уверенность в его корректности. А в качестве рейтинга можно выводить, например, нижнюю границу интервала (англ. ''low CI bound''). При этом понятно, что такая система будет достаточно консервативной, с тенденцией к занижению оценок по новым товарам.
+
'''Второй способ.''' Для объекта считается средний рейтинг, затем определяется интервал достоверности (англ. ''сonfidence interval'') этого рейтинга. Математически, чем больше оценок, тем меньше вариация среднего и, значит, больше уверенность в его корректности. А в качестве рейтинга объекта можно выводить, например, нижнюю границу интервала (англ. ''low CI bound''). При этом понятно, что такая система будет достаточно консервативной, с тенденцией к занижению оценок по новым объектам.
  
 
== User-based и item-based алгоритмы ==
 
== User-based и item-based алгоритмы ==
  
 
=== User-based алгоритм ===
 
=== User-based алгоритм ===
Заменим жесткую кластеризацию на предположение, что фильм понравится пользователю, если он понравился его друзьям.
+
Заменим жесткую кластеризацию на предположение, что объект понравится пользователю, если он понравился похожим пользователям. Тогда предпочтение пользователя <tex>u</tex> к объекту <tex>i</tex> можно записать следующим образом:
  
<tex> \hat{r}_{ui} = \bar{r}_u + \dfrac{\sum_{v \in U_i}{}{sim(u, v)(r_{vi} - \bar{r}_v)}}{\sum_{v \in {U_i}}{}{sim(u, v)}} </tex>
+
<tex> \hat{r}_{ui} = \bar{r}_u + \dfrac{\sum_{v \in U_i}{}{sim(u, v)(r_{vi} - \bar{r}_v)}}{\sum_{v \in {U_i}}{}{sim(u, v)}} </tex>, где <tex>\bar{r}_u</tex> {{---}} средняя оценка, проставленная пользователем <tex> u </tex>, а <tex> sim(u,v) </tex> {{---}} мера схожести пользователей  <tex>u</tex> и <tex>v</tex>.
  
 
Однако у этого алгоритма есть недостатки:  
 
Однако у этого алгоритма есть недостатки:  
  
* Холодный старт — новые объекты никому не рекомендуются.
+
* холодный старт — новые объекты никому не рекомендуются;
* Нечего рекомендовать новым/нетипичным пользователям. Для таких пользователей мы все еще не можем найти похожих.
+
* нечего рекомендовать новым/нетипичным пользователям.
  
 
=== Item-based алгоритм ===
 
=== Item-based алгоритм ===
Также имеется абсолютно симметричный алгоритм. Теперь будем считать, что фильм понравится пользователю, если ему понравились похожие фильмы.
+
Также имеется абсолютно симметричный алгоритм. Теперь будем считать, что объект понравится пользователю, если ему понравились похожие объекты. Предпочтение пользователя <tex>u</tex> к объекту <tex>i</tex> запишется так:
  
<tex> \hat{r}_{ui} = \bar{r}_i + \dfrac{\sum_{j \in I_u}{}{sim(i, j)(r_{uj} - \bar{r}_j)}}{\sum_{j \in {I_u}}{}{sim(i, j)}} </tex>
+
<tex> \hat{r}_{ui} = \bar{r}_i + \dfrac{\sum_{j \in I_u}{}{sim(i, j)(r_{uj} - \bar{r}_j)}}{\sum_{j \in {I_u}}{}{sim(i, j)}} </tex>, где <tex>\bar{r}_i</tex> {{---}} средняя оценка, проставленная объекту <tex> i </tex>, а <tex> sim(i, j) </tex> {{---}} мера схожести объектов  <tex>i</tex> и <tex>j</tex>. 
  
 
У такого подхода остается недостаток в виде холодного старта и при этом рекомендации становятся тривиальными.
 
У такого подхода остается недостаток в виде холодного старта и при этом рекомендации становятся тривиальными.
  
Так же стоит отметить ресурсоемкость вычислений такими методами. Для предсказаний необходимо держать в памяти все оценки всех пользователей.
+
Cтоит отметить, что ресурсоемкость вычислений такими методами высока: для предсказаний необходимо держать в памяти все оценки всех пользователей.
  
 
==Алгоритм SVD==
 
==Алгоритм SVD==
  
{{Определение
+
Попробуем воспользоваться [[Сингулярное разложение | сингулярным разложением (SVD)]] для задачи рекомендации.  
|definition=
 
'''SVD''' (англ. ''Single Value Decomposition'') {{---}} у любой матрицы <tex> A </tex> размера <tex> n \times m </tex> существует разложение на матрицы <tex> U, \Sigma, V^T </tex>: <tex> A_{n \times m} = U_{n \times n} \times \Sigma_{n \times m} \times V^T_{m \times m} </tex>.<br/>
 
}}
 
 
 
[[Файл:3.png|400px|thumb|right|SVD для рекомендательных систем.]]
 
 
 
Матрицы <tex> U, V </tex> ортогональные, <tex> \Sigma </tex> {{---}} диагональная:
 
<tex> UU^T = I_n</tex>,<tex>VV^T = I_m</tex>, <tex> \Sigma = diag(\lambda_1,\dots,\lambda_{min(n, m)})</tex>, <tex>\lambda_1 \geq \dots \geq \lambda_{min(n, m)} \geq 0 </tex> .
 
 
 
Обратить внимание же стоит на усеченное разложение, когда из лямбд, остаются только первые <tex> d </tex> чисел, а остальные полагаются равными нулю.
 
 
 
<tex> \lambda_{d+1},\dots,\lambda_{min(n,m)} = 0 </tex>
 
  
Значит у матриц <tex> U </tex> и <tex> V </tex> остаются только первые <tex> d </tex> столбцов, а матрица <tex> \Sigma </tex> становится квадратной размером <tex> d \times d </tex>.
+
Разложим матрицу оценок <tex> R </tex> с использованием сингулярного разложения:
 +
<tex> R_{n \times m} = U_{n \times n} \times \Sigma_{n \times m} \times V^T_{m \times m} </tex>.
 +
Применяя усеченное разложение, получим следующее:
 +
<tex> R'_{n \times m} = U'_{n \times d} \times \Sigma '_{d \times d} \times V'^T_{d \times m} </tex>.
 +
Из свойств сингулярного разложения мы знаем, что матрица <tex> R'_{n \times m} </tex> является наилучшим низкоранговым приближением с точки зрения средне-квадратичного отклонения. Несколько упростим запись выражения: запишем произведение первых двух матриц <tex> \tilde{U}_{n \times d} = U'_{n \times d} \times \Sigma '_{d \times d} </tex>, а матрицу <tex> V'^T_{d \times m} </tex> обозначим как <tex> \tilde{V}_{d \times m} </tex>. Получим формулу <tex> R'_{n \times m} =  \tilde{U}_{n \times d}  \times \tilde{V}_{d \times m} </tex>. Интерпретировать полученную формулу стоит следующим образом: приближенная матрица оценок может быть вычислена как произведение усеченных матриц пользователей и оценок.
  
<tex> A'_{n \times m} = U'_{n \times d} \times \Sigma'_{d \times d} \times V'^T_{d \times m} </tex>
+
Благодаря использованию такого усечения можно решить одну из главных проблем всех ранее упомянутых алгоритмов: ресурсоемкость вычислений.
  
Получаем наилучшее низкоранговое приближение с точки зрения средне-квадратичного отклонения.
+
[[Файл:RecommendSVD.png|450px|thumb|right|SVD для рекомендательных систем.]]
  
Чтобы предсказать оценку пользователя <tex> U </tex> для объекта <tex> I </tex>, берём некоторый вектор <tex> p_u </tex> для данного пользователя и вектор данного объекта <tex> q_i </tex>. Получаем необходимое предсказание: <tex> \hat{r}_{ui} = \langle p_u,q_i \rangle </tex>.
+
Чтобы предсказать оценку пользователя <tex> u </tex> для объекта <tex> i </tex>, берём некоторый вектор <tex> p_u </tex> для данного пользователя и вектор данного объекта <tex> q_i </tex>. Получаем необходимое предсказание: <tex> \hat{r}_{ui} = \langle p_u,q_i \rangle </tex>.
  
 
Помимо предсказания оценок, алгоритм позволяет выявлять скрытые признаки объектов и интересы пользователей.
 
Помимо предсказания оценок, алгоритм позволяет выявлять скрытые признаки объектов и интересы пользователей.
 +
Например, может так получиться, что на первой координате вектора у каждого пользователя будет стоять число, показывающее, похож ли пользователь больше на мальчика или на девочку, на второй координате — число, отражающее примерный возраст пользователя. У фильма же первая координата будет показывать, интересен ли он больше мальчикам или девочкам, а вторая — какой возрастной группе пользователей он интересен.
  
Однако есть и свои проблемы:
+
Однако данный алгоритм имеет ряд проблем:
 
+
* матрица оценок <tex> R </tex> полностью не известна, поэтому просто взять SVD разложение не представляется возможным;
*<tex> R </tex> матрица оценок полностью не известна, поэтому просто взять SVD разложение не получится;
+
* Сингулярное разложение не единственное, поэтому даже если какое-то разложение будет найдено, нет гарантии, что первая координата в нем будет соответствовать некоторым выбранным характеристикам пользователя.
*SVD разложение не единственное, поэтому даже если какое-то разложение будет найдено, нет гарантии, что первая координата в нем будет соответствовать некоторым выбранным характеристикам пользователя.
 
  
 
==Решение проблемы матрицы оценок==
 
==Решение проблемы матрицы оценок==
Для решения проблем, связанных с матрицей оценок <tex>R</tex>, воспользуемся [[Регуляризация | регуляризацией]].
 
  
Модель будет зависеть от следующих параметров: вектор пользователей и вектор объектов. Для заданных параметров возьмем вектор пользователя и вектор объекта, а затем для предсказания оценки получим их скалярное произведение:
 
  
<tex> \hat{r}_{ui}(\Theta) = p^T_uq_i </tex>
+
Для решения проблем, связанных с матрицей оценок <tex>R</tex>, построим модель.
  
<tex> \Theta = {p_u, q_i \mid u \in U, i \in I} </tex>
+
Модель будет зависеть от следующих параметров: вектор пользователей и вектор объектов. Для заданных параметров <tex> u </tex> и <tex>i</tex> возьмем вектор пользователя <tex> p_u </tex> и вектор объекта <tex>q_i</tex>, затем для предсказания оценки получим их скалярное произведение, как и в алгоритме SVD:
 +
<tex> \hat{r}_{ui}(\Theta) = p^T_uq_i </tex>, где <tex> \Theta = \{p_u, q_i \mid u \in U, i \in I\} </tex>.
  
 
Но вектора пока не известны, их нужно получить. Имеются оценки пользователей, при помощи которых можно найти оптимальные параметры, при которых модель предскажет оценки наилучшим образом:
 
Но вектора пока не известны, их нужно получить. Имеются оценки пользователей, при помощи которых можно найти оптимальные параметры, при которых модель предскажет оценки наилучшим образом:
 
 
<tex> E_{(u,i)}(\hat{r}_{ui}(\Theta) - r_{ui})^2 \to min_{\Theta} </tex>.
 
<tex> E_{(u,i)}(\hat{r}_{ui}(\Theta) - r_{ui})^2 \to min_{\Theta} </tex>.
  
То есть, нужно найти такие параметры <tex> \Theta </tex>, чтобы квадрат ошибки был наименьшим. Однако ситуация следующая: оптимизация приведет к наименьшим ошибкам в будущем, но как именно оценки будут спрашивать {{---}} неизвестно. Следовательно, это нельзя оптимизировать. Однако, так как оценки, уже проставленные пользователями, известны, постараемся минимизировать ошибку на тех данных, что у нас уже есть. Также добавим регуляризатор. Получим, следующее:
+
То есть, нужно найти такие параметры <tex> \Theta </tex>, чтобы квадрат ошибки был наименьшим. Однако ситуация следующая: оптимизация приведет к наименьшим ошибкам в будущем, но как именно оценки будут спрашивать {{---}} неизвестно. Следовательно, это нельзя оптимизировать. Однако, так как оценки, уже проставленные пользователями, известны, постараемся минимизировать ошибку на тех данных, что у нас уже есть. Также воспользуемся  [[Регуляризация | регуляризацией]]. В качестве регуляризатора будет выступать слагаемое <tex>\lambda \sum_{\theta \in \Theta}{\theta^2}</tex>. Получим следующее:
<tex> \sum_{(u,i) \in D}{(\hat{r}_{ui}(\Theta) - r_{ui})^2} + \lambda \sum_{\theta \in \Theta}{\theta^2} \to min_{\Theta} </tex>
+
<tex> \sum_{(u,i) \in D}{(\hat{r}_{ui}(\Theta) - r_{ui})^2} + \lambda \sum_{\theta \in \Theta}{\theta^2} \to min_{\Theta} </tex>.
 
 
Регуляризация заключается в том, что минимизируется не только ошибка, но и некоторая функция параметров (например, норма вектора параметров). Это позволяет ограничить размер параметров в решении, уменьшает степень свободы модели.
 
  
 
==Численная оптимизация==
 
==Численная оптимизация==
[[Файл:2.png|200px|thumb|right|Визуализация градиентного спуска.]]
 
  
<tex> J(\Theta) = \sum_{(u,i) \in D}{(r^T_u - r_{ui})^2} + \lambda (\sum_u{||p_u||^2} + \sum_i{||q_i||^2}) </tex>
+
Чтобы найти оптимальные параметры построенной модели необходимо оптимизировать следующий функционал:
  
Необходимо оптимизировать данный функционал. Множество параметров: для каждого объекта и пользователя есть свой вектор, который нужно оптимизировать. Дабы найти минимум функции воспользуемся градиентом {{---}} вектор из частных производных по каждому параметру.
+
<tex> J(\Theta) = \sum_{(u,i) \in D}{(p^T_uq_i - r_{ui})^2} + \lambda (\sum_u{||p_u||^2} + \sum_i{||q_i||^2}) </tex>.
  
<tex> \nabla J(\Theta) = (\dfrac{\partial J}{\partial \theta_1}, \dfrac{\partial J}{\partial \theta_2},\dots,\dfrac{\partial J}{\partial \theta_n})^T </tex>
+
Множество параметров: для каждого объекта и пользователя есть свой вектор, который нужно оптимизировать. Чтобы найти минимум функции можно использовать [[ Стохастический градиентный спуск | метод градиентного спуска]]. Для этого нам понадобится градиент {{---}} вектор из частных производных по каждому параметру, который в нашем случае будет выглядеть так:
  
Можно воспользоваться градиентным бустингом:
+
<tex> \nabla J(\Theta) = (\dfrac{\partial J}{\partial \theta_1}, \dfrac{\partial J}{\partial \theta_2},\dots,\dfrac{\partial J}{\partial \theta_n})^T </tex>.
  
<tex> \Theta_{t+1} = \Theta_t - \eta \nabla J(\Theta) </tex>
+
Шаг градиентного спуска можно записать следующим образом: <tex> \Theta_{t+1} = \Theta_t - \eta \nabla J(\Theta) </tex>, где <tex> \eta </tex> {{---}} коэффициент скорости обучения.
 
 
Проблема же заключается в том, что алгоритм работает медленно, а минимумы которые он находит {{---}} локальные, а не глобальные.
 
  
 
==Измерение качества рекомендаций==
 
==Измерение качества рекомендаций==
  
Было предложено измерять качество рекомендаций при помощи RMSE:
+
Зачастую качество рекомендаций измеряется с  помощью функции ошибки [[ Оценка_качества_в_задачах_классификации_и_регрессии#.D0.9A.D0.BE.D1.80.D0.B5.D0.BD.D1.8C_.D0.B8.D0.B7_.D1.81.D1.80.D0.B5.D0.B4.D0.BD.D0.B5.D0.B9_.D0.BA.D0.B2.D0.B0.D0.B4.D1.80.D0.B0.D1.82.D0.B8.D1.87.D0.BD.D0.BE.D0.B9_.D0.BE.D1.88.D0.B8.D0.B1.D0.BA.D0.B8_.28.D0.B0.D0.BD.D0.B3.D0.BB._Root_Mean_Squared_Error.2C_RMSE.29 | RMSE]]:
  
<tex> RMSE = \sqrt{\dfrac{1}{|D|} \sum_{(u,i) \in D}{(\hat{r}_{ui} - r_{ui})^2}} </tex>
+
<tex> RMSE = \sqrt{\dfrac{1}{|D|} \sum_{(u,i) \in D}{(\hat{r}_{ui} - r_{ui})^2}} </tex>.
  
Однако она также обладает недостатками, хоть и является стандартом измерения качества:
+
Данный способ, хоть и является стандартным для измерением качества, имеет ряд недостатков:
 
+
* пользователи с большим разбросом оценок будут влиять на значение метрики больше, чем остальные;
* Пользователи с большим разбросом оценок будут влиять на значение метрики больше, чем остальные;
+
* ошибка в предсказании высокой оценки имеет такой же вес, что и ошибка в предсказании низкой оценки;
* Ошибка в предсказании высокой оценки имеет такой же вес, что и ошибка в предсказании низкой оценки;
+
* есть риск плохого ранжирования при почти идеальной RMSE и наоборот.
* Есть риск плохого ранжирования при почти идельаной RMSE и наоборот.
 
  
 
Существуют при этом и другие метрики {{---}} метрики ранжирования, на основе полноты и точности. Однако они не так популярны и используются значительно реже.
 
Существуют при этом и другие метрики {{---}} метрики ранжирования, на основе полноты и точности. Однако они не так популярны и используются значительно реже.
  
 
==См. также==
 
==См. также==
 +
* [[Кластеризация]]
 
* [[Регуляризация]]
 
* [[Регуляризация]]
* [[Линейная регрессия]]
+
* [[Оценка качества в задаче кластеризации]]
* [[Метод опорных векторов (SVM)]]
+
* [[Оценка качества в задачах классификации и регрессии]]
 
+
== Примечания ==
 +
<references/>
 
== Источники информации==
 
== Источники информации==
 
* [https://habr.com/ru/company/yandex/blog/241455/ Как работают рекомендательные системы.]
 
* [https://habr.com/ru/company/yandex/blog/241455/ Как работают рекомендательные системы.]
Строка 168: Строка 156:
 
* [https://neurohive.io/ru/osnovy-data-science/rekomendatelnye-sistemy-modeli-i-ocenka/ Анатомия рекомендательных систем.]
 
* [https://neurohive.io/ru/osnovy-data-science/rekomendatelnye-sistemy-modeli-i-ocenka/ Анатомия рекомендательных систем.]
 
* [http://www.mathnet.ru/links/4d5ff6f460c0d9409ce16b558725408d/ista26.pdf Рекомендательные системы: обзор основных постановок и результатов.]
 
* [http://www.mathnet.ru/links/4d5ff6f460c0d9409ce16b558725408d/ista26.pdf Рекомендательные системы: обзор основных постановок и результатов.]
 +
 +
[[Категория: Машинное обучение]]
 +
[[Категория: Рекомендательные системы]]

Версия 11:00, 8 января 2021

Рекомендательные системы — программы, которые пытаются предсказать, какие объекты будут интересны пользователю, имея определенную информацию о его профиле.

Обзор и постановка задачи

Основная задача рекомендательных систем[1] — проинформировать пользователя о товарах или услугах, которые будут для него наиболее интересными и актуальными. Разнообразие таких систем можно проиллюстрировать основными характеристиками:

  • предмет рекомендации;
  • цель рекомендации;
  • контекст рекомендации;
  • источник рекомендации;
  • степень персонализации;
  • формат рекомендации;
  • прозрачность рекомендации.

В центре таких систем лежит матрица предпочтений. В этой матрице одна из осей отвечает за пользователей, вторая за объекты рекомендации. Заполнена же эта матрица значениями по заданной шкале (например от [math]1[/math] до [math]5[/math]). Так как каждый пользователь обычно может оценить только небольшую часть объектов, то данная матрица очень разрежена. Задача системы — обобщение информации и предсказание отношения пользователя к объекту (заполнение пропущенных значений матрицы).

Данные, сообщающие предпочтения пользователя, можно получить двумя способами:

  • явно (англ. explicit feedback, explicit ratings);
  • неявно (англ. implicit feedback, implicit ratings).

При явном оценивании пользователь сам показывает, насколько ему интересен тот или иной объект. Типичным примером данных, полученных при явном оценивании, являются рейтинги, проставленные пользователями объектам. На практике таких данных обычно мало. Гораздо больше имеется информации о неявных предпочтениях пользователя: просмотры, клики, добавления в закладки. Однако по таким данным не всегда можно сделать явный вывод об отношении пользователя к объекту. Например, если пользователь посмотрел фильм, то это означает, что до просмотра он ему был интересен, но сделать вывод о том, понравился ли ему фильм, нельзя. В большинстве рекомендательных систем эти два подхода используются вместе, тем самым минимизируются недостатки каждого из них в отдельности.

Формализуем задачу. Имеется множество пользователей [math] u \in U [/math], множество объектов [math] i \in I [/math] и множество событий [math] (r_{ui}, u, i,\dots) \in D [/math] (действия, которые совершают пользователи с объектами). Каждое событие задается пользователем [math] u [/math], объектом [math] i [/math], своим результатом [math] r_{ui} [/math] и, возможно, но не обязательно, другими характеристиками. По итогу от рекомендательной системы требуется:

  • предсказывать предпочтение пользователя [math] u [/math] к объекту [math] i [/math]: [math] \hat{r}_{ui} = Predict(u, i,\dots) \approx r_{ui}; [/math]
  • выдавать персональные рекомендации для пользователя [math] u [/math]: [math] Recommend_k(u,\dots) = (i_1,\dots, i_k); [/math]
  • определять объекты, похожие на объект [math]i[/math]: [math]Similar_M(i) = (i_1,\dots, i_M). [/math]

Кластеризация пользователей

Определение:
Коллаборативная фильтрация (англ. collaborative filtering) — один из методов построения прогнозов (рекомендаций) в рекомендательных системах, использующий известные предпочтения (оценки) группы пользователей для прогнозирования неизвестных предпочтений другого пользователя.


Основная идея метода — похожим пользователям нравятся похожие объекты.

Алгоритм можно разбить на следующие шаги:

  1. Выбор условной меры схожести пользователей по истории их оценок [math] sim(u, v) [/math].
  2. Объединение пользователей в группы (кластеры) так, чтобы похожие пользователи оказывались в одном кластере [math] u \mapsto F(u) [/math].
  3. Предсказание оценки пользователя: средняя оценка кластера этому объекту [math] \hat{r}_{ui} = \dfrac{1}{|F(u)|}\sum_{u \in F(u)}{}{r_{ui}} [/math].

Проблемы алгоритма:

  • нечего рекомендовать новым пользователям, так как их невозможно отнести к какому-либо кластеру;
  • не учитывается контекст и специфика пользователя;
  • если в кластере нет оценки объекта, то предсказание невозможно.

Холодный старт

Определение:
Холодный старт (англ. cold start) — ситуация, когда ещё не накоплено достаточное количество данных для корректной работы рекомендательной системы.

Данная проблема актуальна для новых объектов или объектов, с которыми пользователи редко совершают действия. Если средний рейтинг посчитан по оценкам всего трёх пользователей, такая оценка явно не будет достоверной, и пользователи это понимают. Часто в таких ситуациях рейтинги искусственно корректируют.

Первый способ. Предлагается показывать не среднее значение, а сглаженное среднее (англ. damped mean). Смысл таков: при малом количестве оценок отображаемый рейтинг больше тяготеет к некому безопасному «среднему» показателю, а как только набирается достаточное количество новых оценок, «усредняющая» корректировка перестает действовать.

Второй способ. Для объекта считается средний рейтинг, затем определяется интервал достоверности (англ. сonfidence interval) этого рейтинга. Математически, чем больше оценок, тем меньше вариация среднего и, значит, больше уверенность в его корректности. А в качестве рейтинга объекта можно выводить, например, нижнюю границу интервала (англ. low CI bound). При этом понятно, что такая система будет достаточно консервативной, с тенденцией к занижению оценок по новым объектам.

User-based и item-based алгоритмы

User-based алгоритм

Заменим жесткую кластеризацию на предположение, что объект понравится пользователю, если он понравился похожим пользователям. Тогда предпочтение пользователя [math]u[/math] к объекту [math]i[/math] можно записать следующим образом:

[math] \hat{r}_{ui} = \bar{r}_u + \dfrac{\sum_{v \in U_i}{}{sim(u, v)(r_{vi} - \bar{r}_v)}}{\sum_{v \in {U_i}}{}{sim(u, v)}} [/math], где [math]\bar{r}_u[/math] — средняя оценка, проставленная пользователем [math] u [/math], а [math] sim(u,v) [/math] — мера схожести пользователей [math]u[/math] и [math]v[/math].

Однако у этого алгоритма есть недостатки:

  • холодный старт — новые объекты никому не рекомендуются;
  • нечего рекомендовать новым/нетипичным пользователям.

Item-based алгоритм

Также имеется абсолютно симметричный алгоритм. Теперь будем считать, что объект понравится пользователю, если ему понравились похожие объекты. Предпочтение пользователя [math]u[/math] к объекту [math]i[/math] запишется так:

[math] \hat{r}_{ui} = \bar{r}_i + \dfrac{\sum_{j \in I_u}{}{sim(i, j)(r_{uj} - \bar{r}_j)}}{\sum_{j \in {I_u}}{}{sim(i, j)}} [/math], где [math]\bar{r}_i[/math] — средняя оценка, проставленная объекту [math] i [/math], а [math] sim(i, j) [/math] — мера схожести объектов [math]i[/math] и [math]j[/math].

У такого подхода остается недостаток в виде холодного старта и при этом рекомендации становятся тривиальными.

Cтоит отметить, что ресурсоемкость вычислений такими методами высока: для предсказаний необходимо держать в памяти все оценки всех пользователей.

Алгоритм SVD

Попробуем воспользоваться сингулярным разложением (SVD) для задачи рекомендации.

Разложим матрицу оценок [math] R [/math] с использованием сингулярного разложения: [math] R_{n \times m} = U_{n \times n} \times \Sigma_{n \times m} \times V^T_{m \times m} [/math]. Применяя усеченное разложение, получим следующее: [math] R'_{n \times m} = U'_{n \times d} \times \Sigma '_{d \times d} \times V'^T_{d \times m} [/math]. Из свойств сингулярного разложения мы знаем, что матрица [math] R'_{n \times m} [/math] является наилучшим низкоранговым приближением с точки зрения средне-квадратичного отклонения. Несколько упростим запись выражения: запишем произведение первых двух матриц [math] \tilde{U}_{n \times d} = U'_{n \times d} \times \Sigma '_{d \times d} [/math], а матрицу [math] V'^T_{d \times m} [/math] обозначим как [math] \tilde{V}_{d \times m} [/math]. Получим формулу [math] R'_{n \times m} = \tilde{U}_{n \times d} \times \tilde{V}_{d \times m} [/math]. Интерпретировать полученную формулу стоит следующим образом: приближенная матрица оценок может быть вычислена как произведение усеченных матриц пользователей и оценок.

Благодаря использованию такого усечения можно решить одну из главных проблем всех ранее упомянутых алгоритмов: ресурсоемкость вычислений.

SVD для рекомендательных систем.

Чтобы предсказать оценку пользователя [math] u [/math] для объекта [math] i [/math], берём некоторый вектор [math] p_u [/math] для данного пользователя и вектор данного объекта [math] q_i [/math]. Получаем необходимое предсказание: [math] \hat{r}_{ui} = \langle p_u,q_i \rangle [/math].

Помимо предсказания оценок, алгоритм позволяет выявлять скрытые признаки объектов и интересы пользователей. Например, может так получиться, что на первой координате вектора у каждого пользователя будет стоять число, показывающее, похож ли пользователь больше на мальчика или на девочку, на второй координате — число, отражающее примерный возраст пользователя. У фильма же первая координата будет показывать, интересен ли он больше мальчикам или девочкам, а вторая — какой возрастной группе пользователей он интересен.

Однако данный алгоритм имеет ряд проблем:

  • матрица оценок [math] R [/math] полностью не известна, поэтому просто взять SVD разложение не представляется возможным;
  • Сингулярное разложение не единственное, поэтому даже если какое-то разложение будет найдено, нет гарантии, что первая координата в нем будет соответствовать некоторым выбранным характеристикам пользователя.

Решение проблемы матрицы оценок

Для решения проблем, связанных с матрицей оценок [math]R[/math], построим модель.

Модель будет зависеть от следующих параметров: вектор пользователей и вектор объектов. Для заданных параметров [math] u [/math] и [math]i[/math] возьмем вектор пользователя [math] p_u [/math] и вектор объекта [math]q_i[/math], затем для предсказания оценки получим их скалярное произведение, как и в алгоритме SVD: [math] \hat{r}_{ui}(\Theta) = p^T_uq_i [/math], где [math] \Theta = \{p_u, q_i \mid u \in U, i \in I\} [/math].

Но вектора пока не известны, их нужно получить. Имеются оценки пользователей, при помощи которых можно найти оптимальные параметры, при которых модель предскажет оценки наилучшим образом: [math] E_{(u,i)}(\hat{r}_{ui}(\Theta) - r_{ui})^2 \to min_{\Theta} [/math].

То есть, нужно найти такие параметры [math] \Theta [/math], чтобы квадрат ошибки был наименьшим. Однако ситуация следующая: оптимизация приведет к наименьшим ошибкам в будущем, но как именно оценки будут спрашивать — неизвестно. Следовательно, это нельзя оптимизировать. Однако, так как оценки, уже проставленные пользователями, известны, постараемся минимизировать ошибку на тех данных, что у нас уже есть. Также воспользуемся регуляризацией. В качестве регуляризатора будет выступать слагаемое [math]\lambda \sum_{\theta \in \Theta}{\theta^2}[/math]. Получим следующее: [math] \sum_{(u,i) \in D}{(\hat{r}_{ui}(\Theta) - r_{ui})^2} + \lambda \sum_{\theta \in \Theta}{\theta^2} \to min_{\Theta} [/math].

Численная оптимизация

Чтобы найти оптимальные параметры построенной модели необходимо оптимизировать следующий функционал:

[math] J(\Theta) = \sum_{(u,i) \in D}{(p^T_uq_i - r_{ui})^2} + \lambda (\sum_u{||p_u||^2} + \sum_i{||q_i||^2}) [/math].

Множество параметров: для каждого объекта и пользователя есть свой вектор, который нужно оптимизировать. Чтобы найти минимум функции можно использовать метод градиентного спуска. Для этого нам понадобится градиент — вектор из частных производных по каждому параметру, который в нашем случае будет выглядеть так:

[math] \nabla J(\Theta) = (\dfrac{\partial J}{\partial \theta_1}, \dfrac{\partial J}{\partial \theta_2},\dots,\dfrac{\partial J}{\partial \theta_n})^T [/math].

Шаг градиентного спуска можно записать следующим образом: [math] \Theta_{t+1} = \Theta_t - \eta \nabla J(\Theta) [/math], где [math] \eta [/math] — коэффициент скорости обучения.

Измерение качества рекомендаций

Зачастую качество рекомендаций измеряется с помощью функции ошибки RMSE:

[math] RMSE = \sqrt{\dfrac{1}{|D|} \sum_{(u,i) \in D}{(\hat{r}_{ui} - r_{ui})^2}} [/math].

Данный способ, хоть и является стандартным для измерением качества, имеет ряд недостатков:

  • пользователи с большим разбросом оценок будут влиять на значение метрики больше, чем остальные;
  • ошибка в предсказании высокой оценки имеет такой же вес, что и ошибка в предсказании низкой оценки;
  • есть риск плохого ранжирования при почти идеальной RMSE и наоборот.

Существуют при этом и другие метрики — метрики ранжирования, на основе полноты и точности. Однако они не так популярны и используются значительно реже.

См. также

Примечания

Источники информации