Изменения

Перейти к: навигация, поиск

Рекомендательные системы

397 байт убрано, 21:57, 18 декабря 2020
Решение проблемы матрицы оценок
==Решение проблемы матрицы оценок==
Для решения проблем, связанных с матрицей оценок <tex>R</tex>, воспользуемся [[Регуляризация | регуляризацией]].
{{Определение|definition='''Регуляризация''' (англ. ''regularization'') в статистике, машинном обучении, теории обратных задач — метод добавления некоторых дополнительных ограничений к условию с целью решить некорректно поставленную задачу или предотвратить переобучение. Чаще всего эта информация имеет вид штрафа за сложность модели.}} Модель будет зависить зависеть от ногих следующих параметров {{---}} : вектора пользователей и вектора объектов. Для заданных параметров, возьмем вектор пользователя, и вектор объекта и , а затем для предсказания оценки получим их скалярное произведение, чтобы предсказать оценку:
<tex> \hat{r}_{ui}(\Theta) = p^T_uq_i </tex>
<tex> \Theta = {p_u,q_i | \mid u \in U, i \in I} </tex>
Но вектора пока не известны, их нужно получить. Имеются оценки пользователей, при помощи которых можно можно найти оптимальные параметры, при которых модель предскажет оценки наилучших наилучшим образом:
<tex> E_{(u,i)}(\hat{r}_{ui}(\Theta) - r_{ui})^2 \to min_{\Theta} </tex>.
То есть, нужно найти такие параметры <tex> \Theta </tex>, чтобы квадрат ошибки был наименьшим. Однако ситуация следующая: оптимизация приведет к наименьшим ошибкам в будущем, но как именно оценки будут спрашивать {{---}} неизвестно. Следовательно, это нельзя оптимизировать. Однако, так как оценки , уже проставленные пользователями , известны, постараемся минимизировать ошибку на тех данных, что у нас уже есть. Так же добавим регуляризатор.
<tex> \sum_{(u,i) \in D}{(\hat{r}_{ui}(\Theta) - r_{ui})^2} + \lambda \sum_{\theta \in \Theta}{\theta^2} \to min_{\Theta} </tex>
442
правки

Навигация