Изменения
Перейти к:
навигация
,
поиск
← Предыдущая правка
Следующая правка →
Рекомендательные системы
246 байт убрано
,
00:00, 25 декабря 2020
→
Численная оптимизация
Шаг градиентного спуска можно записать следующим образом: <tex> \Theta_{t+1} = \Theta_t - \eta \nabla J(\Theta) </tex>.
Проблема заключается в том, что алгоритм не работает достаточно быстро, а минимумы которые он находит {{---}} локальные, а не глобальные.
==Измерение качества рекомендаций==
Ponomarev
442
правки
Навигация
Персональные инструменты
Создать учётную запись
Войти
Пространства имён
Статья
Обсуждение
Варианты
Просмотры
Читать
Просмотр вики-текста
История
Ещё
Поиск
Навигация
Заглавная страница
Свежие правки
Случайная статья
Справка
Инструменты
Спецстраницы