Изменения
→Пакетный градиентный спуск (Batch Gradient Descent)
Когда скорость обучения <tex>\gamma_t</tex> достаточно мала, алгоритм сходится к локальному минимуму эмпирического риска <tex>\hat{J_L}(w)</tex>. Значительное ускорение сходимости может быть достигнуто путем замены скорости обучения <tex>\gamma_t</tex> подходящей положительно определенной матрицей.
=== Градиентный спуск в реальном времени (Online Gradient Descent) ===