Изменения

Перейти к: навигация, поиск

Многопоточность в машинном обучении

315 байт добавлено, 09:40, 8 января 2021
См. также
Первый вариант распараллеливания задачи — добавление параллелизма в алгоритм в явном виде, например, параллельная оптимизация большего количества переменных в SMO<ref>[https://publikationen.uni-tuebingen.de/xmlui/bitstream/handle/10900/49015/pdf/tech_21.pdf Parallel Support Vector Machines]</ref>.
Второй подход — запись алгоритма через матричные операции, которые легко параллелизируемы<ref>[https://www.researchgate.net/publication/6265163_Multiplicative_Updates_for_Nonnegative_Quadratic_Programming Multiplicative Updates for Nonnegative Quadratic Programming]</ref>.
==См. также==*Стохастический градиентный спуск*Кросс-валидация*Настройка гиперпараметров*Метод опорных векторов (SVM)*Метрический классификатор и метод ближайших соседей
== Источники информации ==
# [http://www.cs.cornell.edu/courses/cs4787/2019sp/notes/lecture1.pdf Principles of Large-Scale Machine Learning]
118
правок

Навигация