Изменения

Перейти к: навигация, поиск

Глубокое обучение

6 байт добавлено, 16:28, 6 декабря 2018
м
История
Стоит отметить, что первый общий рабочий алгоритм для глубоких многослойных перцептронов прямого распространения был опубликован в книге советских учёных Алексея Григорьевича Ивахненко и Валентина Григорьевича Лапы «Кибернетические предсказывающие устройства». Сам термин «глубокое обучение» появился в научном сообществе машинного обучения в 1986 году в работе израильско-американской ученой Рины Дехтер «Learning While Searching in Constraint-Satisfaction-Problems»<ref>[https://www.researchgate.net/publication/221605378_Learning_While_Searching_in_Constraint-Satisfaction-Problems Learning While Searching in Constraint-Satisfaction-Problems]</ref>.
Многие архитектуры глубокого обучения берут своё начало с искусственной нейронной сети Neocognitron<ref>[https://en.wikipedia.org/wiki/Neocognitron Neocognitron, Wikipedia]</ref>, представленной в 1980 году Кунихикой Фукусимой. Особенное влияние данная сеть оказала на архитектуры, использующиеся для компьютерного зрения. В 1989 году Яну Лекуну удалось использовать алгоритм обратного распространения ошибки для обучения глубоких нейросетей для решения задачи распознавания рукописных ZIP-кодов<ref>[https://www.ics.uci.edu/~welling/teaching/273ASpring09/lecun-89e.pdf Backpropagation Applied to Handwritten Zip Code Recognition]</ref>. Хотя алгоритм работал, на его обучение потребовалось 3 дня, что существенно ограничевало применимость данного метода. Из-за низкой скоростя скорости обучения нейронные сети в 1990-х годах уступили место методу опорных векторов.
Популярность глубокое обучение приобрело в середине 2000-х годов. Этому способстовали способствовали несколько факторов:
* появились более мощные компьютеры, способные обучать большие нейронные сети;
* появились новые датасеты, достаточные по объёму, чтобы обучение больших сетей имело смысл;
* произошли существенные продвижения в теории искусственных нейронных сетей. В появихшихся появившихся статьях авторы показали, что можно эффективно предобучать многослойную нейронную сеть, если обучать каждый слой отдельно при помощи ограниченной машины Больцмана, а затем дообучать при помощи метода обратного распространения ошибки;* технология привлекли внимание крупных медиа, {{---}} первым из мировых СМИ об этом написал The New York Times.
== Определение ==
174
правки

Навигация