Изменения

Перейти к: навигация, поиск

Глубокое обучение

1939 байт добавлено, 20:27, 4 декабря 2018
Нет описания правки
== История ==
Термин «глубокое обучение» появился в научном сообществе машинного обучения в 1986 году в работе израильско-американского ученой Рины Дехтер «Learning While Searching in Constraint-Satisfaction-Problems»<ref>[https://www.researchgate.net/publication/221605378_Learning_While_Searching_in_Constraint-Satisfaction-Problems Learning While Searching in Constraint-Satisfaction-Problems]</ref>. Стоит отметить, что первый общий рабочий алгоритм для глубоких многослойных перцептронов прямого распространения был опубликован в книге советских учёных Алексея Григорьевича Ивахненко и Валентина Григорьевича Лапы «Кибернетические предсказывающие устройства». Многие архитектуры глубокого обучения появились с искусственной нейронной сети Neocognitron<ref>[https://en.wikipedia.org/wiki/Neocognitron Neocognitron, Wikipedia]</ref>, представленной в 1980м году Кунихикой Фукусимой. Особенное влияние данная сеть оказала на архитектуры, использующиеся для компьютерного зрения. В 1989 Ян ЛуКон применил к глубокой нейронной сети стандарный алгоритм обратного распространения с целью распознавания рукописных почтовых индексов по почте. Хотя алгоритм работал, на его обучение потребовалось 3 дня.  == Определение == ...
== Разделы ==
Анонимный участник

Навигация