Изменения

Перейти к: навигация, поиск

Batch-normalization

322 байта добавлено, 14:15, 9 января 2019
Идея
Нормализация батчей уменьшает величину, на которую смещаются значения узлов в скрытых слоях (т.н. смещение ковариации (англ. covariance shift)). Проиллюстрируем смещение ковариации примером. Пусть есть глубокая нейронная сеть, которая обучена обнаруживать кошек на изображении. И нейронная сеть была обучена на изображении только черных кошек. Теперь, если попытаться использовать обученную модель для обнаружения цветных кошек, то, очевидно, результат будет неудовлетворительный. Обучающая и тестовая выборки содержат изображения кошек, но немного отличаются. Другими словами, если модель обучена отображению из множества <tex>X</tex> в множество <tex>Y</tex> и если распределение элементов в <tex>X</tex> изменяется, то появляется необходимость обучить модель заново, чтобы "выровнять" распределение элементов в <tex>X</tex> и <tex>Y</tex>.
Кроме того, нормализация батчей имеет несколько приемуществ:* более быстрая сходимость моделей, несмотря на добавление новых вычислений;* позволяет каждому слою сети обучатся более независимо от других слоев. Также, ;* становится возможно использование более высокого коэффициента скорости обучения, так как нормализация батчей гарантирует, что выходы узлов нейронной сети не будут иметь слишком больших или малых значений. ; Нормализация * нормализация батчей в каком-то смысле также является механизмом регуляризации. Данный : данный метод привносит в выходы узлов скрытых слоев некоторый шум, аналогично методу dropout;* модели становятся менее чувствительны к начальной инициализации весов.
==Описание метода==
210
правок

Навигация