Изменения

Перейти к: навигация, поиск

Batch-normalization

346 байт добавлено, 11:32, 10 января 2019
Нет описания правки
==Примеры==
[[Файл:bn_exp_1.png|800px|thumb|Точность распознавания в зависимости от итерации обучения. Оранжевая кривая изображает кривую для модели с использованием нормализации батчей, синяя кривая {{---}} без.]]
 
Приведем пример демонстрирующий работу нормализации батчей. Рассмотрим задачу распознавания рукописных цифр на известном датасете MNIST. Для решения задачи будет использоваться обычная нейронная сеть с <tex>3</tex> скрытыми полносвязными слоями по <tex>100</tex> узлов в каждом. Функция активации {{---}} ReLU. Выходной слой содержит <tex>10</tex> узлов. Размер батча равен <tex>60</tex>. Сравнивается две одинаковые модели, но в первой перед каждым скрытым слоем используется нормализация батчей, а во второй {{---}} нет. Коэффициент скорости обучения равен <tex>0.01</tex>. Веса инициализированы значениями с малой дисперсией. На рисунке изображены два графика, показывающий разницу между моделями.
210
правок

Навигация