Изменения

Перейти к: навигация, поиск

Batch-normalization

195 байт убрано, 19:08, 9 января 2019
Описание метода
Заметим, что если <tex>\beta=\mu_{B}</tex> и <tex>\gamma=\sqrt{\sigma_{B}^{2} + \epsilon}</tex>, то <tex>y_{i}</tex> равен <tex>x_{i}</tex>, то есть <tex>BN_{\gamma, \beta}(\cdot)</tex> является тождественным отображением.
Таким образом, использование нормализации батчей не может привести к снижению точности, поскольку оптимизатор по-прежнему просто может выбирать использование нормализации, используя ее использовать нормализацию как тождественным отображением, и она будет использоваться оптимизатором только для улучшения результатовтождественное отображение.
==Обучение нейронных сетей с нормализацией батчей==
210
правок

Навигация