Изменения

Перейти к: навигация, поиск

Batch-normalization

16 байт добавлено, 17:23, 9 января 2019
Нормализация батчей в свёрточных сетях
<tex>z = g(Wu + b)</tex>,
где <tex>W</tex> и <tex>b</tex> {{---}} настраиваемые параметры модели, а <tex>g(\cdot)</tex> {{---}} некоторая нелинейная функция, например cигмоида или ReLU. Данной функцией можно описать как обычные, так и сверточные слои нейронных сетей. Так, нормализация батчей применяется сразу перед нелинейной функцией <tex>g(\cdot)</tex> к <tex>x = Wu + b</tex>. Параметр <tex>b</tex> может быть проигнорирован последующим вычитание математического ожидания (затем роль этого параметра будет играть <tex>\beta</tex>). Поэтому <tex>z = g(Wu + b)</tex> может быть записано так:
<tex>z = g(BN(Wu))</tex>,
Анонимный участник

Навигация