Изменения
→Обучение нейронных сетей с пакетной нормализацией
{| cellpadding = "20" class = "wikitable"
! Шаг !! Изображение !! Описание
|-
|1
|[[Файл:step9.png|300px]]
|Сначала вычисляется производная по параметру <tex>\beta</tex>, как в уравнении <tex>(6)</tex>, так как к нему применяется только операции суммирования. И значение градиента выхода передается без изменений.
|-
|2
|[[Файл:step8.png|300px]]
|Далее, пользуясь правилом вычисления производной при умножении, как в уравнении <tex>(5)</tex>, вычисляется градиент по параметру <tex>\gamma</tex>. Градиент выхода умножается на данную константу, получая уравнение <tex>(1)</tex>, и передается в следующий узел.
|-
|3
|[[Файл:step7.png|300px]]
|Данный шаг вычисляется аналогично предыдущему, применяя правило вычисления производной при умножении.
|-
|4
|[[Файл:step6.png|300px]]
|Пользуясь производной обратной величины, вычисляем следующий узел графа.
|-
|5
|[[Файл:step5.png|300px]]
|Вычисляем производную квадратного корня с добавлением <tex>\epsilon</tex>.
|-
|6
|[[Файл:step4.png|300px]]
|Вычисляем производную суммы по всем компонентам входного вектора, получая матрицу.
|-
|7
|[[Файл:step3.png|300px]]
|Получаем производную квадрата входящей функции.
|-
|8
|[[Файл:step2.png|300px]]
|На данном шаге в одном узле сходятся ветки, поэтому полученные производные просто складываются, получая уравнение <tex>(2)</tex> для производной по дисперсии.
|-
|9
|[[Файл:step1.png|300px]]
|Аналогично шагу 4 6 вычисляем матрицу по сумме для производной по математическому ожиданию, получая формулу <tex>(3)</tex>.
|-
|10
|[[Файл:step0.png|300px]]
|В начальной вершине получаем уравнение <tex>(4)</tex>, складывая входящие производные.