Изменения

Перейти к: навигация, поиск

Инициализация параметров глубокой сети

1 байт добавлено, 22:28, 12 мая 2022
м
fix 6
*<tex>w_i \sim \mathcal N(0,\frac{2}{n_{in}+n_{out}})</tex>
Этот способ инициализации хорошо подойдет для симметричных относительно нуля функций активации (например гиперболический тангенс, сигмоид), для ReLU<ref>[https://en.wikipedia.org/wiki/Rectifier_(neural_networks) ReLU, Wikipedia]</ref> данный способ не подходит.
====Пример инициализации Xavier на языке Python с фреймворком PyTorch====
50
правок

Навигация