Изменения

Перейти к: навигация, поиск

Практики реализации нейронных сетей

85 байт добавлено, 12:42, 25 декабря 2020
Нет описания правки
Функцию активации ReLU следует использовать, если нет особых требований для выходного значения нейрона, вроде неограниченной области определения. Но если после обучения модели результаты получились не оптимальные, то стоит перейти к другим функциям, которые могут дать лучший результат.
[[Файл:LReLuFunction.jpg|200px|thumb|right|Рис 8. Функция Leaky ReLU]]
===Функция Leaky ReLU===
Одной из проблем стандартного ReLU является затухающий, а именно нулевой, градиент при отрицательных значениях. При использовании обычного ReLU некоторые нейроны умирают, а отследить умирание нейронов не просто. Чтобы решить эту проблему иногда используется подход ReLU с «утечкой» (leak) - график функции активации на отрицательных значениях образует не горизонтальную прямую, а наклонную, с маленьким угловым коэффициентом (порядка 0,01). То есть она может быть записана как <tex>\begin{equation}
101
правка

Навигация