Изменения

Перейти к: навигация, поиск

Практики реализации нейронных сетей

6 байт добавлено, 13:03, 25 декабря 2020
Нет описания правки
[[Файл:LReLuFunction.jpg|200px|thumb|right|Рис 8. Функция Leaky ReLU]]
===Функция Leaky ReLU===
Одной из проблем стандартного ReLU является затухающий, а именно нулевой, градиент при отрицательных значениях. При использовании обычного ReLU некоторые нейроны умирают, а отследить умирание нейронов не просто. Чтобы решить эту проблему иногда используется подход ReLU с «утечкой» (leak) {{- --}} график функции активации на отрицательных значениях образует не горизонтальную прямую, а наклонную, с маленьким угловым коэффициентом (порядка 0,01). То есть она может быть записана как <tex>\begin{equation}
f(x) =
\begin{cases}
101
правка

Навигация