113
правок
Изменения
Нет описания правки
Одним из важнейших аспектов глубокой нейронной сети являются функции активации.
{{Определение
|definition= '''Функция активации''' (англ. ''activation function'') определяет зависимость выходного сигнала нейронов выходной сигнал нейрона в зависимости от входного сигнала или набора входных сигналов.}}Рассмотрим нейрон Z с выходным значением <math>Z = \sum\limits_{i} w_{i}x_{i} + bias</math>, где <tex>w_{i}</tex> и <tex>x_{i}</tex> {{---}} вес и входное значение <tex>i</tex>-ого входа, а <tex>bias</tex> {{---}} смещение. Полученный результат передается в функцию активации, которая решает рассматривать этот нейрон как активированный, или его можно игнорировать.Ниже представлены распространенные функции активации.
=== Sigmoid / Logistic function ===У ступенчатых функций есть определенное количество ограничений, связанных с ее линейностью. Если функция активации является линейной, то независимо от количества складываемых скрытых слоев в нейронной сети, конечный результат по-прежнему будет являться линейной комбинацией исходных входных данных. Эта линейность означает, что она не может реально охватить сложность нелинейных задач, таких как оператор XOR или различные паттерны, разделенные кривыми или кругами. Другой проблемой является то, что перцептрон с со ступенчатой функцией не очень «стабилен», то есть может перейти из состояния 0 в 1 и из 0 в 1 при небольших изменениях в любом из весов входного слоя.
Для того, чтобы избежать данных проблем, в нейронных сетях используется sigmoid сигмоидная функция в качестве активационной. Также ее еще называют логистической.
[[Файл:sigmoid_function.png|border|500px|thumb|center|Рис 1. Sigmoid Function]]
=== Rectified Linear Units (ReLU) ===
Функция ReLU отлично работает в большинстве приложений, в результате чего она получила широкое распространение. Данная функция позволяет правильно учитывать нелинейности и взаимодействия.
=== Tanh TanH function ===
== См. также==