113
правок
Изменения
Нет описания правки
== Аугментация данных ==== Дропаут ====Функции активации==Одним из важнейших аспектов глубокой нейронной сети является являются функции активации.{{Определение|definition= '''функция Функция активации'''<ref>[https://en(англ.wikipedia.org/wiki/Activation_function Activation ''activation function. Wikipedia]</ref>, которая '') определяет зависимость выходного сигнала нейронов от входного сигнала или набора входных сигналов.}},
Ниже представлены распространенные функции активации.
=== Sigmoid function ===
У ступенчатых функций есть определенное количество ограничений, связанных с ее линейностью. Если функция активации является линейной, то независимо от количества складываемых скрытых слоев в нейронной сети, конечный результат по-прежнему будет являеться являться линейной комбинацией исходных входных данных. Эта линейность означает, что она не может реально охватить сложность нелинейных задач, таких как оператор XOR или различные паттерны, разделенные кривыми или кругами. Другой проблемой является то, что перцептрон с ступенчатой функцией не очень «стабилен», то есть может перейти из состояния 0 в 1 и из 0 в 1 при небольших изменениях в любом из весов входного слоя.
Для того, чтобы избежать данных проблем, в нейронных сетях используется sigmoid функция в качестве активационной.
Функция ReLU имеет производную равную 0 для всех отрицательных значениях и 1 для положительных. Таким образом, когда обучение происходит на датасетах разумного размера, обычно находятся точки данных, дающие положительные значения для любого выбранного узла. Таким образом, средняя производная редко бывает близка к 0, что позволяет продолжать градиентный спуск.
[[Файл:Relu.png|500px|thumb|center|Рис 2. Rectified Linear Units]]
Функция ReLU отлично работает в большинстве приложений, в результате чего она получила широкое распространение. Данная функция позволяет правильно учитывать нелинейности и взаимодействия.
=== Tanh function ===
== См. также==
== Примечания ==
<references />
== Источники информации ==