Изменения

Перейти к: навигация, поиск

Механизм внимания

2 байта убрано, 12:36, 22 марта 2020
Нет описания правки
==Пример использования для задачи машинного перевода в ''Seq2seq'' сетях==
Пример добавления механизма внимания в ''Seq2seq'' сеть поможет лучше понять его предназначение.
Изначально в оригинальной статье<ref>[https://arxiv.org/abs/1409.0473 Neural Machine Translation by Jointly Learning to Align and Translate]</ref>, представляющей механизм внимания, он применяется в контексте именно Seq2seq сети в задаче машинного перевода.
Несмотря на то, что нейронные сети рассматриваются как "черный ящик" и интерпретировать их внутренности в понятных человеку терминах часто невозможно, все же механизм внимания интуитивно понятный людям смог улучшить результаты машинного перевода для алгоритма используемого в статье.
162
правки

Навигация