162
правки
Изменения
Нет описания правки
== Пример использования для архитектуры ''Seq2Seq'' ==
Пример добавления механизма внимания в ''Seq2Seq'' сеть поможет лучше понять его предназначение.
Изначально в оригинальной статье<ref>[https://arxiv.org/abs/1409.0473|Neural Machine Translation by Jointly Learning to Align and Translate]</ref> применяется механизм внимания в контексте именно Seq2Seq сети.
Несмотря на то, что нейронные сети рассматриваются как "черный ящик" и интерпретировать их внутренности в понятных человеку терминах часто невозможно, все же механизм внимания интуитивно понятный людям смог улучшить результаты машинного перевода для алгоритма используемого в статье.