Изменения

Перейти к: навигация, поиск

Механизм внимания

Нет изменений в размере, 01:17, 22 марта 2020
Нет описания правки
== Пример использования для архитектуры ''Seq2Seq'' ==
Пример добавления механизма внимания в ''Seq2Seq'' сеть поможет лучше понять его предназначение.
Изначально в оригинальной статье<ref>[https://arxiv.org/abs/1409.0473|Neural Machine Translation by Jointly Learning to Align and Translate]</ref> применяется механизм внимания в контексте именно Seq2Seq сети.
Несмотря на то, что нейронные сети рассматриваются как "черный ящик" и интерпретировать их внутренности в понятных человеку терминах часто невозможно, все же механизм внимания интуитивно понятный людям смог улучшить результаты машинного перевода для алгоритма используемого в статье.
162
правки

Навигация