Изменения

Перейти к: навигация, поиск

Механизм внимания

35 байт добавлено, 23:35, 21 марта 2020
Нет описания правки
== Пример использования для архитектуры ''Seq2Seq'' ==
Пример добавления механизма внимания в ''Seq2Seq'' сеть поможет лучше понять его предназначение.
Изначально в оригинальной статье <ref>[https://arxiv.org/abs/1409.0473|Neural Machine Translation by Jointly Learning to Align and Translate] </ref> применяется механизм внимания в контексте именно Seq2Seq сети.
Несмотря на то, что нейронные сети рассматриваются как "черный ящик" и интерпретировать их внутренности в понятных человеку терминах часто невозможно, все же механизм внимания интуитивно понятный людям смог улучшить результаты машинного перевода для алгоритма используемого в статье.
162
правки

Навигация