162
правки
Изменения
Нет описания правки
==Обобщенный механизм внимания==
'''Обобщенный механизм внимания''' (англ. general attention) {{---}} один из видов разновидность внимания, при котором выясняются задачей которой является выявление закономерности между входными и выходными данными. Изначально механизм внимания представленный в оригинальной подразумевал именно этот тип внимания.
===Пример использования обобщенного механизма внимания для задачи машинного перевода===
==Self-Attention==
[[File:TransformerSelfAttentionVisualization.png|450px|thumb|Пример работы ''Self-Attention'']]
'''Self-Attention''' {{---}} разновидность внимания, задачей которой является выявление закономерности только между входными данными. Был представлен как один из способов повышения производительности в задачах [[:Обработка_естественного_языка|обработки естественного языка]], где ранее использовались [[:Рекуррентные_нейронные_сети|RNN]] в виде архитектуры трансформеров<ref>https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf</ref>.
==См. также==