Изменения

Перейти к: навигация, поиск

Механизм внимания

114 байт добавлено, 19:50, 2 декабря 2020
м
Источники информации
*[https://towardsdatascience.com/intuitive-understanding-of-attention-mechanism-in-deep-learning-6c9482aecf4f Статья с подробно разборанными примерами и кодом на ''Python'' и ''TensorFlow'']
*[http://jalammar.github.io/illustrated-transformer/ Статья c примерами работы Self-attention]
*[https://arxiv.org/pdf/1807.06521.pdf Статья о сверточном модуле внимания (CBAM)]
==Примечания==
85
правок

Навигация