Изменения

Перейти к: навигация, поиск

Механизм внимания

24 байта добавлено, 15:30, 9 декабря 2020
м
Convolutional Block Attention Module
===Convolutional Block Attention Module===
[[Файл:ConvolutionalBlockAttentionModule.png|600px|thumb|right|Сверточный модуль внимания]]
'''Convolutional Block Attention Module''' {{---}} простой, но эффективный модуль внимания для [[:Сверточные_нейронные_сети|сверточных нейросетей]]. Данный модуль внимания состоит из двух последовательно применяемых подмодулей {{- --}} канального (''Channel Attention Module'', применяется ко всем каналам одного пикселя с изображения) и пространственного (''Spatial Attention Module'', применяется ко всему изображению с фиксированным каналом).
Более формально говоря: на вход подается множество признаков <math>F \in \mathbb{R}^{C \times H \times W}</math>, где <math>C</math> {{- --}} число каналов, <math>H</math> {{--- }} высота, а <math>W</math> {{--- }} длина изображения. Канальный подмодуль <math>A_1(F)</math> принадлежит множеству <math>\mathbb{R}^{C \times 1 \times 1}</math>, а пространственный <math>A_2(F)</math> принадлежит множеству <math>\mathbb{R}^{1 \times H \times W}</math>. Таким образом применение модуля можно описать так:
*<math>F_1 = A_1(F) \otimes F</math>
85
правок

Навигация