Изменения

Перейти к: навигация, поиск

Распознавание речи

159 байт убрано, 18:57, 24 января 2021
Конформер
Однако, с использованием механизма повторения возникает новая проблема: при использовании исходного позиционного кодирования каждый сегмент кодируется отдельно, и в результате токены из разных сегментов закодированы одинаково.
Относительное позиционное кодирование основано на относительном расстоянии между токенами. Для подсчета оценки, на основании которой на некоторое скрытое состояние будет "обращено внимание"почти полностью совпадает с абсолютным позиционным кодированием из оригинального Трансформера, но вместо позиции внутри сегмента используется относительное расстояние между токенами вместо абсолютного положения текущего токенасегментами. Кроме того, а также добавляются два вектора параметров: первый регулирует , задающие важность расстояния и содержания другого второго токена, а второй — важность расстояния между токенамиотносительно первого.
Использование модуля многоголового самовнимания с относительным позиционным кодированием позволяет сети лучше обучаться при различной длине ввода, а результирующая архитектура получается более устойчивой к неоднородности длины высказывания.
Анонимный участник

Навигация