Изменения

Перейти к: навигация, поиск

Векторное представление слов

9 байт добавлено, 19:49, 11 января 2021
BERT
{{main|Bert}}
[[File:Bert.png|500px|thumb|Архитектура BERT]]
<i>BERT</i> {{- --}} это модель предварительного обучения NLP, представляющая собой многослойный двунаправленный [[:Автокодировщик|кодировщик]] Transformer. В данной архитектуре используется двунаправленное [[:Механизм внимания|самовнимание]]. Модель используется в совокупности с некоторым классификатором, на вход которого подается результат работы <i>BERT</i> {{--- }} векторное представление входных данных.
В основе обучения модели лежат две идеи для обучения.
Для каждой позиции на выход подается вектор размерностью <math>hiddenSize</math> (<math>768</math> в базовой модели).
Этот вектор может быть использован как входной вектор для классификатора.
== См. также ==
38
правок

Навигация