<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=178.71.230.227&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=178.71.230.227&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/178.71.230.227"/>
		<updated>2026-04-22T21:57:42Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%B5%D0%B4%D1%81%D1%82%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D1%81%D0%BB%D0%BE%D0%B2&amp;diff=70123</id>
		<title>Векторное представление слов</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%B5%D0%B4%D1%81%D1%82%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D1%81%D0%BB%D0%BE%D0%B2&amp;diff=70123"/>
				<updated>2019-03-02T08:47:14Z</updated>
		
		<summary type="html">&lt;p&gt;178.71.230.227: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Статья находится в разработке'''&lt;br /&gt;
&lt;br /&gt;
'''Векторное представление слов''' - общее название для различных подходов к моделированию языка и обучению представлений в обработке естественного языка, направленных на сопоставление словам (и, возможно, фразам) из некоторого словаря векторов из значительно меньшего количества слов в словаре. Для этого используют нейронные сети, методы понижения размерности в применении к матрицам совместных упоминаний слов (word co-occurrence matrices) и явные представления, обучающиеся на контекстах упоминаний слов (explicit representations).&lt;br /&gt;
&lt;br /&gt;
TODO:&lt;br /&gt;
tf-idf&lt;br /&gt;
cosinus measure&lt;br /&gt;
bag-of-words (BOW)&lt;br /&gt;
continuous BOW&lt;br /&gt;
N-gram&lt;br /&gt;
skip-gram&lt;br /&gt;
word2vec with skip-grams learning&lt;br /&gt;
&lt;br /&gt;
== One-hot encoding ==&lt;br /&gt;
Наиболее простой способ представления слов в виде векторов. Пусть число различных слов равно |V|. Сопоставим слову номер i вектор длины |V|, в котором i-тая координата равна 1, а все остальные - нули. Недостатком подходя является то, что близкие по смыслу слова обладают совершенно разными векторами, из-за чего не получится искать синонимы слов.&lt;br /&gt;
&lt;br /&gt;
[[Файл:One-hot-encoding.png|300px]]&lt;br /&gt;
&lt;br /&gt;
== word2vec ==&lt;br /&gt;
word2vec - способ построения сжатого пространства векторов слов. Принимает на вход большой текстовый корпус и сопоставляет каждому слову вектор. Сначала он создает словарь, «обучаясь» на входных текстовых данных, а затем вычисляет векторное представление слов. Векторное представление основывается на контекстной близости: слова, встречающиеся в тексте рядом с одинаковыми словами (а следовательно, имеющие схожий смысл), в векторном представлении будут иметь близкие координаты векторов-слов. В word2vec существуют две основных модели обучения: skip-grams и CBOW (Continuous Bag of Words). В модели skip-grams по слову предсказываются слова из его контекста, а в модели CBOW по контексту подбирается наиболее вероятное слово. &lt;br /&gt;
&lt;br /&gt;
Полученные векторы-слова могут быть использованы для вычисления «семантического расстояния» между словами. После обучения векторы отражают различные грамматические и семантические концепции.&lt;br /&gt;
&lt;br /&gt;
W_{king} - W_{man} + W_{woman} = W_{queen}&lt;br /&gt;
W_{shirt} - W_{clothing} + W_{furniture} = W_{chair}&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Обработка естественного языка]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Источники информации ==&lt;br /&gt;
# [https://fasttext.cc/] {{---}} fastText by Facebook&lt;/div&gt;</summary>
		<author><name>178.71.230.227</name></author>	</entry>

	</feed>