<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.170.76.75&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.170.76.75&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/188.170.76.75"/>
		<updated>2026-04-15T19:27:17Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0&amp;diff=79701</id>
		<title>Генерация текста</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0&amp;diff=79701"/>
				<updated>2021-01-21T17:14:28Z</updated>
		
		<summary type="html">&lt;p&gt;188.170.76.75: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Задача генерации текста ==&lt;br /&gt;
&lt;br /&gt;
Одной из методик машинного обучения являются предиктивные модели, предсказывающие значения своих будущих входов. Такие модели являются мощным средством машинного обучения языку. Они должны уметь предсказывать,&lt;br /&gt;
как можно продолжить текущий отрывок текста, а в конечном итоге — уметь генерировать связный осмысленный текст.&lt;br /&gt;
&lt;br /&gt;
''' Задача генерации текста ''' включает в себя задачу [http://neerc.ifmo.ru/wiki/index.php?title=Обработка_естественного_языка обработки естественного языка] (Natural Language Processing, NLP) и реализует возможность языковой модели отвечать на вопросы, на основе исходного текста предсказывать последующее слово и генерировать осмысленный текст.&lt;br /&gt;
&lt;br /&gt;
== История создания языковых моделей ==&lt;br /&gt;
Первый алгоритм генерации текста GPT (Generative Pre-trained Transformer) выпустили в 2018 году. Его обучали на 117 миллионах параметров, что в те времена считалось хорошим показателем. На основе этой разработки, в конце 2018 года компания Google выпустила двунаправленную нейросеть [https://en.wikipedia.org/wiki/BERT_(language_model) BERT(Bidirectional Encoder Representations from Transformers)], получившую статус state-of-the-art — высшую точку развития технологии на тот момент.&lt;br /&gt;
&lt;br /&gt;
Алгоритм GPT первого поколения был обучен на выборке массивов текстов из Wikipedia и из литературных произведений. Позже создатели поняли, что это не самый оптимальный тип данных для обучения модели. Нейросеть быстрее учится понимать естественную речь на основе простых постов в интернете. Поэтому в 2019 году OpenAI обучили GPT второго поколения на данных, собранных с обычных форумов {{---}} выборка пользователей Reddit, причем обязательно с рейтингом выше среднего (как минимум 3 кармы). Последнее учитывалось, чтобы отбросить рекламные или спам-страницы и оставить только полезные. Новая версия нейросети получила название GPT-2.&lt;br /&gt;
&lt;br /&gt;
== GPT-2 ==&lt;br /&gt;
&lt;br /&gt;
'''GPT-2 (Generative Pre-trained Transformer 2)''' — это огромная языковая модель, созданная компанией [https://openai.com/ OpenAI]. Модель основана на архитектуре [https://ru.wikipedia.org/wiki/Трансформер_(модель_машинного_обучения) Transformer], с 1.5 млрд параметров, обученная на [https://openai.com/blog/better-language-models/#fn1 датасете], состоящем из 8 млн специально отобранных веб-страниц.&lt;br /&gt;
&lt;br /&gt;
==== Что умеет GPT-2 ====&lt;br /&gt;
Изначально нейросеть обучали предсказывать следующее слово в предложении. Помимо основной задачи модель качественно генерирует образцы текста из-за использования трансформерной архитектуры и обучения на большом датасете. Таким образом, GPT-2 - не просто языковая модель, а мощный генератор текстов.&lt;br /&gt;
===== Что еще умеет? =====&lt;br /&gt;
#Краткий пересказ текста или обобщение. В качестве входных данных нужно подать не просто фрагмент, а целый текст, а модель выдаст краткое содержание рассказа.&lt;br /&gt;
#Ответы на вопросы исходя из содержания текста. На входе подается несколько примеров в виде «Вопрос-Ответ», в конце же дается реальный вопрос, на который нейросеть выдает по тому же макету ответ.&lt;br /&gt;
#Перевод текстов. Механизм работы с переводами похож на механизм работы с ответами на вопросы: на вход подается примеры в виде «Слово-Перевод», в конце подается только слово, а нейросеть выдает перевод.&lt;br /&gt;
&lt;br /&gt;
==== Особенность GPT-2 ====&lt;br /&gt;
Главной особенностью GPT-2 является то, что нейросеть не нужно дообучать под конкретную задачу, чтобы та показывала нужные пользователю результаты. Нейросеть ​​приспосабливается к стилю и содержанию текста, что позволяет ей генерировать реалистичные отрывки, продолжающие исходные фразы. Сразу после обучения нейросеть уже готова сгенерировать текст со всеми логическими вставками: повторное упоминание имен героев, цитаты, отсылки, выдержка одного стиля на протяжении всего текста, связанное повествование.&lt;br /&gt;
&lt;br /&gt;
==== Исходный код ====&lt;br /&gt;
OpenAI отказались выкладывать полную версию GPT-2, так как посчитали, что ей будут пользоваться для генерации фейковых новостей. В сети доступна [https://github.com/openai/gpt-2 версия GPT-2 с уменьшенным количеством параметров] (до 117 млн параметров, вместо 1.5 млрд, как в полной модели).&lt;br /&gt;
&lt;br /&gt;
== GPT-3 ==&lt;br /&gt;
&lt;br /&gt;
'''GPT-3 (Generative Pre-trained Transformer 3)''' — третье поколение языковой модели от OpenAI. GPT-3 продолжает подход OpenAI, заложенный в GPT и GPT-2. По сравнению с GPT-2 количество используемых параметров увеличилось более чем в 100 раз: с 1,5 до 175 млрд. Для обучения алгоритма исследователи собрали датасет, состоящий из английской Википедии, которая охватывает около 6 миллионов статей, составляет всего 0,6 процента ее обучающих данных. Остальное - оцифрованные книги и различные веб-страницы. Это означает, что обучающие данные GPT-3 включают в себя не только новостные статьи, рецепты и стихи, но и руководства по кодированию, фанфики, религиозные пророчества, путеводители по певчим птицам Боливии и все остальное, что только можно представить.&lt;br /&gt;
==== Алгоритм работы ====&lt;br /&gt;
[[Медиа:https://habrastorage.org/webt/32/w2/bu/32w2bu4fmycoja-kapw6juep9oa.gif]]&lt;br /&gt;
&lt;br /&gt;
==См. также==&lt;br /&gt;
*[[Обработка естественного языка]]&lt;br /&gt;
*[[Поиск архитектуры нейронной сети]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Источники ==&lt;br /&gt;
 &lt;br /&gt;
* [https://openai.com/blog/better-language-models/ OpenAI article]&lt;br /&gt;
* [https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf Language Models are Unsupervised Multitask Learners]&lt;br /&gt;
* [https://tjournal.ru/tech/195331-neyroset-gpt-3-ot-openai-pishet-stihi-muzyku-i-kod-pochemu-ona-poka-daleka-ot-nastoyashchego-ii-no-sposobna-pomenyat-mir Neural network GPT-3]&lt;br /&gt;
* [https://ru.wikipedia.org/wiki/GPT-3 GPT-3 Wikipedia article]&lt;br /&gt;
* [https://habr.com/ru/post/514698/ Brief GPT-3 review]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>188.170.76.75</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0&amp;diff=79675</id>
		<title>Генерация текста</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%93%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0&amp;diff=79675"/>
				<updated>2021-01-21T16:29:59Z</updated>
		
		<summary type="html">&lt;p&gt;188.170.76.75: Новая страница: «== Задача генерации текста ==  Одной из методик машинного обучения являются предиктивные…»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Задача генерации текста ==&lt;br /&gt;
&lt;br /&gt;
Одной из методик машинного обучения являются предиктивные модели, предсказывающие значения своих будущих входов. Такие модели являются мощным средством машинного обучения языку. Они должны уметь предсказывать,&lt;br /&gt;
как можно продолжить текущий отрывок текста, а в конечном итоге — уметь генерировать связный осмысленный текст.&lt;br /&gt;
&lt;br /&gt;
''' Задача генерации текста ''' включает в себя задачу [http://neerc.ifmo.ru/wiki/index.php?title=Обработка_естественного_языка обработки естественного языка] (Natural Language Processing, NLP) и реализует возможность языковой модели отвечать на вопросы, на основе исходного текста предсказывать последующее слово и генерировать осмысленный текст.&lt;br /&gt;
&lt;br /&gt;
== История создания языковых моделей ==&lt;br /&gt;
Первый алгоритм генерации текста GPT (Generative Pre-trained Transformer) выпустили в 2018 году. Его обучали на 117 миллионах параметров, что в те времена считалось хорошим показателем. На основе этой разработки, в конце 2018 года компания Google выпустила двунаправленную нейросеть [https://en.wikipedia.org/wiki/BERT_(language_model) BERT(Bidirectional Encoder Representations from Transformers)], получившую статус state-of-the-art — высшую точку развития технологии на тот момент.&lt;br /&gt;
&lt;br /&gt;
Алгоритм GPT первого поколения был обучен на выборке массивов текстов из Wikipedia и из литературных произведений. Позже создатели поняли, что это не самый оптимальный тип данных для обучения модели. Нейросеть быстрее учится понимать естественную речь на основе простых постов в интернете. Поэтому в 2019 году OpenAI обучили GPT второго поколения на данных, собранных с обычных форумов {{---}} выборка пользователей Reddit, причем обязательно с рейтингом выше среднего (как минимум 3 кармы). Последнее учитывалось, чтобы отбросить рекламные или спам-страницы и оставить только полезные. Новая версия нейросети получила название GPT-2.&lt;br /&gt;
&lt;br /&gt;
== GPT-2 ==&lt;br /&gt;
&lt;br /&gt;
'''GPT-2 (Generative Pre-trained Transformer 2)''' — это огромная языковая модель, созданная компанией [https://openai.com/ OpenAI]. Модель основана на архитектуре [https://ru.wikipedia.org/wiki/Трансформер_(модель_машинного_обучения) Transformer], с 1.5 млрд параметров, обученная на [https://openai.com/blog/better-language-models/#fn1 датасете], состоящем из 8 млн специально отобранных веб-страниц.&lt;br /&gt;
&lt;br /&gt;
==== Что умеет GPT-2 ====&lt;br /&gt;
Изначально нейросеть обучали предсказывать следующее слово в предложении. Помимо основной задачи модель качественно генерирует образцы текста из-за использования трансформерной архитектуры и обучения на большом датасете. Таким образом, GPT-2 - не просто языковая модель, а мощный генератор текстов.&lt;br /&gt;
===== Что еще умеет? =====&lt;br /&gt;
#Краткий пересказ текста или обобщение. В качестве входных данных нужно подать не просто фрагмент, а целый текст, а модель выдаст краткое содержание рассказа.&lt;br /&gt;
#Ответы на вопросы исходя из содержания текста. На входе подается несколько примеров в виде «Вопрос-Ответ», в конце же дается реальный вопрос, на который нейросеть выдает по тому же макету ответ.&lt;br /&gt;
#Перевод текстов. Механизм работы с переводами похож на механизм работы с ответами на вопросы: на вход подается примеры в виде «Слово-Перевод», в конце подается только слово, а нейросеть выдает перевод.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Особенность GPT-2 ====&lt;br /&gt;
Главной особенностью GPT-2 является то, что нейросеть не нужно дообучать под конкретную задачу, чтобы та показывала нужные пользователю результаты. Нейросеть ​​приспосабливается к стилю и содержанию текста, что позволяет ей генерировать реалистичные отрывки, продолжающие исходные фразы. Сразу после обучения нейросеть уже готова сгенерировать текст со всеми логическими вставками: повторное упоминание имен героев, цитаты, отсылки, выдержка одного стиля на протяжении всего текста, связанное повествование.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Исходный код ====&lt;br /&gt;
OpenAI отказались выкладывать полную версию GPT-2, так как посчитали, что ей будут пользоваться для генерации фейковых новостей. В сети доступна [https://github.com/openai/gpt-2 версия GPT-2 с уменьшенным количеством параметров] (до 117 млн параметров, вместо 1.5 млрд, как в полной модели).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== GPT-3 ==&lt;br /&gt;
&lt;br /&gt;
'''GPT-3 (Generative Pre-trained Transformer 3)''' — третье поколение языковой модели от OpenAI. GPT-3 продолжает подход OpenAI, заложенный в GPT и GPT-2. GPT-3 генерирует текст на основе 175 миллиардов параметров&lt;br /&gt;
&lt;br /&gt;
==См. также==&lt;br /&gt;
*[[Обработка естественного языка]]&lt;br /&gt;
*[[Поиск архитектуры нейронной сети]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&lt;br /&gt;
== Источники ==&lt;br /&gt;
 &lt;br /&gt;
* [https://openai.com/blog/better-language-models/ OpenAI article]&lt;br /&gt;
* [https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf Language Models are Unsupervised Multitask Learners]&lt;br /&gt;
* [https://tjournal.ru/tech/195331-neyroset-gpt-3-ot-openai-pishet-stihi-muzyku-i-kod-pochemu-ona-poka-daleka-ot-nastoyashchego-ii-no-sposobna-pomenyat-mir Neural network GPT-3]&lt;br /&gt;
* [https://ru.wikipedia.org/wiki/GPT-3 GPT-3 Wikipedia article]&lt;br /&gt;
* [https://habr.com/ru/post/514698/ Brief GPT-3 review]&lt;br /&gt;
&lt;br /&gt;
[[Категория: Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>188.170.76.75</name></author>	</entry>

	</feed>