Изменения

Перейти к: навигация, поиск

Порождающие модели

697 байт добавлено, 21:17, 16 февраля 2020
Вычисление распределения
[[Файл:Generative_v_discriminative.png|420px|thumb|right|Порождающая модель пытается генерировать убедительные рукописные 0 и 1, для этого моделирует распределение по всему пространству данных. Напротив, дискриминативная модель старается разделить данные, без необходимости точно моделировать, как объекты размещаются по обе стороны от линии.]] '''Порождающие модели''' (англ. ''generative model'') {{---}} это класс моделей совместного распределения вероятностей <tex>p(x, y)</tex> для генерации новых объектов на основе исходных данных. Порождающая модель может генерировать новые фотографии животных, которые выглядят как настоящие животные, в то время как дискриминативная модель (англ. ''discriminative model'')<ref>[https://en.wikipedia.org/wiki/Discriminative_model Discriminative model]</ref> может отличить собаку от кошки. 
'''Порождающие модели''' (англ. ''generative model'') {{---}} это класс моделей, которые обучают ''совместное'' распределение<ref> [https://en.wikipedia.org/wiki/Joint_probability_distribution Joint probability distribution]</ref> данных <tex>p(x, y)</tex>; отсюда легко получить ''условное'' распределение <tex>p(y | x)={p(x, y)\over p(x)}</tex>, но совместное даёт больше информации и его можно использовать, например, для ''генерации'' новых фотографий животных, которые выглядят как настоящие животные.
С другой стороны, дискриминативная модель (англ. ''discriminative model'')<ref> [https://en.wikipedia.org/wiki/Discriminative_model Discriminative model]</ref> обучает только ''условное'' распределение и может, например, отличить собаку от кошки.
== Классификация задачи ==
Мы хотим научиться создавать правдоподобный объект относительно некоторой скрытой структуры исходных объектов. Давайте изучим распределение по ним, а затем просто будем сэмплировать новый объект из этого распределения. Значит эта задача относится к классу задач [[Общие понятия#Обучение без учителя (англ. Unsupervised learning)|обучения без учителя]].
== Вычисление плотности распределения ==[[Файл:TaxonomyTax2.pngjpg|500px|thumb|right]]С математической точки зрения основная цель порождающей модели обычно состоит в максимизации функции правдоподобия: для набора данных
Оценка плотности распределения является основной задачей порождающих моделей.
== См. также ==
*[[Байесовская классификация#Наивный байесовский классификатор|Наивный байесовский классификатор(как пример простейшей порождающей моделипростейшая порождающая модель)]]
== Примечания ==
*[https://towardsdatascience.com/generating-passwords-with-generative-models-from-probabilistic-to-deep-learning-approaches-54d41d8810e3 Примеры генерации паролей на основе исходного распределения]
 
== Примечания ==
<references/>
*[https://en.wikipedia.org/wiki/Generative_model Generative_model]
*[https://developers.google.com/machine-learning/gan/generative Google courses с примерами на понимание]
*[https://arxiv.org/abs/1701.00160 NIPS 2016 Tutorial: Generative Adversarial Networks(Ian Goodfellow, 2016)]
[[Категория: Машинное обучение]]
[[Категория: Порождающие модели]]
76
правок

Навигация