76
правок
Изменения
→Таксономия порождающих моделей
Основная альтернатива всему этому состоит в том, чтобы использовать ''неявные'' порождающие модели, в которых мы не пытаемся получить функцию, подсчитывающую плотность нужного распределения в каждой точке, а просто моделируем то, что нам от этой модели нужно. Например, если мы хотим просто научиться порождать фотографии милых котиков, нам не так важно иметь явную функцию плотности <tex>p(x)</tex>, которая могла бы сказать, насколько вероятно, что перед нами котик, - вполне достаточно просто уметь генерировать новые <tex>x \sim p(x)</tex>.
В классическом байесовском выводе сэмплирование из сложных многомерных распределений делается с помощью марковских цепей: попробуем построить марковскую цепь, которая описывает случайное блуждание под графиком плотности распределения; если достаточно долго блуждать под графиком плотности <tex>p(x)</tex>, можно будет считать, что полученная точка представляет собой случайную точку, взятую по распределению р<tex>p(хx)</tex>. Такой подход называется МСМС<ref>[https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo Markov chain Monte Carlo(МСМС)]</ref>-методами. Попытки моделировать эту марковскую цепь глубокой сетью известны Порождающие стохастические сети(англ. ''Generative Stochastic Networks'')
== Глубокие порождающие модели на основе нейронных сетей ==