Изменения

Перейти к: навигация, поиск

Генерация объектов

240 байт добавлено, 00:25, 22 апреля 2020
Оверсэмплинг
Для достижения данной цели обычно используются [[Порождающие модели | порождающие модели]]. В таком варианте в качестве задачи ставится восстановление совместного распределения <tex>p(x,y)</tex>, где <tex>y</tex> — это один бит, отвечающий за отдельный признак (то есть тот класс, к которому должна принадлежать созданный объект; например, фотография человека), а <tex>x</tex> — это весь объект (фотография).
Чаще всего порождаемый объект <tex>X</tex> представляет из себя набор элементов <tex>X=\{xix_i\}</tex>, что позволяет порождать объект по частям. Для изображения, например, такими частями будут являться пиксели. Таким образом, при порождении следующих частей объекта мы можем опираться на уже созданные, и тогда перед нами встаёт задача максимизация функции правдоподобия: для набора данных <tex>X=\{xix_i\}</tex> максимизировать <tex>\displaystyle \prod_i p_{\operatorname{model}}(x_i;\theta)</tex> по параметрам модели θ, т.е. найти <math>\theta^* = \underset{\theta}{\operatorname{argmax}} \displaystyle \prod_i p_{\operatorname{model}}(x_i;\theta)</math>. Эта задача относится к классу задач обучения без учителя или с частичным привлечением учителя. При её решении либо работают с явными распределениями, сводя распределение <tex>p(x;y)</tex> к произведению распределений определённой структуры, либо используют неявные модели, которые не восстанавливают всю функцию плотности, а только моделируют ту часть этой функцию, которая нужна непосредственно. Стоит отметить, что простые порождающие модели, такие как наивный байесовский классификатор, не показывают достаточное качество результата, чтобы на их основе можно было сгенерировать полноценные мультимедиа объекты. Из класса порождающих моделей при генерации именно изображений особенно хорошо показали себя модели [[Generative Adversarial Nets (GAN) | состязательных сетей]], [[PixelRNN и PixelCNN | PixelRNN и PixelCNN]], а также DRAW (рисуют изображение с помощью сочетания [[Рекуррентные нейронные сети | реккурентных НС]] и [[Механизм внимания | механизма внимания]]). Также стоит отметить модель [https://en.wikipedia.org/wiki/WaveNet WaveNet], используемую для создания звуковых записей. Эта модель создана в 2016 году, а к 2018 году, после нескольких оптимизаций вычислительной сложности, она нашла применение в Google при создании образцов речи на различных языках.
== Оверсэмплинг ==
'''SMOTE''' (''Synthetic Minority Oversampling Technique'') – генерация искусственных примеров, не совпадающих с имеющимися в выборке. Этот алгоритм во многом основан на [[Метрический классификатор и метод ближайших соседей | методе ближайшего соседа]]. Для создания новой записи находят разность <tex>d=X_b–X_a</tex>, где <tex>X_a,X_b</tex> – векторы признаков «соседних» примеров <tex>a</tex> и <tex>b</tex> из миноритарного класса (их находят так же, как в методе ''kNN''). В данном случае необходимо и достаточно для примера <tex>b</tex> получить набор из <tex>k</tex> соседей, из которого в дальнейшем будет выбрана запись <tex>b</tex>. Далее из <tex>d</tex> путем умножения каждого его элемента на случайное число в интервале <tex>(0, 1)</tex> получают <tex>d</tex>. Вектор признаков нового примера вычисляется путем сложения <tex>X_a</tex> и <tex>d</tex>. Алгоритм SMOTE позволяет задавать количество записей, которое необходимо искусственно сгенерировать. Степень сходства примеров <tex>a</tex> и <tex>b</tex> можно регулировать путем изменения значения <tex>k</tex> (числа ближайших соседей). Пример работы алгоритма продемонстрирован на рис. 1. <br />[[File:SMOTE_GEN.gif|none|frame|Рис. 1. Пример работы алгоритма SMOTE]]
Данный подход имеет недостаток в том, что «вслепую» увеличивает плотность примерами в области слабо представленного класса:. Пример такого увеличения изображён на рис. 2.<br />
[[File:SMOTE_GEN_DISS.gif|none|frame|Рис. 2. Пример неудачного срабатывания SMOTE]]
Анонимный участник

Навигация