Изменения

Перейти к: навигация, поиск

Neural Style Transfer

1491 байт убрано, 22:51, 17 апреля 2019
Нет описания правки
Следовательно, имеет смысл использовать разницу в значении представления признаков сгенерированного изображения по содержанию и по стилю изображения, чтобы направлять итерации, через которые мы производим само сгенерированное изображение, но как убедиться, что изображение с содержанием '''C''' и сгенерированное изображение '''G''' похожи по своему содержанию, а не по стилю, в то время как сгенерированное изображение наследует только похожее представление стиля изображения стиля '''S''', а не само изображение стиля в целом. Это решается разделением функции потерь на две части: одна - потеря контента, а другая - потеря стиля.
== Loss function Функция потерь ==
[[Файл:Image5.jpeg|500px|leftcenter]]Как вы можете видеть в приведенном выше уравнении, есть две вещи, которые нам нужно рассчитать, чтобы получить общую потерю: потеря содержимого и потеря стиля, альфа- и бета-гиперпараметры, которые используются для определения весов для каждого типа потерь, то есть эти параметры можно представить просто как ручки для управления тем, сколько контента / стиля мы хотим наследовать в сгенерированном изображении. Итак, давайте разберемся, что влечет за собой каждый из этих термов.
Какие входы В уравнении выше, чтобы получить общую потерю нужно рассчитать потеря содержимого и потеря стиля, а также <math>\alpha</math> и <math>\beta</math> - гиперпараметры, которые используются для этой функции определения весов для каждого типа потерь отображаются выше? Мы понятия не имеем, то есть эти параметры можно представить просто как может выглядеть окончательный результат. Таким образом"рычаги" для управления тем, наивный подход контролируемого обучения может не сработать. Ответ лежит на сколько контента / стиля мы хотим наследовать в сгенерированном изображении ниже. (Рисунок 6)
[[Файл:Image6.jpeg|500px|thumb|right|Описание]]
Во время каждой итерации все три изображения, то есть изображение контента, изображение стиля и сгенерированное изображение, передаются через модель vgg16VGG16. Значение Значения функции активации скрытого модулянейронов, который кодирует которые кодируют представление объекта признаков данного изображения на определенных слоях, принимается принимаются как входные данные для этих двух функций потерь, проще говоря, вы можете напрямую думать об этом как о получении выходных данных слоев в сети VGG16, и это не так. Никаких жестких и быстрых правил по подбору слоев. Еще одна вещь, которую нужно Также стоит добавить здесь: изначально мы случайным образом инициализируем сгенерированное изображение, если вы посмотрите на негонапример, то это не более чем матрица матрицей случайного шума формы, такая такого жеразрешения, как и изображение контента. С каждой итерацией мы изменяем сгенерированное изображение, чтобы минимизировать общую потерю L. '''Примечание:L''' Здесь после каждого слоя Convolution его выход передается через relu в качестве функции активации, вы также можете проверить на рисунке 2, где каждый блок Convolution представлен как [Convolution + Relu].
== Content Loss ==
Анонимный участник

Навигация