Изменения
Нет описания правки
----
[[Файл:EdgeConnect_sample.jpg|thumb|400px|Пример работы модели EdgeConnect.]]
=== EdgeConnect<ref>[https://arxiv.org/pdf/1901.00212.pdf EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning, Kamyar Nazeri, Eric Ng, Tony Joseph, Faisal Z. Qureshi, Mehran Ebrahimi]</ref> ===
EdgeConnect разбивает задачу вписывания на две части:
# Выделение границ изображения и предсказание границ утраченной части изображения.
В обоих частях используется генеративно-состязательная сеть. Генераторы состоят из кодировщика, нескольких остаточных блоков с расширенной сверткой и декодировщика. Для дискриминатора используется PatchGAN<ref>[https://paperswithcode.com/method/patchgan PatchGan, PapersWithCode]</ref>.
{|-valign="top"
|[[Файл:EdgeConnect_network.jpg|thumb|700px|Сеть EdgeConnect. <tex>G_1</tex> {{---}} генератор границ, <tex>G_2</tex> {{---}} генератор изображения, <tex>D_1</tex> и <tex>D_2</tex> {{---}} дискриминаторы.]]
|}
Для генерации ребер сначала выделяются границы существующей части изображения с помощью Canny edge detector<ref>[https://en.wikipedia.org/wiki/Canny_edge_detector Canny edge detector, Wikipedia]</ref>. Потом полученная граница вместе с маской и черно-белым изображением дается генератору. В качестве целевой функции потерь для тренировки сети берется комбинация двух функций: adversarial loss и feature-matching loss. Также для стабилизация обучения генератора и дискриминатора используется спектральная нормализация.
Также данную модель можно использовать для соединения двух изображений или удаления лишних объектов с фотографий.
{|align="center" |-valign="top" |[[Файл:EdgeConnect_merge.jpg|thumb|600px700px| Пример соединения двух изображения моделью EdgeConnect.]]
|}