9
правок
Изменения
v1
[[File:Autoencoder1.png|450px|thumb|Автокодировщик]]
Автокодировщик (англ. autoencoder) — специальная архитектура искусственных нейронных сетей, позволяющая применять обучение без учителя при использовании метода обратного распространения ошибки. Простейшая архитектура автокодировщика — сеть прямого распространения, без обратных связей, наиболее схожая с перцептроном и содержащая входной слой, промежуточный слой и выходной слой. В отличие от перцептрона, выходной слой автокодировщика должен содержать столько же нейронов, сколько и входной слой.
Автокодировщик состоит из двух частей: энкодера <tex>g</tex> и декодера <tex>f</tex>. Энкодер переводит входной сигнал в его представление (код): <tex>h = g(x)</tex>, а декодер восстанавливает сигнал по его коду: <tex>x = f(h)</tex>.
Автокодировщик, изменяя <tex>f</tex> и <tex>g</tex>, стремится выучить тождественную функцию <tex>x = f(g(x))</tex>, минимизируя какой-то функционал ошибки. <tex>L(x, f(g(x)))</tex>
При этом семейства функций энкодера <tex>g</tex> и декодера <tex>f</tex> как-то ограничены, чтобы автоэнкодер был вынужден отбирать наиболее важные свойства сигнала.
Автокодировщик можно использовать для предобучения, например, когда стоит задача классификации, а размеченных пар слишком мало. Или для понижения размерности в данных для последующей визуализации. Либо когда просто надо научиться различать полезные свойства входного сигнала.
==Описание==
Мы берем входные данные, кодируем их, чтобы идентифицировать скрытое представление объекта. Декодируйте скрытое представление объекта, чтобы воссоздать ввод. Мы рассчитываем потери, сравнивая вход и выход. Чтобы уменьшить ошибку восстановления, мы снова распространяем и обновляем веса.
Для примера возьмем набор данных для продуктов, купленных клиентами
[[File:AutoencoderExampel.png|450px|thumb|]]
*Шаг 1: Возьмем первую строку из данных по клиенту для всех продуктов в качестве входных данных. <tex>1</tex> означает, что клиент купил продукт. <tex>0</tex> означает, что клиент не купил продукт.
*Шаг 2: Закодируем ввод в другой вектор <tex>h</tex> меньшего размера, чем входной. Можно использовать функцию активации сигмоида для <tex>h</tex>, так как она ее область значения от <tex>0</tex> до <tex>1</tex>. <tex>W</tex> - вес, примененный к входу, <tex>b</tex> - член смещения.
<tex>h = f(Wx+b)</tex>
*Шаг 3: Декодируем вектор <tex>h</tex>, чтобы воссоздать ввод. Выход будет того же размера, что и вход
*Шаг 4: Рассчитать ошибку <tex>L</tex>. Ошибка - это разница между входным и выходным вектором. Наша цель - минимизировать ошибку, чтобы выходной вектор был похож на входной вектор.
*Шаг 5: С помощью алгоритма обратного распространения ошибки нужно обновить веса. Скорость обучения определяется тем, насколько обновляются веса.
*Шаг 6: Повторите шаги с <tex>1</tex> по <tex>5</tex> для каждого клиента в наборе данных. Веса обновляются каждый раз (стохастический градиентный спуск)
*Шаг 7: Повторите для большего количества эпох. Эпоха - это когда все строки в наборе данных прошли через нейронную сеть.
==Использование==
*Нелинейное уменьшения размерности. Кодирует ввод в скрытом слое с меньшей размерностью по сравнению с входным измерением. Скрытый слой позже декодируется как выходной. Автоэнкодер уменьшает размерность линейных и нелинейных данных, следовательно, он более мощный, чем PCA.
*Рекомендации пользователям. При этом используются глубокие кодеры, чтобы понять пользовательские предпочтения, чтобы рекомендовать фильмы, книги или предметы
*Извлечения зависимостей в данных: автоэнкодеры пытаются минимизировать ошибку восстановления. В процессе уменьшения ошибки он изучает некоторые важные зависимости, присутствующие во входных данных. Он восстанавливает входные данные из кодированного состояния. Кодирование генерирует новый набор функций, который представляет собой комбинацию оригинальных зависимостей. Кодирование в автоэнкодерах помогает идентифицировать скрытые зависимости, присутствующие во входных данных.
*Распознавание изображений: для распознавания изображений используется сложный автоэнкодер. Можно использовать несколько совмещенных кодировщиков, что помогает изучить различные функции изображения.
==Пример реализации==
Ниже приведена реализация частного случая автокодировщика на языке Python с использованием библиотеки Keras.
Эта реализация работает с датасетом рукописных цифр MNIST.
def create_dense_ae():
# Размерность кодированного представления
encoding_dim = 49
# Энкодер
# Входной плейсхолдер
input_img = Input(shape=(28, 28, 1)) # 28, 28, 1 - размерности строк, столбцов, фильтров одной картинки, без батч-размерности
# Вспомогательный слой решейпинга
flat_img = Flatten()(input_img)
# Кодированное полносвязным слоем представление
encoded = Dense(encoding_dim, activation='relu')(flat_img)
# Декодер
# Раскодированное другим полносвязным слоем изображение
input_encoded = Input(shape=(encoding_dim,))
flat_decoded = Dense(28*28, activation='sigmoid')(input_encoded)
decoded = Reshape((28, 28, 1))(flat_decoded)
# Модели, в конструктор первым аргументом передаются входные слои, а вторым выходные слои
# Другие модели можно так же использовать как и слои
encoder = Model(input_img, encoded, name="encoder")
decoder = Model(input_encoded, decoded, name="decoder")
autoencoder = Model(input_img, decoder(encoder(input_img)), name="autoencoder")
return encoder, decoder, autoencoder
==См. также==
*[[:Variational autoencoder (VAE)|Variational autoencoder (VAE)]]
*[[:Generative Adversarial Nets (GAN)|Generative Adversarial Nets (GAN)]]
== Источники информации ==
*[https://medium.com/datadriveninvestor/deep-learning-autoencoders-db265359943e Deep Learning Autoencoders]
*[https://habr.com/ru/post/331382/ Автоэнкодеры в Keras]
[[Категория: Машинное обучение]]
[[Категория: Порождающие модели]]