Изменения

Перейти к: навигация, поиск

Синтез речи

20 213 байт добавлено, 19:36, 4 сентября 2022
м
rollbackEdits.php mass rollback
{{В разработке}}[[Категория:Машинное обучение]] [[Категория: Обработка естественного языка]]'''Синтез речи''' (англ. speech synthesis) {{--- }} процесс генерации компьютером человеческой речи. Компьютерная система, способная к синтезу речи, называется речевым синтезатором.
Система, генерирующая человеческую речь, основываясь на тексте, называется '''text-to-speech''' системой (сокр. TTS).
Процесс В процессе человеческой речи сначала нервная система транслирует некоторый текст или мысленный концепт в движение мышц, связанных с органами дыхания и речи. Затем, используя поток воздуха из легких,производится генерация акустического сигнала, который с помощью потока воздуха из легких. Сигнал содержит как периодические компоненты (созданные с помощьью помощью вибрации органов речи), так и апериодические
(созданные окружающей средой и фоновым шумом). Используя изменяющиеся во времени сокращения мышц, меняются частотные характеристики акустического сигнала.
Задача систем генерации речи по тексту {{- --}} симулировать данный процесс в каком-либо виде.
== Этапы синтеза речи ==
Системы Работу систем синтеза речи по тексту, как правило, можно разделить на два этапа, за которые отвечают два отдельных компонента {{--- }} обработка текста и синтез речи.
Первый этап обычно содержит несколько этапов [[Обработка естественного языка|обработки естественного языка]], такие, как разбиение на предложения, разбиение на слова, нормализация текста,автоматическая морфологическая разметка, и конвертация графем в фонемы (англ. grapheme-to-phoneme conversion, G2P).
Данный этап принимает в качестве входных параметров текст и возвращает последовательность фонем с различными выделенными лингвистическими особенностями.
Этап синтеза речи, в свою очередь, принимает на вход последовательность фонем и возвращает синтезированную звуковую волну речи.
Данный этап обычно включает в себя алгоритмы предсказания [https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%81%D0%BE%D0%B4%D0%B8%D1%8F_(%D0%BB%D0%B8%D0%BD%D0%B3%D0%B2%D0%B8%D1%81%D1%82%D0%B8%D0%BA%D0%B0)/ просодии ] {{---}} характеристик речи, описывающих признаки, являющиеся дополнительными к основной артикуляции звука, такие как тон, ударение, громкость и алгоритмы генерации звуковых волн т.д.  == Генерация звуковой волны == Обычно, синтезаторы речине работают непосредственно с сигналом звуковой волны, а так же может содержатьиспользуют некоторое представление этого сигнала, например, спектрограмму. Алгоритм, способный выделить такие параметры и по ним обратно восстановить звуковую волну, называется '''вокодер ''' (англ. voice encoder) . Примерами таких алгоритмов являются мю-закон <ref name="mu law">[http://www.itu.int/rec/dologin_pub.asp?lang=e&id=T- алгоритм или устройствоREC-G.711-198811-I!!PDF-E&type=items/ "ITU-T Recommendation G.711"]</ref> и восстановление сигнала по его спектрограмме.  Мю-закон преобразует каждое значение дискретизированного сигнала <math>\textbf{x} = \{x_1, x_2, \dots, x_T\}</math> как <math>f(x_t) = sign(x_t) \frac{\ln(1+\mu|x_t|)}{\ln(1+\mu)}</math>,способное выделить где <math>\mu = 255</math> и <math>-1 < x_t < 1</math>, а затем кодирует сигнал как двузначное шестнадцатеричное число, которое обозначает некоторый интервал на числовой прямой<ref name="mu law">[http://www.itu.int/rec/dologin_pub.asp?lang=e&id=T-REC-G.711-198811-I!!PDF-E&type=items/ "ITU-T Recommendation G.711"]</ref>. Обратное преобразование выбирает значение преобразованного сигнала <math>y_t=f(x_t)</math> из звуковой данного номера интервала и получает оценку исходного сигнала <math>\textbf{x}</math> следующим образом: <math> f^{-1}(y_t) = sign(y_t)(1/\mu)((1+\mu)^{|y_t|}-1), -1 < y_t < 1</math>. В качестве представления звукового сигнала может выступать [https://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B5%D0%BA%D1%82%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0/ спектрограмма волны определенные параметры ] {{---}} изображение, показывающее зависимость спектральной плотности мощности сигнала от времени. Спектрограммы отображают частоту и амплитуду сигнала во времени, но не содержат никакой информации о фазе сигнала, из-за чего результат обратного восстановления сигнала по спектрограмме неизбежно отличается от оригинала. Цифровая генерация спектрограммы сигнала <math>s(t)</math> сводится к вычислению квадрата амплитуды [https://ru.wikipedia.org/wiki/%D0%9E%D0%BA%D0%BE%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%A4%D1%83%D1%80%D1%8C%D0%B5/ оконного преобразования Фурье]: <math>spectrogram(t, w) = |STFT(t, w)|^2</math>, где <math>w</math> {{---}} используемое окно и <math>STFT(t, w)</math> {{---}} оконное преобразование Фурье. Для восстановления исходного сигнала по его спектрограмме может быть использован алгоритм Гриффина-Лима<ref name="griffin-lim">D. Griffin and Jae Lim, "Signal estimation from modified short-time Fourier transform," ICASSP '83. IEEE International Conference on Acoustics, Speech, and Signal Processing, Boston, Massachusetts, USA, 1983, pp. 804-807, doi: 10.1109/ICASSP.1983.1172092.</ref>, который основан на минимизации среднеквадратичной ошибки между оконным преобразованием Фурье оцениваемого сигнала и затем использовать её для генерации похожей волныимеющимся преобразованием в спектрограмме.
== Классы подходов к синтезу речи ==
Идеальный синтезатор речи генерирует одновременно и натуральную, и разборчивую речь.
=== Конкатенативный синтез ===
'''Конкатенативный синтез''' (англ. concatenative synthesis) основывается на конкатенации предварительно записанных примеров человеческой речи в единую звуковую последовательность. Данный подход генерирует синтезирует наиболее естественную речь, но генерируемая речь часто содержит значительные отличия и ошибки по сравнению с человеческой речью.Примеры конкатенативного синтеза:
* '''Синтез с выбором''' (англ. unit selection synthesis) является самым используемым подходом конкатенативного синтеза и использует большую базу данных записанной речи. При создании базы данных, записанные фразы могут делиться на различные звуковые единицы, такие, как фоны, дифоны, полуфоны, слоги, морфемы, целые фразы или предложения. При запуске, алгоритм генерирует выходную звуковую волну с помощью выбора наилучшей последовательности звуковых единиц из базы данных. Данный выбор обычно реализован с помощью [[Дерево решений и случайный лес|дерева решений]].Данный подход Синтез с выбором обеспечивает наиболее естественную речь, так как использует минимальную цифровую обработку сигналов. Недостатком подхода является необходимость в довольно большой базе данных звуков для достижения наибольшей естественности речи. Данный подход являлся самым популярным для общего класса задач синтеза речи, но в последнее время уступает по популярности параметрическому подходу. Примером использования синтеза с выбором является голосовой помощник Siri от Apple <ref name="apple">[https://machinelearning.apple.com/research/siri-voices/ Deep Learning for Siri’s Voice: On-device Deep Mixture Density Networks for Hybrid Unit Selection Synthesis.]</ref> и голосовой помощник Алиса от компании Яндекс <ref>[https://www.seonews.ru/analytics/optimization-2018-chto-nakhoditsya-pod-kapotom-u-alisy/ Optimization 2018: что находится «под капотом» у Алисы.]</ref>. Несмотря на то, что эти продукты используют глубокое обучение, их механизм синтеза речи основан на записанных примерах голоса.
* '''Дифонный синтез''' (англ. diphone synthesis) является частным случаем синтеза с выбором, который использует в качестве звуковых единиц дифоны (переход от звука к звуку). Подход использует только один образец каждого дифона. База данных дифонов при этом получается сравнительно небольшой. Например, немецкий язык содержит около 800 дифонов, а испанский {{- --}} около 2500. При работе алгоритма просодия входной последовательности накладывается на дифоны в базе данных с помощью различных алгоритмов цифровой обработки сигналов. Данный алгоритм значительно уступает по качеству другим подходам и, кроме меньшего размера базы данных, не дает весомых преимуществ, из-за чего не снискал большой популярности.
* '''Синтез речи, ограниченный предметной областью''' (англ. domain-specific speech synthesis) также является частным случаем синтеза с выбором и использует базу данных предварительно записанных слов, фраз и предложений для составления выходной последовательности. Он используется в задачах, где вариативность и размер используемых фраз ограничены некоторой предметной областью, например, прогнозирование погоды или составление расписания транспорта. Из-за значительной простоты реализации и использования данный подход уже долго применяется в коммерческих продуктах, например, говорящие часы или калькуляторы. При этом данный подход может обеспечивать высокую естественность речи вследствие ограниченности используемой базы данных. Недостатками таких систем является ограниченность областью применимости и неспособность учитывать контекст речи, что может вызывать ощутимые ошибки в некоторых языках.
=== Параметрический синтез ===
Параметрический синтез (англ. statistical parametrical synthesis) для генерации выходной звуковой волны, в отличии от конкатенативного синтеза, не использует реальные примеры речи, а строит вероятностное распределение некоторых параметров и акустических свойств звуковой волны.
В начале работы параметрического синтезатора с помощью вокодера извлекаются параметры
<math>\textbf{o} = \{o_1, \dots, o_N\}</math> звуковой волны <math>\textbf{x} = \{x_1, \dots, x_T\}</math> и лингвистические данные <math>l</math> из текста <math>W</math>, где который необходимо озвучить. Конкретный вид вектора <math>N</math> и <math>T\textbf{o}</math>соответствуют параметрам зависит от используемого вокодера {{---}} это может быть как спектрограмма волны, так и количеству сигналов звуковой волнынекоторое другое представление сигнала, например, дискретные номера интервалов числовой прямой, получаемые с помощью мю-закона. Затем, генеративная [[Порождающие модели|порождающая модель]], например, [[Марковская цепь|скрытая марковская цепь]],[[Нейронные сети, перцептрон#Сети прямого распространения|нейронная сеть прямого распространения]] или [[Рекуррентные нейронные сети|рекуррентная нейронная сеть]], обучается по выделенным параметрам <math>\textbf{o}</math> и <math>l</math>, получаяпараметры модели <math>\hat{\Lambda}</math>, наиболее хорошо описывающие распределение <math>p(o|l, \Lambda)</math>. На этапе синтеза, модель генерирует наиболее правдоподобные параметры звуковой волны, используя найденные на этапе обучения параметры модели <math>\hat{\Lambda}</math> и лингвистическую информацию <math>l</math> текста, который необходимо озвучить: <math>\hat{\textbf{o}} = \arg\max\limits_{\textbf{o}}p(\textbf{o} | l, \hat{\Lambda})</math>. Выходная звуковая волна генерируется вокодером на основе найденных параметров <math>\hat{\textbf{o}}</math>. Данный подход является самым популярным на сегодняшний момент, в том числе из-за того, что он позволяет использовать подходы, основанные на нейронных сетях. Современными продуктами, использующие основанный на глубоком обучении параметрический синтез являются Amazon Lex и Alexa <ref>[https://www.allthingsdistributed.com/2016/11/amazon-ai-and-alexa-for-all-aws-apps.html Bringing the Magic of Amazon AI and Alexa to Apps on AWS.] </ref>, Google Ассистент <ref name="cnet wavenet">Martin, Taylor (May 9, 2018).[https://www.cnet.com/how-to/how-to-get-all-google-assistants-new-voices-right-now/ "Try the all-new Google Assistant voices right now"]. CNET.</ref> и умные дисплеи Portal от Facebook <ref>[https://venturebeat.com/2020/05/15/facebooks-voice-synthesis-ai-generates-speech-in-500-milliseconds/ Facebook’s voice synthesis AI generates speech in 500 milliseconds.]</ref>.== Алгоритмы, основанные на нейронных сетях ==Рассмотрим две популярные сети для преобразования текста в спектрограмму (Tacotron) и для синтеза речи по спектрограмме (WaveNet). Для синтеза речи по спектрограмме предложено множество моделей: авторегрессионныее (WaveNet, WaveRNN, LPCNet), неавторегресионные (WaveGlow, MelGAN, WaveGrad) и разнообразные (например, можно натренировать сети GAN для генерации лиц под задачу генерации спектрограммы). === Tacotron ===[[Файл:Tacotron.PNG|thumb|300px| Рисунок 1 — строение модели Tacotron<ref name="tacotron">Yuxuan Wang, RJ Skerry-Ryan, Daisy Stanton, Yonghui Wu, Ron J. Weiss, Navdeep Jaitly, Zongheng Yang, Ying Xiao, Zhifeng Chen, Samy Bengio, Quoc Le, Yannis Agiomyrgiannakis, Rob Clark, & Rif A. Saurous. (2017). Tacotron: Towards End-to-End Speech Synthesis. [https://arxiv.org/abs/1703.10135/ arXiv:1703.10135]</ref>]][[Файл:Tacotron-cbhg.PNG|thumb|300px| Рисунок 2 —строение модуля CBHG модели Tacotron<ref name="tacotron">Yuxuan Wang, RJ Skerry-Ryan, Daisy Stanton, Yonghui Wu, Ron J. Weiss, Navdeep Jaitly, Zongheng Yang, Ying Xiao, Zhifeng Chen, Samy Bengio, Quoc Le, Yannis Agiomyrgiannakis, Rob Clark, & Rif A. Saurous. (2017). Tacotron: Towards End-to-End Speech Synthesis. [https://arxiv.org/abs/1703.10135/ arXiv:1703.10135]</ref>]]Tacotron {{---}} модель<ref name="tacotron">Yuxuan Wang, RJ Skerry-Ryan, Daisy Stanton, Yonghui Wu, Ron J. Weiss, Navdeep Jaitly, Zongheng Yang, Ying Xiao, Zhifeng Chen, Samy Bengio, Quoc Le, Yannis Agiomyrgiannakis, Rob Clark, & Rif A. Saurous. (2017). Tacotron: Towards End-to-End Speech Synthesis. [https://arxiv.org/abs/1703.10135/ arXiv:1703.10135]</ref> параметрического синтеза речи, основанная на подходе [[Механизм внимания | seq2seq]], разработанная Google и опубликованная в 2017 году. Модель состоит из кодера, декодера с [[Механизм внимания | вниманием]] и нейронной сети дляпост-процессинга сигнала. Схема модели изображена на Рисунке 1.
Кодер и сеть пост-процессинга опираются на блок CBHG, схема которого изображена на Рисунке 2. Блок состоит из набора одномерных сверточных фильтров, за которыми следуютшоссейные нейронные сети (англ. highway networks)<ref>Rupesh Kumar Srivastava, Klaus Greff, and J ̈urgen Schmidhuber. Highway networks. [https://arxiv.org/abs/1505.00387/ arXiv:1505.00387], 2015.</ref>, являющиеся модификацией [[Долгая краткосрочная память | LSTM сетей]], и двунаправленный [[Долгая краткосрочная память#Управляемые рекуррентные нейроны | управляемый рекуррентный блок]]. Входная последовательность сначала обрабатывается <math>K</math>наборами сверточных фильтров с размерностью <math>1, 2, \hat{\Lambda} = \arg\max\limits_{\Lambda}pdots, K</math>. Эти фильтры моделируют локальную и контекстно-зависимую информацию (\textbf{o} | lпо аналогии с моделированием униграмм,биграмм, \Lambda)вплоть до <math>K</math>-грамм). Выход сверточного уровня далее обрабатывается шоссейной сетью для дальнейшего выделения параметров. В конце CBHGиспользуется управляемый рекуррентный блок,который для выделения параметров опирается на контекст перед рассматриваемым символом и после рассматриваемого символа.
где <math>\hat{\Lambda}</math> Задача кодера заключается в извлечении последовательных параметров из текста. Его входом является последовательность символов, в которой каждый символ был закодирован one- параметры моделиhotкодированием и объединен в единый непрерывный вектор. К данному входу применяется ряд нелинейных преобразований в виде сети с бутылочным горлышком (англ. bottleneck layer), что позволяет улучшитьобобщаемость сети и ускорить сходимость. На этапе синтезаМодуль CBHG преобразует выход нелинейных преобразований в итоговое представление текста, модель генерирует наиболее правдоподобные параметры вокодера каккоторая передается в декодер.
Декодер является рекуррентной нейронной сетью с вниманием, в которой запрос внимания генерируется каждый временной промежуток. Вектор контекста соединяется с выходом ячейки вниманияи подается на вход декодирующим рекуррентным нейронным сетям, которые являются управляемыми рекуррентными блоками. Выходом декодера является спектрограмма звуковой волны, котораяпередается сети пост-обработки для генерации непосредственно звуковой волны. В качестве сети пост-обработки используется модуль CBHG, описанный ранее. После этого спектрограмма звуковой волны передается на вход [[Синтез речи#Генерация звуковой волны | алгоритму Гриффина-Лима]], который генерирует итоговую звуковую волну. Модель Tacotron была значительно улучшена в последующей модификации Tacotron 2 <mathref>\hat{\textbf{o}} = \arg\max\limits_{\textbf{o}}pJonathan Shen, Ruoming Pang, Ron J. Weiss, Mike Schuster, Navdeep Jaitly, Zongheng Yang, Zhifeng Chen, Yu Zhang, Yuxuan Wang, RJ Skerry-Ryan, Rif A. Saurous, Yannis Agiomyrgiannakis, & Yonghui Wu. (\textbf{o} | l, \hat{\Lambda}2018). Natural TTS Synthesis by Conditioning WaveNet on Mel Spectrogram Predictions. [https://arxiv.org/abs/1712.05884 arXiv:1712.05884].</mathref>,которая переработала исходную архитектуру Tacotron и объединила её с вокодером на основе WaveNet. Данная модель способна синтезировать речь высокого качества, принимая на вход только текст, который необходимо озвучить<ref name="tacotron2">[https://ai.googleblog.com/2017/12/tacotron-2-generating-human-like-speech.html/ Tacotron 2: Generating Human-like Speech from Text]</ref>. Реализация данной модели доступна на [https://github.com/NVIDIA/tacotron2 Github].
Выходная звуковая волна моделируется с помощью вокодера и параметров <math>\hat{\textbf{o}}</math>.
== Алгоритмы, основанные на нейронных сетях ==
=== WaveNet ===
[[ФайлWaveNet<ref name="wavenet">Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, & Koray Kavukcuoglu. (2016). WaveNet:dilated-causal-convolutionsA Generative Model for Raw Audio.png|thumb|300px| [https://arxiv.org/abs/1609.03499/ Рисунок 1 — строение причинной сверточной сети (сверху) и расширенной причинной сверточной сети (снизу)arXiv:1609.03499]</ref> является [[Порождающие модели | порождающей моделью]]WaveNet является генеративной моделью, использующей параметрический подход к синтезу речи. Её задача {{-- -}} восстановить распределение вероятности вероятностей звукового сигнала<math>\textbf{x} = \{x_1, x_2, \dots, x_T\}</math> с помощью произведения условных вероятностей:
<math>p(\textbf{x})=\prod\limits_{t=1}^{T} p(x_t | x_1, x_2, \dots, x_tx_{t-1})</math>.
Таким образом, вероятность каждого сигнала <math>x_t</math> зависит только от вероятностей предыдущих сигналов. При этомВо время обучения модель оценивает данное условное распределение вероятностей, принимая на вход сигналы из обучающей выборки одновременно. На этапе генерации модель порождает выходные сигналы с помощью полученной оценки распределения вероятности последовательно {{---}} полученный моделью сигнал в качестве вокодера используется преобразование, известноекак мю-закон момент времени <ref name="mu law"math>[http:t</math> подается обратно на вход для генерации последующего сигнала в момент времени <math>t+1</wwwmath>. Структура модели позволяет использовать её в широком спектре задач, например, в задачах продолжения музыкального произведения по его началу, порождения голоса конкретного человека или text-to-speech синтеза. Основной идеей модели является использование причинных сверточных сетей (англ. causal convolution layers) и [[Сверточные нейронные сети#Расширенная свертка (aнгл. Dilated convolution) | расширенных ]] причинных сверточных сетей (англ.itudilated causal convolution layers).intПричинная сверточная сеть представляет собой несколько уровней сверточной нейронной сети, связанных между собой в порядке, который не нарушает последовательностьвходного сигнала, т.е. оцениваемая в момент времени <math>t+1</recmath> вероятность сигнала <math>p(x_{t+1} | x_1, x_2, \dots, x_t)</math> не зависит от сигналов в последующие моменты времени <math>t+2, t+3, \dots, T</dologin_pubmath>.asp?lang=e&id=T-REC-GПричинные сверточные сети обучаются быстрее, чем [[Рекуррентные нейронные сети | рекуррентные нейронные сети]], но требуют достаточно большого количества уровней для обеспечивания большого окна восприятия сигнала (англ.711signal reception window) {{-198811-I!!PDF-E&type=items/ "ITU-T Recommendation G}} количество предыдущих сигналов, от которых зависит оценка сигнала в текущий момент.711"]</ref>:
<math>f[[Файл:dilated-causal-convolutions.png|thumb|300px| Рисунок 3 — строение причинной сверточной сети (x_tсверху) = signи расширенной причинной сверточной сети (x_tснизу) \frac{\ln<ref name="wavenet">Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, & Koray Kavukcuoglu. (1+\mu|x_t2016)}{\ln(1+\mu)}. WaveNet: A Generative Model for Raw Audio. [https://arxiv.org/abs/1609.03499/ arXiv:1609.03499]</mathref>]]Модификация причинных сверточных сетей, расширенные причинные сверточные сети, способна увеличить окно восприятия сигнала в разы и является основной идеей модели WaveNet.Модификация заключается в применении свертки к области размерности большей, чем её длина, пропуская входные связи с некоторым шагом. Данный подход аналогичен применению пулинга или свертки с шагом большим единицы, но выходом расширенной причинной сверточной сети является последовательность размерности, равной размерности входной последовательности. Расширенные причинные сверточные сети способны достигать большего окнавосприятия сигнала, используя меньшее количество уровней, при этом сохраняя вычислительную сложность причинных сверточных сетей. Структура причинных сверточных сетей изображена на Рисунке 3.
где [[Файл:wavenet.png|thumb|300px| Рисунок 4 — строение модели WaveNet <mathref name="wavenet">\mu = 255Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, & Koray Kavukcuoglu. (2016). WaveNet: A Generative Model for Raw Audio. [https://arxiv.org/abs/1609.03499/ arXiv:1609.03499]</math> и <mathref>]]Полная структура модели WaveNet изображена на Рисунке 4. В качестве вокодера используется [[Синтез речи#Генерация звуковой волны | мю-1 < x_t < 1</math>закон]].
Модель представляет собой множество слоев сверточной нейронной сети, аналогично модели [[PixelRNN_и_PixelCNN | PixelCNN]].
Сеть не содержит уровней пулинга Модель на вход принимает закодированную мю-законом последовательность сигналов <math>\textbf{x}</math> и выходной , опционально, некоторую дополнительную информацию, обозначаемую как вектор имеет размерностьпараметров <math>h</math>, а на выходе возвращает распределение вероятностей для параметров мю-закона, по которым можно восстановить синтезированный сигнал. На этапе обучения входным сигналом <math>\textbf{x}</math> является пример звука из обучающей выборки, который подается на все входы одновременно. На этапе генерации входом модели <math>\textbf{x}</math> будут являться сигналы, порожденные ею в предыдущие моменты времени и передаваемые ей последовательно. Дополнительная информация <math>h</math>, равную размерности входного векторанапример, может содержать информацию о рассматриваемом тексте в задаче text-to-speech синтеза.Выходом Модель представляет собой набор из <math>K</math> [[Сверточные нейронные сети#Residual block | блоков с остаточной связью]], содержащих преобразование расширенной причинной свертки и функцию активации. Функция активации при этом аналогична функции, предложенной в модели является категориальное распределение вероятностиGated PixelCNN <ref>Aaron van den Oord, Nal Kalchbrenner, Oriol Vinyals, Lasse Espeholt, Alex Graves, получаемое с помощью softmax-преобразования& Koray Kavukcuoglu. (2016). Conditional Image Generation with PixelCNN Decoders. [https://arxiv.org/abs/1606.05328/ arXiv:1606.05328]</ref>:
Основной идеей модели является использование причинных сверточных сетей и [[Сверточные нейронные сети#Расширенная свертка <math>\textbf{y} = \tanh(aнгл. Dilated convolutionW_{f, k} * \textbf{x}) | расширенных ]] причинных сверточных сетей.Причинная сверточная сеть представляет собой несколько уровней сверточной нейронной сети\odot \sigma(W_{g, связанных между собой в порядкеk}*\textbf{x})</math>, который не нарушает последовательностьвходного сигналагде <math>k</math> {{---}} номер слоя модели, т.е. оцениваемая в момент времени <math>t+1f, g</math> вероятность сигнала {{---}} индексы входов преобразования, <math>\sigma</math>p(x_{t+1{---}} | x_1функция сигмоиды, x_2<math>*</math> {{---}} операция свертки, <math>\dots, x_t)odot</math> не зависит от сигналовв последующие моменты времени {{---}} операция покомпонентного умножения векторов и <math>t+2, t+3, \dots, TW</math>. Во время обучения сети, известные сигналы из обучающих данных подаются на вход сети одновременно. На этапе генерациисигналы на вход модели подаются последовательно: каждый сгенерированный моделью сигнал подается обратно на вход для генерации последующего. Причинные сверточные сети обучаютсябыстрее, чем рекуррентные нейронные сети, но требуют достаточно большого количества уровней для обеспечивания большого окна восприятия сигнала{{---}} выученные параметры свертки.
Модификация причинных сверточных сетей, называемая расширенные причинные сверточные сети, способна увеличить окно восприятия В случае использования дополнительной информации <math>h</math> модель оценивает распределение вероятностей звукового сигнала в разы и является основной идеей модели WaveNet.Основная идея модификации заключается в применении свертки к области размерности большей, чем её длина, пропуская входные связи с некоторым шагом. Данный подход аналогичен применениюпулинга или свертки с шагом большим единицы, но результирует в выходную последовательность той же размерности. Расширенные причинные сверточные сети способны достигать большего окнавосприятия сигнала, используя меньшее количество уровней, при этом сохраняя вычислительную сложность причинных сверточных сетей.как:
Самый известный пример применения WaveNet для синтеза речи является технология Google Ассистент, которая использовала WaveNet для генерации голосов ассистентов на различныхязыках. Модель позволила значительно сократить количество записей речи актеров озвучки, требуемых для создания голосовой модели<ref name="cnet wavenet"math>Martin, Taylor p(May 9, 2018\textbf{x}|\textbf{h}).[https://www.cnet.com/how-to/how-to-get-all-google-assistants-new-voices-right-now/ "Try the all-new Google Assistant voices right now"]. CNET.</ref>.=\prod\limits_{t== Tacotron ===[[Файл:Tacotron.PNG|thumb|300px| [https://arxiv.org/abs/1703.10135/ Рисунок 2 — строение модели Tacotron]]][[Файл:Tacotron-cbhg.PNG1}^{T} p(x_t |thumb|300px| [https://arxiv.org/abs/1703.10135/ Рисунок 3 — строение модуля CBHG модели Tacotron]]]Tacotron - модель параметрического синтеза речиx_1, основанная на подходе [[Механизм внимания | seq2seq]]x_2, разработанная Google и опубликованная в 2017 году. Модель состоит из кодера\dots, декодера с [[Механизм внимания | вниманием]] и нейронной сети дляпостx_{t-процессинга сигнала1}, \textbf{h})</math>.
Кодер и сеть пост-процессинга опираются на блок CBHG, который состоит из набора одномерных сверточных фильтров, за которыми следуютшоссейные нейронные сети<ref>Rupesh Kumar Srivastava, Klaus Greff, and J ̈urgen Schmidhuber. Highway networks. [https://arxiv.org/abs/1505.00387/ arXiv:1505.00387], 2015.</ref>, являющиеся модификацией [[Долгая краткосрочная память | LSTM сетей]], и двунаправленный [[Рекуррентные нейронные сети#Управляемые рекуррентные блоки | управляемый рекуррентный блок]]. Входная последовательность сначала обрабатывается Для использования дополнительной информации <math>K\textbf{h}</math>наборами сверточных фильтров с размерностью функция активации может использовать вектор <math>1, 2, \dots, Ktextbf{h}</math>. Эти фильтры моделируют локальную и контекстно-зависимую информацию (по аналоогии с моделированием униграмм,биграмм, вплоть до <math>K</math>-грамм). Выход сверточного уровня далее обрабатывается шоссейной сетью для дальнейшего выделения параметров. В конце CBHGиспользуется управляемый рекуррентный блок для выделения параметров, опираясь на контекст перед рассматриваемым символом и после рассматриваемого символа.глобально при вычислении каждой свертки как:
Задача кодера заключается в извлечении последовательных параметров из текста. Его входом является последовательность символов<math>\textbf{y} = \tanh(W_{f, в которой каждый символ был закодирован one-hotкодированием и объединен в единый непрерывный вектор. К данному входу применяется ряд нелинейных преобразований в виде сети с узким местом k} * \textbf{x} + V_{f,k}^T\textbf{h}) \odot \sigma(bottleneck layerW_{g,k}*\textbf{x}+V_{g,k}^T\textbf{h})</math>, что позволяет улучшитьобобщаемость сети и ускорить сходимость. Модуль CBHG преобразует выход нелинейных преобразований в итоговую презентацию текста, которая передается в декодер.
Декодер является рекуррентной нейронной сетью с вниманиемгде <math>V_{f, в которой запрос внимания генерируется каждый временной промежутокk}</math> {{---}} выученные параметры линейной проекции. Вектор контекста соединяется с выходом ячейки вниманияВ случае, когда размерность вектора <math>\textbf{h}</math> меньше, чем размерность <math>\textbf{x}</math>, можно использовать upsampling-преобразование сверточных сетей, чтобы получить вектор размерности <math>\textbf{x}</math> и подается на вход декодирующим рекуррентным нейронным сетям, которые являются управляемыми рекуррентными блокамииспользовать его вместо оригинального вектора <math>\textbf{h}</math>. Выходом декодера является спектрограмма звуковой волныПри этом <math>V_{f, котораяпередается сети пост-обработки для генерации непосредственно звуковой волныk}*\textbf{h}</math> будет являться операцией свертки размера 1.
В качестве сети пост-обработки используется модуль CBHGСамый известный пример применения WaveNet для синтеза речи является технология Google Ассистент, описанный ранеекоторая использует WaveNet для генерации голосов ассистентов на различныхязыках. После этого спектрограмма звуковой волны передается на вход алгоритму Гриффина-ЛимаМодель позволила значительно сократить количество записей речи актеров озвучки, требуемых для создания голосовой модели<ref name="griffin-limcnet wavenet">D. Griffin and Jae LimMartin, "Signal estimation from modified short-time Fourier transformTaylor (May 9," ICASSP '832018).[https://www. IEEE International Conference on Acoustics, Speech, and Signal Processing, Boston, Massachusetts, USA, 1983, ppcnet. 804com/how-to/how-807, doi: 10.1109to-get-all-google-assistants-new-voices-right-now/ICASSP "Try the all-new Google Assistant voices right now"].1983.1172092CNET.</ref>, который способен спомощью спектрограммы восстановить исходную волну используя быстрое преобразование Фурье.
== Проблемы ==
=== Задача обработки текста ===
Алгоритмы обработки текста могут не справляться с обработкой определенных частей речи, таких, как аббревиатуры, числа и гетеронимы. Произношение определенных слов также зависит от контекста их применения. Большинство систем синтеза речи по тексту не способны выделять контекст предложений и используют различные эвристические подходы с целью различить омографы (слова с одинаковым написанием, но различным произношением).
=== Преобразование текста в фонемы ===Процесс преобразования текста в фонемы обычно подразделяется на два подхода {{- --}} словарный и основанный на правилах. Словарный подход использует словарь с записанными фонетическими представлениями слов и в процессе работы производит поиск в нем с целью конвертации слова в последовательность фонем. Основанный на правилах подход использует набор правил, которые применяются к словам или частям слов с целью выделения фонем. Оба эти подхода имеют существенные недостатки и требуют решения соответствующих проблемусовершенствования.=== Мультиязычный синтез ===Работает, но интересная задача генерации данного голоса на другом языке.=== Несколько голосов ===Сеть перепрыгивает между голосами в середине слова.=== Синтез в стиле ===Сейчас реализовано с помощью вариационных автоэнкодеров. Требуется пример для стиля. === Выразительный синтез ===Непонятно, что речь должна отмечать выражением.
=== Оценка качества ===
На данный момент не существует единых критериев оценки качества синтезаторов речи. В каждом отдельном применении технологии синтеза речи могут быть в том числе свои критерии качества, связанные с предметной областью или используемым оборудованием. С другой стороны, ряд исследователей начали оценивать синтезаторы речи используя распространенные наборы данных для синтеза речи <ref>[http://festvox.org/blizzard/ Blizzard Challenge]</ref>.
 
Популярной метрикой оценки естественности речи является '''средняя оценка мнения''' (англ. mean opinion score)<ref name="mos">[https://www.itu.int/rec/T-REC-P.800.2 ITU-T Recommendation P.800.2 : Mean opinion score interpretation and reporting]</ref>. Она заключается в воспроизведении результатов работы синтезатора речи выборке людей, которые затем оценивают её качество по шкале от 1 до 5, в которой 1 означает "плохое" качество, 5 {{---}} "идеальное". Итоговой оценкой является среднее арифметическое всех оценок. Данная метрика страдает от субъективности и предвзятости опрашиваемых людей, в частности, в подобного рода экспериментах опрашиваемые стремятся ставить оценки, располагающиеся на всей ширине интервала оценок<ref name="bias">Zielinski, Slawomir, Francis Rumsey, and Søren Bech. "On some biases encountered in modern audio quality listening tests-a review." Journal of the Audio Engineering Society 56.6 (2008): 427-451.</ref>. Из этого следует, что данная оценка не является абсолютной и её нельзя использовать для сравнения двух отдельных экспериментов кроме тех случаев, когда эксперимент поставлен особым образом, чтобы учесть данный недостаток, и даже в таком случае требуется статистический анализ данных, чтобы убедиться, что такое сравнение двух систем корректно<ref name="mos">[https://www.itu.int/rec/T-REC-P.800.2 ITU-T Recommendation P.800.2 : Mean opinion score interpretation and reporting]</ref>.
 
Модели WaveNet, Tacotron и Tacotron 2 использовали среднюю оценку мнения для сравнения своей работы с естественным языком и другими подходами. Например, WaveNet достиг оценки 4.21 и 4.08 для американского варианта английского и путунхуа, по сравнению с оценками естественного языка 4.46 и 4.25 соответственно. Работа, описывающая модель Tacotron, сравнивала модель с другими разрабатываемыми подходами<ref>Heiga Zen, Yannis Agiomyrgiannakis, Niels Egberts, Fergus Henderson, and Przemysław Szczepa-niak. Fast, compact, and high quality LSTM-RNN based statistical parametric speech synthesizersfor mobile devices.Proceedings Interspeech, 2016</ref><ref>Junyoung Chung, Caglar Gulcehre, KyungHyun Cho, and Yoshua Bengio. Empirical evaluation ofgated recurrent neural networks on sequence modeling. [https://arxiv.org/abs/1412/3555 arXiv:1412.3555], 2014.</ref>. Tacotron смог достичь оценки в 3.82 балла для американского варианта английского, когда параметрический подход достиг 3.69, а конкатенативный - 4.09. Tacotron 2 смог достичь оценки в 4.52 балла по сравнению с оценкой записанной речи в 4.58 балла<ref name="tacotron2">[https://ai.googleblog.com/2017/12/tacotron-2-generating-human-like-speech.html/ Tacotron 2: Generating Human-like Speech from Text]</ref>.
 
== См. также ==
1632
правки

Навигация