Изменения

Перейти к: навигация, поиск

Анализ временных рядов

5933 байта добавлено, 19:11, 4 сентября 2022
м
rollbackEdits.php mass rollback
Временные ряды {{---}} это актуальный инструмент применимые , применимый во множестве решений, от предсказания цен на акции, прогнозов погоды, планирования бизнеса, до распределения ресурсов. Несмотря на то, что прогнозирование может быть сведено к построению контролируемой [[Вариации регрессии|регрессии]], существуют особенносстиособенности, связанные с временным характером наблюдений, которые необходимо учитывать, используя специальные инструменты.<br>
==Временной ряд==
Обычно временной <br>{{Определение|definition ='''Временно́й ряд представляется как стохастический процесс Y(tили ряд динамики), то есть ряд случайных переменных. В момент предсказания мы находимся ''' {{---}} собранный в моменте t и нужно предположить значение Yразные моменты времени статистический материал о значении каких-либо параметров (t+bв простейшем случае одного), использую только информацию, доступную в момент tисследуемого процесса. Каждая единица статистического материала называется измерением или отсчётом. Во временном ряде для каждого отсчёта должно быть указано время измерения или номер измерения по порядку.}}
==Как валидировать и тестировать модель временного ряда?==Из-за большинство других видов анализа, анализ временных зависимостей данных рядов предполагает, что данные содержат систематическую составляющую (обычно включающую несколько компонент) и случайный шум (ошибку), который затрудняет обнаружение регулярных компонент. Большинство методов исследования временных рядоввключает различные способы фильтрации шума, мы не можем пользоваться обычными способами валидациипозволяющие увидеть регулярную составляющую более отчетливо. Чтобы избежать смещения оценки мы должны удостоверитьсяБольшинство регулярных составляющих временных рядов принадлежит к двум классам: они являются либо трендом, что обучающие наборы данных содержат только наблюдениялибо сезонной составляющей. Тренд представляет собой общую систематическую линейную или нелинейную компоненту, которые произошли до событий из валидирующий наборовкоторая может изменяться во времени. Сезонная составляющая {{---}} это периодически повторяющаяся компонента. Оба эти вида регулярных компонент часто присутствуют в ряде одновременно.
Возможным способом преодоления данной проблемы будет использование скользящего окна, как описано здесь [https://robjhyndman.com/hyndsight/tscv/]. Эта процедура называется кросс-валидацией ==Валидирование и тестирование модели временного ряда ==<br>Данные упорядочены относительно неслучайных моментов времени, и может быть вкратце описано следующей картинкой(рис. 1), значит, в отличие от случайных выборок, могут содержать в которой синие точки обозначают тренировочный набор данныхсебе дополнительную информацию, поэтому нельзя пользоваться обычными способами валидации. Чтобы избежать смещения оценки необходимо удостовериться, а красные соответствующие валидационные что обучающие наборы данныхсодержат только наблюдения, которые произошли до событий из валидирующиx наборов.<br>[[Файл:TimeSeriesCross-validation.png |thumb|left|400px|Рисунок 1. кросс-валидация временного ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 1.com]</ref>]]<br>Если мы хотим предсказать следующие n шагов, то можно заранее кроссКросс-валидировать 1,2,...,n шагов. Таким образов можно также сравнить качество предсказаний для разных [[временные горизонты|временных горизонтоввалидация временного ряда]] <sup>[на 07.01.21 не создан]</sup>.<br><br>
Определив лучшую модельВозможным способом преодоления данной проблемы будет использование скользящего окна, мы можем применить её ко всему обучающему набору как описано [https://robjhyndman.com/hyndsight/tscv/ здесь]. Эта процедура называется [[Кросс-валидация|кросс-валидацией]] временного ряда и оценить его работу на следующем во времени наборе данных. Оценка работы может быть дана с использованием метода скользящего окнавкратце описана следующей картинкой (рис. 1), который мы использовали при кросс-валидациив которой синие точки обозначают тренировочный набор данных, но без переподсчёта параметром моделиа красные соответствующие валидационные наборы данных.<br>
==Краткое исследование данных==В следующей части мы попробуем использовать несколько разных моделей для предсказания изменений в промышленного производстваЕсли необходимо предсказать следующие $n$ шагов, которое будем оценивать численното можно заранее кросс-валидировать $1, как количество электро оборудования2, произведённого в зоне Евро...,n$.<br> Таким образом можно также сравнить качество предсказаний для разных временных горизонтов.<br><br>
Данные легко получить из пакета Определив лучшую модель, можно применить её ко всему обучающему набору и оценить его работу на следующем во времени наборе данных. Оценка работы может быть дана с использованием метода скользящего окна<ref>[https://cranwiki.loginom.rru/articles/windowing-projectmethod.org/package=fpp2 fpp2html loginom: Метод скользящего окна] в R. Чтобы набор можно было использовать вне R просто запустите следующий код в среде R.<br/ref>, который используем при кросс-валидации, но без переподсчёта параметра модели.
'''library'''(fpp2) '''write.csv'''(elecequip,file = “elecequip.csv”,row.names = FALSE) Набор Краткое исследование данных описывает ежемесячное производство электрооборудования(компьютеры электрические и оптические приборы)(рис. 2) в зоне евро(17 стран) в период с января 1996 по март 2012 года (см. график ниже). Последние два года будем использовать при тестировании.<br>==[[Файл:ManufactureOfElectricalEquipment.png|thumb|leftright|400px300px|Рисунок 2. Набор данных описывающий график производства электрооборудования<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 2.com] Набор данных описывающий график производства электрооборудования]]</refbr>]]
Временной ряд имеет пик В данной части используется несколько разных моделей для предсказания изменений в конце 2000 и другой в течение 2007. Также наблюдается большой спад в конце 2008 годапромышленном производстве, который, видимо<br> которые для примера будем оценивать численно, совпал с мировым финансовым кризисомкак количество электрооборудования,который случился произведённого в том же году. В течение каждого года можно увидеть повторяющийся рисунок, описывающий сезонные колебаниязоне Евро (рис. 2, 3). Посмотрим ближе на графики каждого года, чтобы лучше его понять, представим графики в декартовых и полярных координатах.<br> [[Файл:SeasonalPlotMonthluSeasonalPattern.png|thumb|leftright|300px|Рисунок 3. Сезонные колебания<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 3.com]</ref>Сезонные колебания]] Можно наблюдать сильно выраженные сезонные изменения, особенно большой спад Набор данных описывает ежемесячное производство электрооборудования (компьютеры электрические и оптические приборы) в зоне евро (17 стран) в августе, связанный период с летними каникуламиянваря 1996 по март 2012 года (риссм. 4график ниже).Последние два года будем использовать при тестировании.<br><br><br><br><br>
==Модели прогнозирования временных рядов==
#Наивный
#Разделение по сезонам (+ любая модель)
#Экспоненциальное сглаживание
#ARIMA, SARIMA
#GARCH
#Динамические линейные модели
#TBATS
#Prophet
#NNETAR
#LSTM
Будем предсказывать Существует 10 моделей прогнозирования, у каждой имеются свои достоинства и недостатки. Ниже, используя каждую модель, предскажем 12 месяцев, соответсвтенносоответственно, значение $t+1, t+2, …, t + 12$.Имеет смысл использовать среднюю абсолютную ошибку для работы оценки модели.<br><br><br>
Будем использовать Среднюю абсолютную ошибку(MAE) для оценки работы модели===Наивное предсказание===[[Файл:NaiveElectricalEquipmentManufacturing.<br><br>png|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 4.] Наивная]]<br>
===Наивная===Предсказания для каждого горизонта соотвествуют последнему наблюдаему наблюдаемому значению<code>$Y(t + h|t) = Y(t)</code>.[[Файл:NaiveElectricalEquipmentManufacturing.png|thumb|Рисунок 4. Наивная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref> ]] Такие предскания предполагают, что стохастическая модель генерирует случайное блуждание(рис. 4)$.
Такие предскания предполагают, что стохастическая<ref>[https://ru.wikipedia.org/wiki/Стохастичность Википедия: Стохастичность]</ref> модель генерирует [[Участник:Mk17.ru|случайное блуждание]].<br>[[Файл:SeasonalNaiveElectricalEquipmentManufacturing.png|thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 5.] Cезонно-наивная]]<br>Расширение наивной модели сезонно-наивная модель (рисангл. 5Season Naive, SNAIVE) {{---}} SNAIVE {{---}} сезонно-наивная модель предполагает, что временной ряд имеет сезонную компоненту, и что период сезонности $T$. <br>Прогнозы SNAIVE - модели описываются формулой<code>Y*(t+h|t) = Y(t+h-T) </code>.
Получаемые прогнозы следующий T шагов совпадают с предыдущими T шагами.
Эти модели часто используются как ориентировочные модели. Следующий график показывает предсказания двух моделей для 2007 года.<br>
[[Файл:SeasonalNaiveElectricalEquipmentManufacturing.png|thumbПрогнозы SNAIVE-модели описываются формулой $\dot{Y}(t+h|Рисунок 5. Сезонно наивная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-modelst) = Y(t+h-a2fa7a358fcb towardsdatascienceT)$.com]</ref>]]<br>
Модели были имплементированы Получаемые прогнозы следующие $T$ шагов совпадают с помощью встроенных функций naive и snaive из пакета forecast в Rпредыдущими $T$ шагами.Эти модели часто используются как ориентировочные модели. Следующий графики показывают предсказания двух моделей для 2007 года (рис. 4, 5).<br><br>
===Разделение по сезонам + любая модель===
[[Файл:STL_docompositionOnIndustrialProductionIndexData.png|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 6.] Методы разложения ряда]]<br>Если данные показывают, что они воспроиимчивы восприимчивы к периодическим-(сезонным ) изменениям(ежедневно, еженедельно, ежеквартально, ежегодно), то будет полезным разложить исходный временной ряд на сумму трёх компонентов.<br>
<code>$Y(t) = S(t) + T(t) + R(t)</code>$<br>$S(t) $ {{---}} сезонный компонент.<br>$T(t) $ {{---}} компонент трендового цикла.<br>$R(t)$ {{---}} остаток.<br>Существуют несколько способов для такого разложения, но наиболее простой называется классическим разложением и заключается в том, чтобы оценить тренд $T(t)$ через скользящее среднее, посчитать $S(t)$, как среднее без тренда $Y(t) - T(t)$ для каждого сезона.<br>Посчитать остаток, как $R(t) = Y(t) - T(t)-S(t)$.<br>[[Файл:SeasonallyAdjustedIndustrial.png |thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 7.] Сезонные индексы ряда]]Классическое разложение можно расширить несколькими способами.<br>Расширение позволяет использовать данный метод при:* непостоянной величине сезона;* посчитать начальные и конечные значения декомпозиции;* избежать лишнего сглаживания;
Существуют несколько способов для такого разложения, но наиболее простой называется классическим разложением и заключается в том, чтобыОценить тренд TОбзор методов разложений ряда можно увидеть по [https://otexts.com/fpp2/decomposition.html ссылке]. Используется реализация из стандартной библиотеки (t) через скользящее среднееПосчитать S(t), как среднее без тренда Y(t) - T(t) для каждого сезонаПосчитать остаток, как R(t) = Y(t) - T(t)-S(tрис. 6).<br>
Классическое разложение можно расширить несколькими способамиОдним из способов использования декомпозиции для прогнозирования будет:<br>1) Разложить обучающий набор алгоритмом.<br>Расширение позволяет использовать данный метод при:2) Посчитать сезонное отклонение ряда $Y(t) - S(t)$, используя любую модель для прогнозирования сезонно-чувствительного временного ряда.<br> *непостоянной величине сезона3) Добавить прогнозам сезонность последнего временного периода во временном ряду (в нашем случае $S(t)$ для прошлого года).<br> *посчитать начальные [[Файл:SeasonallyAdjustedTimeSeries.png|right|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 8.] Декомпозиция и конечные значение декомпозициинаивная модель]]<br> *избежать лишнего сглаживанияНа следующем графике показаны сезонные индексы ряда с учётом сезонности (рис. 7).
Обзор методов разложений ряда можно увидеть по [https://otexts.com/fpp2/decomposition.html ссылке]. Мы воспользуемся реализацией из стандартной библиотеки(рис. 6), которая достаточно универсальна и надёжна.<br>
[[Файл:STL_docompositionOnIndustrialProductionIndexData.png|thumb|Рисунок 6. Методы разложения ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>
Одним из способов использования декомпозиции для прогнозирования будет:
1)разложить обучающий набор алгоритмом из STL
2)посчитать сезонное отклонение ряда Y(t)-S(t), используя любую модель для прогнозирования сезоно-чувствительного временного ряда
3)Добавить прогнозам сезонность последнего временного периода во временном ряду(в нашем случае S(t) для прошлого года)
На следующем графике показаны сезонные индексы ряда с учётом сезонности (рис. 7):<br>[[Файл:SeasonallyAdjustedIndustrial.png |thumb|Рисунок 7. Сезонные индексы ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br> Следующий график показывает предсказания полученные расчёты для 2007 года с использованием STL декомпозиции и наивной модели(рис. 8) для сезонно-изменяемого временного ряда:<br>[[Файл:SeasonallyAdjustedTimeSeries.png|thumb|Рисунок 8. Декомпозиция и наивная модель<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>Декомпозиция была исплементирована с помощью встроенной в стандартную либу функции.
===Экспоненциальное сглаживание ===
<br>[[Файл:ExpSmoothing.png|thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 9.] Данные полученные для 2007 года с использованием модели экспоненциального сглаживания]]Экспоненциальное сглаживание<ref>[https://ru.wikipedia.org/wiki/Экспоненциальное_сглаживание Википедия: Экспоненциальное сглаживание ]</ref> {{---}} один из наиболее успешных классических методов предсказаний. В своей базовой форме оно он называется простым экспоненциальный сглаживанием и его прогнозы описываются формулами:<code>$Ŷ(t+h|t) = ⍺y(t) + ⍺(1-⍺)y(t-1) + ⍺(1-⍺)²y(t-2) + …$</codebr>где'''''with $0<⍺<1.$ '''''. Если $⍺ = 0$, то текущие наблюдения игнорируются, если же $⍺ = 1$, то полностью игнорируются предыдущие наблюдения.<br>[[Файл:ExpSmoothing+Decomposition.png|thumb|right|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 10.] Данные полученные для 2007 года, с использованием модели экспоненциального сглаживания и декомпозиции]]
ЗаметимЗаметно, что прогнозы равны взвешенному среднему от старых наблюдений, и что соответствующие веса убывают экспоненциально по мере хода времени.
Некоторые методы для расширения алгоритма позволяют добавить тренд, его затухание и сезонность.
Экспоненциальное сглаживание состоит из 9 моделей, которые подробно описаны [https://otexts.com/fpp2/taxonomy.html здесь(ссылка) Следующие графики(рис. 9, 10) описывают прогнозы данные полученные для 2007 года с использованием модели экспоненциального сглаживания(выбраны автоматически), которые подходили исходному и сезонно-чувствительному временному ряду].
[[Файл:ExpSmoothingСледующие графики (рис.png|thumb|Рисунок 9. данные полученные для 2007 года с использованием модели экспоненциального сглаживания<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]][[Файл:ExpSmoothing+Decomposition.png|thumb|Рисунок , 10. данные ) описывают прогнозы данных полученные для 2007 года , с использованием модели экспоненциального сглаживания (выбраны автоматически), которые подходили исходному и декомпозиции<ref>[https://towardsdatascience.com/anсезонно-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]Модели были имплементированы с помощью функции ets в forecast пакете Rчувствительному временному ряду.<br>
===ARIMA, SARIMA===
<br>[[Файл:SARIMA.png |thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 11.] SARIMA]]Также как и экспоненциальное сглаживание, интегрированная модель авторегрессии скользящего среднего (англ. autoregressive integrated moving average, ARIMA ) также часто используются для прогноза временных рядов. Название является акронимом AutoRegressive Integrated Moving Average Саморегрессивное интегрированное скользящее среднее
Саморегрессивность {{---}} линейная комбинация старых значений.
Скользящее среднее {{---}} линейная комбинация прошлых ошибок.
ARIMA {{Определение |definition = '''Процесс авторегрессии''' {{---}} комбинация этих двух подходов. Так как эти подходы требуют стационарности последовательная зависимость элементов временного ряда, может понадобится продифференциировать/проинтегрировать рядвыразается следующим уравнением:$x(t) = \psi + \phi_1 * x_(t-1) + \phi_2 * x_(t-2) + \phi_3 * x_(t-3) + ... + \epsilon$<br>Где $\psi$ {{---}} свободный член (константа).<br>$\phi_1, \phi_2, \phi_3, ...$ {{---}} параметры авторегрессии.То есть рассматировать ряд разностей}}{{Определение|definition ='''Скользящее среднее''' {{---}} общее название для семейства функций, а не исходный рядзначения которых в каждой точке определения равны некоторому среднему значению исходной функции за предыдущий период.}}
{{Определение|definition ='''Процесс скользящего среднего''' {{---}} в процессе скользящего среднего каждый элемент ряда подвержен суммарному воздействию предыдущих ошибок. В общем виде это можно записать следующим образом:$x_t = \mu + \epsilon_t - \theta_1 * \epsilon_{t-1} - \theta_2 * \epsilon_{t-2} - ...$ <br>Где $\mu$ {{---}} константа.<br>$\theta_1, \theta_2, \theta_3, ...$ {{---}} параметры скользящего среднего.}} [[Файл:SARIMA_Decomposition.png|thumb|right|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 12.] SARIMA учитывает сезонностьдекомпозированная]]ARIMA {{---}} комбинация этих двух подходов. Так как эти подходы требуются стационарности временного ряда, добавляя линейную комбинацию прошлых сезонных значений иможет понадобится продифференциировать/или прошлых ошибок прогнозапроинтегрировать ряд.Для полного ввода в ARIMAТо есть рассматировать ряд разностей, SARIMA читайте по ссылкеа не исходный ряд.
Данные графики показывают предсказания полученные для 2007 года с использованием модели SARIMAСезонная интегрированная модель авторегрессии скользящего среднего (рисангл. 11season autoregressive integrated moving average,12SARIMA):<br>[[Файл:SARIMA.png |thumb|Рисунок 11. SARIMA<ref>[https://towardsdatascience.comучитывает сезонность, добавляя линейную комбинацию прошлых сезонных значений и/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceили прошлых ошибок прогноза.com]</ref>]][[Файл:SARIMA_Decomposition.png|Рисунок 12. Более подробную информацию про ARIMA, SARIMA декомпозированная<ref>читайте по [https://towardsdatascienceotexts.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatasciencefpp2/arima.com]</ref>]html ссылке].
Имплементация Данные графики показывают предсказания полученные для 2007 года, с помощью встроенной в R функции autoиспользованием модели SARIMA (рис.arima11,12).<br>
===Garch===
<br>[[Файл:GARCH.png |thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 13.] ARMA]]<br> В предыдущих моделях мы считалисчиталось, что слагаемое ошибки в стохастическом процессе генерации временного ряды имели ряда имело одинаковую дисперсию. В GARСH-модели (англ. Generalized AutoRegressive Conditional Heteroscedasticity, GARCH) предполагается, что слагаемое ошибки следует авторегрессионному скользящему среднему (англ. AutoRegressive Moving Average, ARMA), соответственно слагаемое меняется по ходу времени. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон изменений тоже постоянно меняется (рис. 13). В 1982 году была предложена ARCH {{---}} модель, описываемая формулой: <br> $\sigma^2(t) = \alpha + \sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ <br>где $\alpha$ {{---}} коэффициент задержки<br>$\sigma^2(t)$ - волатильность<br>$\sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ - линенйная комбинация абсолютных значений нескольких последних изменений значений.
В GARSHПозднее была создана GARCH {{-модели--}} обобщённая ARCH модель, которая также учитывает предыдущие оценки дисперсии. Формула может быть записана так:$\sigma^2(рис. 13t) мы преполагаем= \alpha + \sum_{i = 1}^{\alpha}b_ir^{2}_{t-1} \sum_{i = 1}^{p}c_i\sigma^{2}_{t-1}$ <br>где p {{---}} количество предшествующих оценок, что слагаемое ошибки следуют влияющих на текущее значение.<br>с {{---}} весовые коэффициенты предыдущих оценок. Обычно ARMA процессу(саморегрессирующее скользящее среднее)используется и для учёта среднего, соответственно слагаемое меняется по ходу времениболее подробное введение в Garsh и различные варианты можно найти [https://cran. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон изменений тоже постоянно меняетсяr-project.org/web/packages/rugarch/vignettes/Introduction_to_the_rugarch_package.pdf здесь].<br><br>
Обычно ARMA используется и для учёта среднего, для подробного введения в Garsh модели смотри здесь:
[[Файл:GARCH.png |thumb|Рисунок 13. ARMA<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>
===Динамические линейные модели===
[[Файл:DLM+Decomposition.png|right|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 14.] DLM]]<br>Динамические линейные модели представляют другой класс моделей предсказания временных рядов(рис. 14).Идея заключается в том, что в каждый моменты момент времени $t $ эти модели соответствуют линейной модели, но коэффициент регрессии постоянно меняется. <br>Пример динамической линейной модели ниже:<br><code>$y(t) = ⍺(t) + tβ(t) + w(t)</code>$,<br><code>$⍺(t) = ⍺(t-1) + m(t)</code>$,<br><code>$β(t) = β(t-1) + r(t)</code>$,<br><code>$w(t)$ ~$N(0,W) $, $m(t)$ ~$N(0,M) $, $r(t)$ ~$N(0,R)</code>$.<br>
В предыдущей модели коэффициенты $a(t) $ и $b(t) $ следуют случайному блужданию. Динамические линейные модели могут быть построены в рамках Байесовской системы. Тем не менее и этот метод можно улучшить, подробности читайте [https://cran.r-project.org/web/packages/dlm/vignettes/dlm.pdf тутздесь].<br>
[[Файл:DLM+Decomposition.png]]<br>
===TBATS===
Это <br>[[Файл:TBATS_Electrical.png |left|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 15.] DLM]]TBATS (англ. Trigonometric seasonality, Box-Cox transformation, ARMA errors, Trend and Seasonal components) {{---}} это модели, которые основаны на экспоненциальном сглаживании(рис. 15).<br> Главной особенностью TBATS является возможность взаимодействия с несколькими сезонностями. Моделируя каждую функцию сезонности отдельным тригонометрическим отображением построенным на [[L 2-теория рядов Фурье|рядах Фурье]]. <br><br>Классическим примером комплексной сезонности будет отображение ежедневных объемов продаж, которые которое имеет, как еженедельные колебания, так и ежегодные.<br>
Больше информации можно прочиать [https://robjhyndman.com/papers/ComplexSeasonality.pdf тут].<br>[[Файл:DLM+Decomposition.png]]<br><br>
===Prophet===
<br>Ещё одна модель, способная взаимодействовать с несколькими сезонностями(рис. 16). Это ПО с открытым исходным кодом от Фейсбука([https://facebook.github.io/prophet/ ссылка]).<br>[[Файл:Prophet.png |right|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 16.] Prophet]] Prophet считает, что временной ряд может быть расложен разложен следующим образом:<br><code>$y(t) = g(t) + s(t) + h(t) + ε(t)</code>$,<br>$g(t) $ {{---}} тренд,<br>$s(t) $ {{---}} сезонность,<br>$h(t) $ {{---}} каникулы, т.е аномальные данные,<br>$ε(t) $ {{---}} ошибки.<br>
Подгонка модели представляет собой упражнение по подгонке кривой, поэтому она явно не учитывает структуру временной зависимости в данных. Это также позволяет проводить наблюдения с нерегулярным интервалом.<br>
Есть два варианта временных рядов тренда: модель насыщающего роста и кусочно-линейная модель. Модель многопериодной сезонности основана на рядах Фурье<ref>[[Определение ряда Фурье]]</ref>. Эффект известных и заказных выходных дней может быть легко включен в модель.<br>Модель пророка Prophet вставлена в байесовскую структуру и позволяет сделать полный апостериорный вывод, чтобы включить неопределенность параметров модели в неопределенность прогноза.<br>
[[Файл:Prophet.png]]
===NNETAR===
<br>[[Файл:NNETARElectriacalequipmntManufacturing.png |left|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 17.] NNETAR]]Модель авторегрессии нейронной сети (англ. Neural NETwork AutoRegression, NNETAR ) представляет собой полностью связанную полносвязную [https://neerc.ifmo.ru/wiki/index.php?title=Нейронные_сети,_перцептрон нейронную сеть]. Аббревиатура расшифровывается как Neural NETwork AutoRegressionМодель NNETAR принимает на вход последние элементы последовательности до момента времени $t$ и выводит прогнозируемое значение в момент времени $t + 1$. Для выполнения многоэтапных прогнозов сеть применяется итеративно.
Модель NNETAR принимает на вход последние элементы последовательности до момента времени можно описать уравнением$y_t = f(y_{t-1}) + \epsilon_t$ <br>где $y_{t-1} = (y_{t-1}, y_{t -2}, ...)'$ {{---}} вектор, содержащий запаздывающие значения, <br>f {{---}} нейронная сеть, с 4 скрытыми узлами в каждом слое, <br>$\epsilon_t$ {{---}} считаем, что ряд ошибок [https://ru.wikipedia.org/wiki/Гомоскедастичность гомокседастичен] (и выводит прогнозируемое возможно имеет нормальное распределение).<br>[[Файл:NNETARElectriacalequipmntManufacturingDecomposition.png |right|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 18.] NNETAR c декомпозицией]] Мы можем моделировать будущие выборочные пути этой модели итеративно, случайным образом генерируя значение для $\epsilon_t$ либо из нормального распределения, либо путем повторной выборки из исторических значений.<br> Так что если$\epsilon^*_{T+1}${{---}} случайная выборка из распределения ошибок в момент времени t $T+1$,<br> тогда $y^*_{T+1} = f(y_T) + \epsilon^*_{T+1}$ {{---}} один из возможных вариантов распределения прогнозов для $y_{T+1}$ <br>Установив $y^*_{T+1} = (y^*_{T+1}, y_{T})'$, мы можем повторить процесс, чтобы получить $y^*_{T+2} = f(y_{T+ 1}) + \epsilon_{T+2}$. Для выполнения многоэтапных прогнозов сеть применяется <br> Таким образом, мы можем итеративномоделировать будущий путь выборки. Повторно моделируя выборочные пути, мы накапливаем знания о распределении всех будущих значений на основе подобранной нейронной сети.
===LSTM===
Модели <br>Блок [[:Долгая_краткосрочная_память|cети долго-краткосрочной памяти]] (англ. Long short-term memory, LSTM ) могут использоваться для прогнозирования временных рядов (а также других рекуррентных нейронных сетей). <br>LSTM {{---}} это аббревиатура от Long-Short Term Memories.<br>
Состояние сети LSTM представлено через вектор пространства состояний. Этот метод позволяет отслеживать зависимости новых наблюдений от прошлых (даже очень далеких).<br>
Вообще говоря, LSTM представляют собой сложные модели, и они редко используются для прогнозирования одного временного ряда, поскольку для их оценки требуется большой объем данных.<br>Однако они обычно используются, когда необходимы прогнозы для большого количества временных рядов(проверьте как показано [https://arxiv.org/abs/1704.04110 здесь]).
==Оценка==
Мы выполнили [[Файл:Evaluation.png |right|600px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 19.] MAE с перекрестной проверкой для каждой модели]]Выполнен выбор модели с помощью процедуры перекрестной проверки, описанной ранее. Мы не рассчитывали Не рассчитывая его для динамических линейных моделей и моделей LSTM из-за их высокой вычислительной стоимости и низкой производительности.<br>На следующем рисунке мы показываем показана [[Оценка качества в задачах классификации и регрессии|средняя абсолютная ошибка]] (англ. Mean Absolute Error, MAE ) с перекрестной проверкой для каждой модели и для каждого временного горизонта(рис. 17): [[Файл:Evaluation.png]]
Мы видим, что для временных горизонтов больше 4 модель Модель NNETAR с по сезонно скорректированными данными работает лучшескорректированным данным была лучшей моделью для данной задачи, чем другие. Давайте проверим общую поскольку она соответствовала самому низкому значению MAE, вычисленную путем усреднения по разным временным горизонтампрошедшему перекрестную проверку.<br>Чтобы получить объективную оценку наилучшей производительности модели, вычислим MAE на тестовом наборе (рис. 18), получив оценку, равную 5,24. На следующем рисунке можно увидеть MAE, оцененную на тестовой выборке для каждого временного горизонта.<br>
Модель NNETAR по сезонно скорректированным данным была лучшей моделью для этого приложения, поскольку она соответствовала самому низкому значению MAE, прошедшему перекрестную проверку.<br>Чтобы получить объективную оценку наилучшей производительности модели, мы вычислили MAE на тестовом наборе, получив оценку, равную 5,24. На следующем рисунке мы можем увидеть MAE, оцененную на тестовой выборке для каждого временного горизонта.<br>[[Файл:Cross-validated MAE.png|left|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 20.] MAE, тестовый набор]]<br><br><br>=== Методы увеличения производительности===
===Как еще больше повысить производительность===Другие методы повышения производительности моделей:*Использование разных моделей для разных временных горизонтов,*Объединение нескольких прогнозов (например, с учетом среднего прогноза),*''Агрегация начальных данных''.<br><br>Последний метод у можно резюмировать следующим образом:*Разложите исходный временной ряд (например, используя STL)*Создайте набор похожих временных рядов путем случайного перемешивания фрагментов оставшейся компоненты.*Подбирайте модель для каждого временного ряда*Средние прогнозы каждой модели<br>
==Заключительные замечания==
Целью этого проекта было не подобрать наилучшую возможную модель прогнозирования Большинство ранее описанных моделей позволяют легко включать изменяющиеся во времени предикторы. Они могут быть извлечены из одного и того же временного ряда или могут соответствовать внешним предикторам (например, временному ряду другого индекса промышленного производства, а дать обзор моделей прогнозирования). В реальном приложении много времени следует тратить последнем случае необходимо обратить внимание на предварительную обработкуто, разработку функций и выбор функцийчтобы не использовать информацию из будущего, которая могла бы быть удовлетворена путем прогнозирования предикторов или использования версий c ошибками.<br><br>
Большинство ранее описанных моделей позволяют легко включать изменяющиеся во времени предикторыОбратите внимание, что в данном конспекте рассматривается случай, когда у нас есть один временной ряд для прогнозирования. Они могут Когда у нас много временных рядов, может быть извлечены из одного предпочтительнее глобальный подход, поскольку он позволяет нам оценивать более сложную и того же временного ряда или могут соответствовать внешним предикторам (например, временному ряду другого индекса)потенциально более точную модель. Подробнее о глобальном подходе [https://arxiv.org/abs/1704. В последнем случае мы должны обратить внимание на то, чтобы не использовать информацию из будущего, которая могла бы быть удовлетворена путем прогнозирования предикторов или использования их лаговых версий04110 здесь].<br>
Наконец, обратите внимание, что в этой статье мы рассмотрели только случай, когда у нас есть один временной ряд для прогнозирования. Когда у нас много временных рядов, может быть предпочтительнее глобальный подход, поскольку он позволяет нам оценивать более сложную и потенциально более точную модель. Чтобы ознакомиться с глобальным подходом, щелкните здесь.
==См. Также==
* [[Кластеризация]]
* [[Рекомендательные системы]]
* [[Анализ социальных сетей]]
* [[Графовые нейронные сети]]
* [[Компьютерное зрение]]
 
== Примечания ==
<references/>
==Источники Информации==
* Филатов, А[http://www. Вmachinelearning. Заметки профайлера ru/ Аwiki/index. Вphp?title=Временной_ряд machinelearning. Филатовru]*[https://ru.wikipedia. -Москваorg/wiki/Временной_ряд Википедия: Временной ряд]*[http: Издательские решения, 2019//statsoft. -522ru/home/textbook/modules/sttimser.html StatSoft: Анализ временных рядов]* http[https://wwwchaos.phys.machinelearningmsu.ru/loskutov/PDF/Lectures_time_series_analysis.pdf Лоскутов А.Ю. физ. фак. МГУ: Анализ Временных Рядов]*[https://wiki/index.php?title=Временной_ряд machinelearningloginom.ru/articles/garch-model.html loginom: Garch-модель]*[https://otexts.com/fpp2/nnetar.html Otexts: NNETAR]
[[Категория: Машинное обучение]]
[[Категория: Анализ временных рядов]]
1632
правки

Навигация