Изменения

Перейти к: навигация, поиск

Анализ временных рядов

5901 байт добавлено, 19:11, 4 сентября 2022
м
rollbackEdits.php mass rollback
Временные ряды {{---}} это актуальный инструмент применимые , применимый во множестве решений, от предсказания цен на акции, прогнозов погоды, планирования бизнеса, до распределения ресурсов. Несмотря на то, что прогнозирование может быть сведено к построению контролируемой [[Вариации регрессии|регрессии]], существуют особенносстиособенности, связанные с временным характером наблюдений, которые необходимо учитывать, используя специальные инструменты.<br>
==Временной ряд==
Обычно временной <br>{{Определение|definition ='''Временно́й ряд представляется как стохастический процесс Y(tили ряд динамики)''' {{---}} собранный в разные моменты времени статистический материал о значении каких-либо параметров (в простейшем случае одного)исследуемого процесса. Каждая единица статистического материала называется измерением или отсчётом. Во временном ряде для каждого отсчёта должно быть указано время измерения или номер измерения по порядку.}} Как и большинство других видов анализа, то есть ряд случайных переменных. В момент предсказания мы находимся в моменте t анализ временных рядов предполагает, что данные содержат систематическую составляющую (обычно включающую несколько компонент) и нужно предположить значение Yслучайный шум (t+bошибку), использую только информациюкоторый затрудняет обнаружение регулярных компонент. Большинство методов исследования временных рядов включает различные способы фильтрации шума, доступную позволяющие увидеть регулярную составляющую более отчетливо. Большинство регулярных составляющих временных рядов принадлежит к двум классам: они являются либо трендом, либо сезонной составляющей. Тренд представляет собой общую систематическую линейную или нелинейную компоненту, которая может изменяться во времени. Сезонная составляющая {{---}} это периодически повторяющаяся компонента. Оба эти вида регулярных компонент часто присутствуют в момент tряде одновременно.
==Как валидировать Валидирование и тестировать модель тестирование модели временного ряда?==Из-за временных зависимостей данных временных рядов<br>Данные упорядочены относительно неслучайных моментов времени, и, значит, в отличие от случайных выборок, могут содержать в себе дополнительную информацию, мы не можем поэтому нельзя пользоваться обычными способами валидации. Чтобы избежать смещения оценки мы должны необходимо удостовериться, что обучающие наборы данных содержат только наблюдения, которые произошли до событий из валидирующий валидирующиx наборов.<br>[[Файл:TimeSeriesCross-validation.png |thumb|left|400px|Рисунок 1. кросс-валидация временного ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 1.com]</ref>Кросс-валидация временного ряда]]<br>
Возможным способом преодоления данной проблемы будет использование скользящего окна, как описано [https://robjhyndman.com/hyndsight/tscv/ здесь]. Эта процедура называется [[Кросс-валидация|кросс-валидацией ]] временного ряда и может быть вкратце описано описана следующей картинкой(рис. 1), в которой синие точки обозначают тренировочный набор данных, а красные соответствующие валидационные наборы данных.<br>
Если мы хотим необходимо предсказать следующие $n $ шагов, то можно заранее кросс-валидировать $1,2,...,n шагов$. <br> Таким образов образом можно также сравнить качество предсказаний для разных [[временные горизонты|временных горизонтов]] <sup>[на 07.01.21 не создан]</sup>.<br><br>
Определив лучшую модель, мы можем можно применить её ко всему обучающему набору и оценить его работу на следующем во времени наборе данных. Оценка работы может быть дана с использованием метода скользящего окна<ref>[https://wiki.loginom.ru/articles/windowing-method.html loginom: Метод скользящего окна]</ref>, который мы использовали используем при кросс-валидации, но без переподсчёта параметром параметра модели.
==Краткое исследование данных==
В следующей части мы попробуем использовать несколько разных моделей для предсказания изменений в промышленного [[Файл:ManufactureOfElectricalEquipment.png|thumb|right|300px|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 2.] Набор данных описывающий график производства, которое будем оценивать численно, как количество электро оборудования, произведённого в зоне Евро.электрооборудования]]<br>
Данные легко получить из пакета В данной части используется несколько разных моделей для предсказания изменений в промышленном производстве,<br> которые для примера будем оценивать численно, как количество электрооборудования, произведённого в зоне Евро (рис. 2, 3).<br>[[Файл:SeasonalPlotMonthluSeasonalPattern.png|thumb|right|300px|[https://crantowardsdatascience.rcom/an-projectoverview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 3.org/package=fpp2 fpp2] Сезонные колебания]]Набор данных описывает ежемесячное производство электрооборудования (компьютеры электрические и оптические приборы) в Rзоне евро (17 стран) в период с января 1996 по март 2012 года (см. Чтобы набор можно было график ниже). Последние два года будем использовать вне R просто запустите следующий код в среде Rпри тестировании.<br><br><br><br><br>
'''library'''(fpp2) '''write.csv'''(elecequip,file = “elecequip.csv”,row.names = FALSE)Модели прогнозирования временных рядов==
Набор данных описывает ежемесячное производство электрооборудования(компьютеры электрические Существует 10 моделей прогнозирования, у каждой имеются свои достоинства и оптические приборы)(риснедостатки. Ниже, используя каждую модель, предскажем 12 месяцев, соответственно, значение $t+1, t+2) в зоне евро(17 стран) в период с января 1996 по март 2012 года (см, …, t + 12$. график ниже). Последние два года будем Имеет смысл использовать при тестированиисреднюю абсолютную ошибку для работы оценки модели.<br><br><br>
===Наивное предсказание===[[Файл:ManufactureOfElectricalEquipmentNaiveElectricalEquipmentManufacturing.png|thumb|left|400px|Рисунок 2. Набор данных описывающий график производства электрооборудования<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 4.com] Наивная]]</refbr>]]
Временной ряд имеет пик в конце 2000 и другой в течение 2007. Также наблюдается большой спад в конце 2008 года, который, видимо, совпал с мировым финансовым кризисом,который случился в том же годуПредсказания для каждого горизонта соотвествуют последнему наблюдаемому значению$Y(t + h|t) = Y(t)$.
В течение каждого года можно увидеть повторяющийся рисунокТакие предскания предполагают, описывающий сезонные колебаниячто стохастическая<ref>[https://ru.wikipedia.org/wiki/Стохастичность Википедия: Стохастичность]</ref> модель генерирует [[Участник:Mk17.ru|случайное блуждание]].<br>[[Файл:SeasonalNaiveElectricalEquipmentManufacturing.png|thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 5.] Cезонно-наивная]]<br>Расширение наивной модели сезонно-наивная модель (рисангл. 3Season Naive, SNAIVE). Посмотрим ближе на графики каждого года{{---}} сезонно-наивная модель предполагает, чтобы лучше его понятьчто временной ряд имеет сезонную компоненту, представим графики в декартовых и полярных координатахчто период сезонности $T$.<br>
[[Файл:SeasonalPlotMonthluSeasonalPattern.png|thumb|left|300px|Рисунок 3. Сезонные колебания<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]
Можно наблюдать сильно выраженные сезонные изменения, особенно большой спад в августе, связанный с летними каникуламиПрогнозы SNAIVE-модели описываются формулой $\dot{Y}(рис. 4t+h|t)= Y(t+h-T)$.
==Модели прогнозирования временных рядов==Получаемые прогнозы следующие $T$ шагов совпадают с предыдущими $T$ шагами. #Наивный#Разделение по сезонам Эти модели часто используются как ориентировочные модели. Следующий графики показывают предсказания двух моделей для 2007 года (+ любая модельрис. 4, 5)#Экспоненциальное сглаживание#ARIMA, SARIMA#GARCH#Динамические линейные модели#TBATS#Prophet#NNETAR#LSTM.<br><br>
Будем предсказывать 12 месяцев===Разделение по сезонам + любая модель===[[Файл:STL_docompositionOnIndustrialProductionIndexData.png|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 6.] Методы разложения ряда]]<br>Если данные показывают, соответсвтенночто они восприимчивы к периодическим (сезонным) изменениям (ежедневно, значение t+1еженедельно, t+2ежеквартально, ежегодно), t + 12то будет полезным разложить исходный временной ряд на сумму трёх компонентов.<br>
Будем использовать Среднюю абсолютную ошибку$Y(t) = S(t) + T(t) + R(t)$<br>$S(t)$ {{---}} сезонный компонент.<br>$T(t)$ {{---}} компонент трендового цикла.<br>$R(t)$ {{---}} остаток.<br>Существуют несколько способов для такого разложения, но наиболее простой называется классическим разложением и заключается в том, чтобы оценить тренд $T(t)$ через скользящее среднее, посчитать $S(t)$, как среднее без тренда $Y(t) - T(MAEt) $ для оценки работы моделикаждого сезона.<br>Посчитать остаток, как $R(t) = Y(t) - T(t)-S(t)$.<br>[[Файл:SeasonallyAdjustedIndustrial.png |thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 7.] Сезонные индексы ряда]]Классическое разложение можно расширить несколькими способами.<br>Расширение позволяет использовать данный метод при:* непостоянной величине сезона;* посчитать начальные и конечные значения декомпозиции;* избежать лишнего сглаживания;
===Наивная===Предсказания для каждого горизонта соотвествуют последнему наблюдаему значению<code>Y(t + h|t) = Y(t)</code>.[[Файл:NaiveElectricalEquipmentManufacturing.png|thumb|Рисунок 4. Наивная<ref>Обзор методов разложений ряда можно увидеть по [https://towardsdatascienceotexts.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatasciencefpp2/decomposition.comhtml ссылке]</ref> ]] Такие предскания предполагают, что стохастическая модель генерирует случайное блуждание. Используется реализация из стандартной библиотеки (рис. 46).<br>
Расширение наивной модели Одним из способов использования декомпозиции для прогнозирования будет:<br>1) Разложить обучающий набор алгоритмом.<br>2) Посчитать сезонное отклонение ряда $Y(рисt) - S(t)$, используя любую модель для прогнозирования сезонно-чувствительного временного ряда. 5<br>3) {{Добавить прогнозам сезонность последнего временного периода во временном ряду (в нашем случае $S(t)$ для прошлого года).<br>[[Файл:SeasonallyAdjustedTimeSeries.png|right|thumb|[https://towardsdatascience.com/an-overview-of-}} SNAIVE {{time-series-forecasting-}} сезонноmodels-a2fa7a358fcb Рисунок 8.] Декомпозиция и наивная модель предполагает, что временной ряд имеет сезонную компоненту, и что период сезонности T. ]]<br>Прогнозы SNAIVE - модели описываются формулой<code>Y*На следующем графике показаны сезонные индексы ряда с учётом сезонности (t+h|tрис. 7) = Y(t+h-T) </code>.
Получаемые прогнозы следующий T шагов совпадают с предыдущими T шагами.
Эти модели часто используются как ориентировочные модели. Следующий график показывает предсказания двух моделей для 2007 года.<br>
[[Файл:SeasonalNaiveElectricalEquipmentManufacturingСледующий график показывает расчёты для 2007 года с использованием декомпозиции и наивной модели (рис.png|thumb|middle|Рисунок 5. Сезонно наивная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models8) для сезонно-a2fa7a358fcb towardsdatascienceизменяемого временного ряда.com]</ref>]]<br>
Модели были имплементированы с помощью встроенных функций naive и snaive из пакета forecast в R. ===Разделение по сезонам + любая модельЭкспоненциальное сглаживание ===Если данные показывают, что они воспроиимчивы к периодическим-сезонным изменениям(ежедневно, еженедельно, ежеквартально, ежегодно), то будет полезным разложить исходный временной ряд на сумму трёх компонентов.<br> <code>Y(t) = S(t) + T(t) + R(t)</code><br>S(t) {{---}} сезонный компонентT(t) {{---}} компонент трендового циклаR(t){{---}} остаток
<br>
Существуют несколько способов [[Файл:ExpSmoothing.png|thumb|left|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 9.] Данные полученные для такого разложения, но 2007 года с использованием модели экспоненциального сглаживания]]Экспоненциальное сглаживание<ref>[https://ru.wikipedia.org/wiki/Экспоненциальное_сглаживание Википедия: Экспоненциальное сглаживание]</ref> {{---}} один из наиболее простой успешных классических методов предсказаний. В своей базовой форме он называется классическим разложением простым экспоненциальный сглаживанием и заключается в том, чтобы<br>его прогнозы описываются формулами:Оценить тренд T(t+h|t) через скользящее среднее<br>Посчитать S= ⍺y(t), как среднее без тренда Y+ ⍺(1-⍺)y(t-1) + ⍺(1- T⍺)²y(t-2) для каждого сезона+ …$<br>Посчитать остатокгде''''' $0<⍺<1$ '''''. Если $⍺ = 0$, то текущие наблюдения игнорируются, как если же $⍺ = 1$, то полностью игнорируются предыдущие наблюдения.<br> R(t) = Y(t) [[Файл:ExpSmoothing+Decomposition.png|thumb|right|[https://towardsdatascience.com/an-overview-of-time-series-forecasting- T(t)models-S(t) Классическое разложение можно расширить несколькими способамиРасширение позволяет использовать данный метод при: *непостоянной величине сезона *посчитать начальные a2fa7a358fcb Рисунок 10.] Данные полученные для 2007 года, с использованием модели экспоненциального сглаживания и конечные значение декомпозиции *избежать лишнего сглаживания]]
Обзор методов разложений ряда можно увидеть по [https://otexts.com/fpp2/decomposition.html ссылке]. Мы воспользуемся реализацией из стандартной библиотеки(рис. 6)Заметно, что прогнозы равны взвешенному среднему от старых наблюдений, которая достаточно универсальна и надёжна.<br>[[Файл:STL_docompositionOnIndustrialProductionIndexData.png|thumb|Рисунок 6. Методы разложения ряда<ref>[https://towardsdatascienceчто соответствующие веса убывают экспоненциально по мере хода времени.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>Одним из способов использования декомпозиции для прогнозирования будет:1)разложить обучающий набор алгоритмом из STL2)посчитать сезонное отклонение ряда Y(t)-S(t), используя любую модель для прогнозирования сезоно-чувствительного временного ряда3)Добавить прогнозам сезонность последнего временного периода во временном ряду(в нашем случае S(t) для прошлого года)
На следующем графике показаны сезонные индексы ряда с учётом сезонности (рисНекоторые методы для расширения алгоритма позволяют добавить тренд, его затухание и сезонность. 7):<br>[[Файл:SeasonallyAdjustedIndustrial.png |thumb|Рисунок 7. Сезонные индексы ряда<ref>Экспоненциальное сглаживание состоит из 9 моделей, которые подробно описаны [https://towardsdatascienceotexts.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatasciencefpp2/taxonomy.comhtml здесь]</ref>]]<br>.
Следующий график показывает предсказания Следующие графики (рис. 9, 10) описывают прогнозы данных полученные для 2007 года , с использованием STL декомпозиции и наивной моделиэкспоненциального сглаживания (рис. 8выбраны автоматически) для , которые подходили исходному и сезонно-изменяемого временного ряда:<br>[[Файл:SeasonallyAdjustedTimeSeriesчувствительному временному ряду.png|thumb|Рисунок 8. Декомпозиция и наивная модель<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>Декомпозиция была исплементирована с помощью встроенной в стандартную либу функции.
===Экспоненциальное сглаживание ARIMA, SARIMA===Экспоненциальное сглаживание {{<br>[[Файл:SARIMA.png |thumb|left|[https://towardsdatascience.com/an-overview-of-time-}} один из наиболее успешных классических методов предсказаний. В своей базовой форме оно называется простым экспоненциальный сглаживанием и его прогнозы описываются формулами:<code>Ŷ(t+h|t) = ⍺y(t) + ⍺(1series-⍺)y(tforecasting-1) + ⍺(1models-⍺)²ya2fa7a358fcb Рисунок 11.] SARIMA]]Также как и экспоненциальное сглаживание, интегрированная модель авторегрессии скользящего среднего (t-2англ. autoregressive integrated moving average, ARIMA) + …</code>'''''with 0<⍺<1также часто используются для прогноза временных рядов.'''''<br>
Заметим, что прогнозы равны взвешенному среднему от старых наблюдений, и что соответствующие веса убывают экспоненциально по мере хода времени.
Некоторые методы для расширения алгоритма позволяют добавить тренд{{Определение |definition = '''Процесс авторегрессии''' {{---}} последовательная зависимость элементов временного ряда, его затухание и сезонностьвыразается следующим уравнением:$x(t) = \psi + \phi_1 * x_(t-1) + \phi_2 * x_(t-2) + \phi_3 * x_(t-3) + ...+ \epsilon$<br>Экспоненциальное сглаживание состоит из 9 моделей, которые подробно описаны здесьГде $\psi$ {{---}} свободный член (ссылкаконстанта).<br>$\phi_1, \phi_2, \phi_3, ...$ {{---}} параметры авторегрессии.}}{{Определение|definition ='''Скользящее среднее''' {{---}} общее название для семейства функций, значения которых в каждой точке определения равны некоторому среднему значению исходной функции за предыдущий период.}}
Следующие графики(рис{{Определение|definition ='''Процесс скользящего среднего''' {{---}} в процессе скользящего среднего каждый элемент ряда подвержен суммарному воздействию предыдущих ошибок. В общем виде это можно записать следующим образом:$x_t = \mu + \epsilon_t - \theta_1 * \epsilon_{t-1} - \theta_2 * \epsilon_{t-2} - ...$ <br>Где $\mu$ {{---}} константа. 9<br>$\theta_1, \theta_2, 10) описывают прогнозы данные полученные для 2007 года с использованием модели экспоненциального сглаживания(выбраны автоматически)\theta_3, которые подходили исходному и сезонно...$ {{-чувствительному временному ряду--}} параметры скользящего среднего.}} [[Файл:SARIMA_Decomposition.png|thumb|right|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 12.] SARIMA декомпозированная]]ARIMA {{---}} комбинация этих двух подходов. Так как эти подходы требуются стационарности временного ряда, может понадобится продифференциировать/проинтегрировать ряд.То есть рассматировать ряд разностей, а не исходный ряд.
[[Файл:ExpSmoothingСезонная интегрированная модель авторегрессии скользящего среднего (англ.png|thumb|Рисунок 9. данные полученные для 2007 года с использованием модели экспоненциального сглаживания<ref>[https:season autoregressive integrated moving average, SARIMA) учитывает сезонность, добавляя линейную комбинацию прошлых сезонных значений и//towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceили прошлых ошибок прогноза.com]</ref>]][[Файл:ExpSmoothing+Decomposition.png|thumb|Рисунок 10. данные полученные для 2007 года с использованием модели экспоненциального сглаживания и декомпозиции<ref>Более подробную информацию про ARIMA, SARIMA читайте по [https://towardsdatascienceotexts.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatasciencefpp2/arima.comhtml ссылке]</ref>]]Модели были имплементированы с помощью функции ets в forecast пакете R.<br>
===ARIMAДанные графики показывают предсказания полученные для 2007 года, с использованием модели SARIMA===Также как и экспоненциальное сглаживание(рис. 11, ARIMA также часто используются для прогноза временных рядов12). Название является акронимом AutoRegressive Integrated Moving Average Саморегрессивное интегрированное скользящее среднее
Саморегрессивность {{===Garch===<br>[[Файл:GARCH.png |thumb|left|[https://towardsdatascience.com/an-overview-of-}} линейная комбинация старых значений. Скользящее среднее {{time-series-forecasting-models-}} линейная комбинация прошлых ошибокa2fa7a358fcb Рисунок 13.] ARMA]]<br>
ARIMA {{---}} комбинация этих двух подходов. Так как эти подходы требуют стационарности В предыдущих моделях считалось, что слагаемое ошибки в стохастическом процессе генерации временного ряда, может понадобится продифференциировать/проинтегрировать рядТо есть рассматировать ряд разностей, а не исходный рядимело одинаковую дисперсию.
SARIMA учитывает сезонностьВ GARСH-модели (англ. Generalized AutoRegressive Conditional Heteroscedasticity, добавляя линейную комбинацию прошлых сезонных значений и/или прошлых ошибок прогнозаДля полного ввода в ARIMAGARCH) предполагается, SARIMA читайте что слагаемое ошибки следует авторегрессионному скользящему среднему (англ. AutoRegressive Moving Average, ARMA), соответственно слагаемое меняется по ссылкеходу времени. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон изменений тоже постоянно меняется (рис. 13).
Данные графики показывают предсказания полученные для 2007 года с использованием модели SARIMA(рис. 11,12):<br>[[Файл:SARIMA.png |thumb|Рисунок 11. SARIMA<ref>[https://towardsdatascience.com/anВ 1982 году была предложена ARCH {{-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]][[Файл}} модель, описываемая формулой:SARIMA_Decomposition.png|Рисунок 12. SARIMA декомпозированная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</refbr>]]
Имплементация с помощью встроенной в R функции auto.arima.$\sigma^2(t) = \alpha + \sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ <br>где $\alpha$ {{---}} коэффициент задержки<br>$\sigma^2(t)$ - волатильность<br>$\sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ - линенйная комбинация абсолютных значений нескольких последних изменений значений.
Позднее была создана GARCH {{---}} обобщённая ARCH модель, которая также учитывает предыдущие оценки дисперсии. Формула может быть записана так:$\sigma^2(t) =\alpha + \sum_{i =1}^{\alpha}b_ir^{2}_{t-1} \sum_{i =Garch===1}^{p}c_i\sigma^{2}_{t-1}$ <br>где p {{---}} количество предшествующих оценок, влияющих на текущее значение.<br>В с {{---}} весовые коэффициенты предыдущих моделях мы считали, что слагаемое ошибки в стохастическом процессе генерации временного ряды имели одинаковую дисперсиюоценок.
В GARSHОбычно ARMA используется и для учёта среднего, более подробное введение в Garsh и различные варианты можно найти [https://cran.r-модели(рисproject. 13) мы преполагаем, что слагаемое ошибки следуют ARMA процессу(саморегрессирующее скользящее среднее), соответственно слагаемое меняется по ходу времениorg/web/packages/rugarch/vignettes/Introduction_to_the_rugarch_package. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон изменений тоже постоянно меняетсяpdf здесь].<br><br>
Обычно ARMA используется и для учёта среднего, для подробного введения в Garsh модели смотри здесь:
[[Файл:GARCH.png |thumb|Рисунок 13. ARMA<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience.com]</ref>]]<br>
===Динамические линейные модели===
[[Файл:DLM+Decomposition.png|right|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 14.] DLM]]<br>Динамические линейные модели представляют другой класс моделей предсказания временных рядов(рис. 14).Идея заключается в том, что в каждый моменты момент времени $t $ эти модели соответствуют линейной модели, но коэффициент регрессии постоянно меняется. <br>Пример динамической линейной модели ниже:<br><code>$y(t) = ⍺(t) + tβ(t) + w(t)</code>$,<br><code>$⍺(t) = ⍺(t-1) + m(t)</code>$,<br><code>$β(t) = β(t-1) + r(t)</code>$,<br><code>$w(t)$ ~$N(0,W) $, $m(t)$ ~$N(0,M) $, $r(t)$ ~$N(0,R)</code>$.<br> В предыдущей модели коэффициенты $a(t)$ и $b(t)$ следуют случайному блужданию.
В предыдущей модели коэффициенты a(t) и b(t) следуют случайному блужданию.Динамические линейные модели могут быть построены в рамках Байесовской системы. Тем не менее и этот метод можно улучшить, подробности читайте [https://cran.r-project.org/web/packages/dlm/vignettes/dlm.pdf тутздесь].<br>
[[Файл:DLM+Decomposition.png]]<br>
===TBATS===
Это <br>[[Файл:TBATS_Electrical.png |left|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 15.] DLM]]TBATS (англ. Trigonometric seasonality, Box-Cox transformation, ARMA errors, Trend and Seasonal components) {{---}} это модели, которые основаны на экспоненциальном сглаживании(рис. 15).<br> Главной особенностью TBATS является возможность взаимодействия с несколькими сезонностями. Моделируя каждую функцию сезонности отдельным тригонометрическим отображением построенным на [[L 2-теория рядов Фурье|рядах Фурье]]. <br><br>Классическим примером комплексной сезонности будет отображение ежедневных объемов продаж, которые которое имеет, как еженедельные колебания, так и ежегодные.<br>
Больше информации можно прочиать [https://robjhyndman.com/papers/ComplexSeasonality.pdf тут].<br>[[Файл:DLM+Decomposition.png]]<br><br>
===Prophet===
<br>Ещё одна модель, способная взаимодействовать с несколькими сезонностями(рис. 16). Это ПО с открытым исходным кодом от Фейсбука([https://facebook.github.io/prophet/ ссылка]).<br>[[Файл:Prophet.png |right|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 16.] Prophet]] Prophet считает, что временной ряд может быть расложен разложен следующим образом:<br><code>$y(t) = g(t) + s(t) + h(t) + ε(t)</code>$,<br>$g(t) $ {{---}} тренд,<br>$s(t) $ {{---}} сезонность,<br>$h(t) $ {{---}} каникулы, т.е аномальные данные,<br>$ε(t) $ {{---}} ошибки.<br>
Подгонка модели представляет собой упражнение по подгонке кривой, поэтому она явно не учитывает структуру временной зависимости в данных. Это также позволяет проводить наблюдения с нерегулярным интервалом.<br>
Есть два варианта временных рядов тренда: модель насыщающего роста и кусочно-линейная модель. Модель многопериодной сезонности основана на рядах Фурье<ref>[[Определение ряда Фурье]]</ref>. Эффект известных и заказных выходных дней может быть легко включен в модель.<br>Модель пророка Prophet вставлена в байесовскую структуру и позволяет сделать полный апостериорный вывод, чтобы включить неопределенность параметров модели в неопределенность прогноза.<br>
[[Файл:Prophet.png]]
===NNETAR===
<br>[[Файл:NNETARElectriacalequipmntManufacturing.png |left|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 17.] NNETAR]]Модель авторегрессии нейронной сети (англ. Neural NETwork AutoRegression, NNETAR ) представляет собой полностью связанную полносвязную [https://neerc.ifmo.ru/wiki/index.php?title=Нейронные_сети,_перцептрон нейронную сеть]. Модель NNETAR принимает на вход последние элементы последовательности до момента времени $t$ и выводит прогнозируемое значение в момент времени $t + 1$. Для выполнения многоэтапных прогнозов сеть применяется итеративно. Модель можно описать уравнением$y_t = f(y_{t-1}) + \epsilon_t$ <br>где $y_{t-1} = (y_{t-1}, y_{t-2}, ...)'$ {{---}} вектор, содержащий запаздывающие значения, <br>f {{---}} нейронная сеть, с 4 скрытыми узлами в каждом слое, <br>$\epsilon_t$ {{---}} считаем, что ряд ошибок [https://ru.wikipedia.org/wiki/Гомоскедастичность гомокседастичен] (и возможно имеет нормальное распределение).<br>[[Файл:NNETARElectriacalequipmntManufacturingDecomposition.png |right|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 18.] NNETAR c декомпозицией]] Мы можем моделировать будущие выборочные пути этой модели итеративно, случайным образом генерируя значение для $\epsilon_t$ либо из нормального распределения, либо путем повторной выборки из исторических значений. Аббревиатура расшифровывается как Neural NETwork AutoRegression<br> Так что если$\epsilon^*_{T+1}${{---}} случайная выборка из распределения ошибок в момент времени $T+1$,<br> тогда $y^*_{T+1} = f(y_T) + \epsilon^*_{T+1}$ {{---}} один из возможных вариантов распределения прогнозов для $y_{T+1}$ <br>Установив $y^*_{T+1} = (y^*_{T+1}, y_{T})'$, мы можем повторить процесс, чтобы получить $y^*_{T+2} = f(y_{T+1}) + \epsilon_{T+2}$.<br>
Модель NNETAR принимает Таким образом, мы можем итеративно моделировать будущий путь выборки. Повторно моделируя выборочные пути, мы накапливаем знания о распределении всех будущих значений на вход последние элементы последовательности до момента времени t и выводит прогнозируемое значение в момент времени t + 1. Для выполнения многоэтапных прогнозов сеть применяется итеративнооснове подобранной нейронной сети.
===LSTM===
Модели <br>Блок [[:Долгая_краткосрочная_память|cети долго-краткосрочной памяти]] (англ. Long short-term memory, LSTM ) могут использоваться для прогнозирования временных рядов (а также других рекуррентных нейронных сетей). <br>LSTM {{---}} это аббревиатура от Long-Short Term Memories.<br>
Состояние сети LSTM представлено через вектор пространства состояний. Этот метод позволяет отслеживать зависимости новых наблюдений от прошлых (даже очень далеких).<br>
Вообще говоря, LSTM представляют собой сложные модели, и они редко используются для прогнозирования одного временного ряда, поскольку для их оценки требуется большой объем данных.<br>Однако они обычно используются, когда необходимы прогнозы для большого количества временных рядов(проверьте как показано [https://arxiv.org/abs/1704.04110 здесь]).
==Оценка==
Мы выполнили [[Файл:Evaluation.png |right|600px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 19.] MAE с перекрестной проверкой для каждой модели]]Выполнен выбор модели с помощью процедуры перекрестной проверки, описанной ранее. Мы не рассчитывали Не рассчитывая его для динамических линейных моделей и моделей LSTM из-за их высокой вычислительной стоимости и низкой производительности.<br>На следующем рисунке мы показываем показана [[Оценка качества в задачах классификации и регрессии|средняя абсолютная ошибка]] (англ. Mean Absolute Error, MAE ) с перекрестной проверкой для каждой модели и для каждого временного горизонта(рис. 17): [[Файл:Evaluation.png]]
Мы видим, что для временных горизонтов больше 4 модель Модель NNETAR с по сезонно скорректированными данными работает лучшескорректированным данным была лучшей моделью для данной задачи, чем другие. Давайте проверим общую поскольку она соответствовала самому низкому значению MAE, вычисленную путем усреднения по разным временным горизонтампрошедшему перекрестную проверку.<br>Чтобы получить объективную оценку наилучшей производительности модели, вычислим MAE на тестовом наборе (рис. 18), получив оценку, равную 5,24. На следующем рисунке можно увидеть MAE, оцененную на тестовой выборке для каждого временного горизонта.<br>
Модель NNETAR по сезонно скорректированным данным была лучшей моделью для этого приложения, поскольку она соответствовала самому низкому значению MAE, прошедшему перекрестную проверку.<br>Чтобы получить объективную оценку наилучшей производительности модели, мы вычислили MAE на тестовом наборе, получив оценку, равную 5,24. На следующем рисунке мы можем увидеть MAE, оцененную на тестовой выборке для каждого временного горизонта.<br>[[Файл:Cross-validated MAE.png|left|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 20.] MAE, тестовый набор]]<br><br><br>=== Методы увеличения производительности===
===Как еще больше повысить производительность===Другие методы повышения производительности моделей:*Использование разных моделей для разных временных горизонтов,*Объединение нескольких прогнозов (например, с учетом среднего прогноза),*''Агрегация начальных данных''.<br><br>Последний метод у можно резюмировать следующим образом:*Разложите исходный временной ряд (например, используя STL)*Создайте набор похожих временных рядов путем случайного перемешивания фрагментов оставшейся компоненты.*Подбирайте модель для каждого временного ряда*Средние прогнозы каждой модели<br>
==Заключительные замечания==
Целью этого проекта было не подобрать наилучшую возможную модель прогнозирования Большинство ранее описанных моделей позволяют легко включать изменяющиеся во времени предикторы. Они могут быть извлечены из одного и того же временного ряда или могут соответствовать внешним предикторам (например, временному ряду другого индекса промышленного производства, а дать обзор моделей прогнозирования). В реальном приложении много времени следует тратить последнем случае необходимо обратить внимание на предварительную обработкуто, разработку функций и выбор функцийчтобы не использовать информацию из будущего, которая могла бы быть удовлетворена путем прогнозирования предикторов или использования версий c ошибками.<br><br>
Большинство ранее описанных моделей позволяют легко включать изменяющиеся во времени предикторыОбратите внимание, что в данном конспекте рассматривается случай, когда у нас есть один временной ряд для прогнозирования. Они могут Когда у нас много временных рядов, может быть извлечены из одного предпочтительнее глобальный подход, поскольку он позволяет нам оценивать более сложную и того же временного ряда или могут соответствовать внешним предикторам (например, временному ряду другого индекса)потенциально более точную модель. Подробнее о глобальном подходе [https://arxiv.org/abs/1704. В последнем случае мы должны обратить внимание на то, чтобы не использовать информацию из будущего, которая могла бы быть удовлетворена путем прогнозирования предикторов или использования их лаговых версий04110 здесь].<br>
Наконец, обратите внимание, что в этой статье мы рассмотрели только случай, когда у нас есть один временной ряд для прогнозирования. Когда у нас много временных рядов, может быть предпочтительнее глобальный подход, поскольку он позволяет нам оценивать более сложную и потенциально более точную модель. Чтобы ознакомиться с глобальным подходом, щелкните здесь.
==См. Также==
* [[Кластеризация]]
* [[Рекомендательные системы]]
* [[Анализ социальных сетей]]
* [[Графовые нейронные сети]]
* [[Компьютерное зрение]]
 
== Примечания ==
<references/>
==Источники Информации==
* Филатов, А[http://www. Вmachinelearning. Заметки профайлера ru/ Аwiki/index. Вphp?title=Временной_ряд machinelearning. Филатовru]*[https://ru.wikipedia. -Москваorg/wiki/Временной_ряд Википедия: Временной ряд]*[http: Издательские решения, 2019//statsoft. -522ru/home/textbook/modules/sttimser.html StatSoft: Анализ временных рядов]* http[https://wwwchaos.phys.machinelearningmsu.ru/loskutov/PDF/Lectures_time_series_analysis.pdf Лоскутов А.Ю. физ. фак. МГУ: Анализ Временных Рядов]*[https://wiki/index.php?title=Временной_ряд machinelearningloginom.ru/articles/garch-model.html loginom: Garch-модель]*[https://otexts.com/fpp2/nnetar.html Otexts: NNETAR]
[[Категория: Машинное обучение]]
[[Категория: Анализ временных рядов]]
1632
правки

Навигация