Изменения

Перейти к: навигация, поиск

Анализ временных рядов

5446 байт добавлено, 19:11, 4 сентября 2022
м
rollbackEdits.php mass rollback
Временные ряды {{---}} это актуальный инструмент применимые , применимый во множестве решений, от предсказания цен на акции, прогнозов погоды, планирования бизнеса, до распределения ресурсов. Несмотря на то, что прогнозирование может быть сведено к построению контролируемой [[Вариации регрессии|регрессии]], существуют особенносстиособенности, связанные с временным характером наблюдений, которые необходимо учитывать, используя специальные инструменты.<br>
==Временной ряд==
<br>{{Определение|definition ='''Временно́й ряд (или ряд динамики) ''' {{---}} собранный в разные моменты времени статистический материал о значении каких-либо параметров (в простейшем случае одного) исследуемого процесса. Каждая единица статистического материала называется измерением или отсчётом, также допустимо называть его уровнем на указанный с ним момент времени. Во временном ряде для каждого отсчёта должно быть указано время измерения или номер измерения по порядку. Временной ряд существенно отличается от простой выборки данных, так как при анализе учитывается взаимосвязь измерений со временем, а не только статистическое разнообразие и статистические характеристики выборки.}}
==Как валидировать и тестировать модель временного ряда?==Из-за временных зависимостей данных большинство других видов анализа, анализ временных рядов, нельзя пользоваться обычными способами валидации. Чтобы избежать смещения оценки необходимо удостоверитьсяпредполагает, что обучающие наборы данных данные содержат только наблюдениясистематическую составляющую (обычно включающую несколько компонент) и случайный шум (ошибку), который затрудняет обнаружение регулярных компонент. Большинство методов исследования временных рядов включает различные способы фильтрации шума, которые произошли до событий из валидирующий наборовпозволяющие увидеть регулярную составляющую более отчетливо.<br>[[ФайлБольшинство регулярных составляющих временных рядов принадлежит к двум классам:TimeSeriesCross-validationони являются либо трендом, либо сезонной составляющей.png |thumb|left|400px|Рисунок 1Тренд представляет собой общую систематическую линейную или нелинейную компоненту, которая может изменяться во времени. кроссСезонная составляющая {{-валидация временного ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascience}} это периодически повторяющаяся компонента. Оба эти вида регулярных компонент часто присутствуют в ряде одновременно.com]</ref>]]<br>
Возможным способом преодоления данной проблемы будет использование скользящего окна==Валидирование и тестирование модели временного ряда==<br>Данные упорядочены относительно неслучайных моментов времени, и, значит, в отличие от случайных выборок, могут содержать в себе дополнительную информацию, поэтому нельзя пользоваться обычными способами валидации. Чтобы избежать смещения оценки необходимо удостовериться, что обучающие наборы данных содержат только наблюдения, как описано которые произошли до событий из валидирующиx наборов.<br>[[Файл:TimeSeriesCross-validation.png |thumb|left|400px|[https://robjhyndmantowardsdatascience.com/hyndsight/tscv/ здесьan-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 1.]. Эта процедура называется [[Кросс-валидация|кросс-валидациейвременного ряда]] временного ряда и может быть вкратце описано следующей картинкой(рис. 1), в которой синие точки обозначают тренировочный набор данных, а красные соответствующие валидационные наборы данных.<br>
Если необходимо предсказать следующие n шагов, то можно заранее кросс-валидировать 1,2Возможным способом преодоления данной проблемы будет использование скользящего окна,как описано [https://robjhyndman.com/hyndsight/tscv/ здесь]..,n шагов. Таким образов можно также сравнить качество предсказаний для разных Эта процедура называется [[временные горизонтыКросс-валидация|временных горизонтовкросс-валидацией]] <sup>[на 07временного ряда и может быть вкратце описана следующей картинкой (рис.01.21 не создан]</sup>1), в которой синие точки обозначают тренировочный набор данных, а красные соответствующие валидационные наборы данных.<br><br>
Если необходимо предсказать следующие $n$ шагов, то можно заранее кросс-валидировать $1,2,...,n$.<br> Таким образом можно также сравнить качество предсказаний для разных временных горизонтов.<br><br> Определив лучшую модель, можно применить её ко всему обучающему набору и оценить его работу на следующем во времени наборе данных. Оценка работы может быть дана с использованием метода скользящего окна<ref>[https://wiki.loginom.ru/articles/windowing-method.html loginom: Метод скользящего окна]</ref>, который используем при кросс-валидации, но без переподсчёта параметром параметра модели.
==Краткое исследование данных==
[[Файл:ManufactureOfElectricalEquipment.png|thumb|right|300px|Рисунок 2. Набор данных описывающий график производства электрооборудования<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 2.com]</ref>Набор данных описывающий график производства электрооборудования]]<br>
В данной части используется несколько разных моделей для предсказания изменений в промышленном производстве,<br> которое которые для примера будем оценивать численно, как количество электрооборудования, <br>произведённого в зоне Евро (рис. 2, 3).<br>[[Файл:SeasonalPlotMonthluSeasonalPattern.png|thumb|right|300px|Рисунок 3. Сезонные колебания<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 3.com]</ref>Сезонные колебания]]Набор данных описывает ежемесячное производство электрооборудования (компьютеры электрические и оптические приборы)(рис. 2) в зоне евро(17 стран) в период с января 1996 по март 2012 года (см. график ниже). Последние два года будем использовать при тестировании.<br><br><br><br><br>
==Модели прогнозирования временных рядов==
#Наивный
#Разделение по сезонам (+ любая модель)
#Экспоненциальное сглаживание
#ARIMA, SARIMA
#GARCH
#Динамические линейные модели
#TBATS
#Prophet
#NNETAR
#LSTM
Предскажем Существует 10 моделей прогнозирования, у каждой имеются свои достоинства и недостатки. Ниже, используя каждую модель, предскажем 12 месяцев, соответсвтенносоответственно, значение $t+1, t+2, …, t + 12$.
Имеет смысл использовать среднюю абсолютную ошибку для работы оценки модели.<br><br><br>
===НаивнаяНаивное предсказание===[[Файл:NaiveElectricalEquipmentManufacturing.png|thumb|Рисунок 4. Наивная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 4.com]</ref> Наивная]]<br>
Предсказания для каждого горизонта соотвествуют последнему наблюдаему наблюдаемому значению<code>$Y(t + h|t) = Y(t)</code>$.
Такие предскания предполагают, что стохастическая<ref>[https://ru.wikipedia.org/wiki/Стохастичность Википедия: Стохастичность]</ref> модель генерирует [[Участник:Mk17.ru|случайное блуждание]].<br>[[Файл:SeasonalNaiveElectricalEquipmentManufacturing.png|thumb|left|Рисунок 5. Сезонно наивная<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 5.com]</ref>Cезонно-наивная]]<br>Расширение наивной модели сезонно-наивная модель (англ. Season Naive, SNAIVE ) {{---}} сезонно-наивная модель предполагает, что временной ряд имеет сезонную компоненту, и что период сезонности $T$.<br>
Прогнозы SNAIVE - модели описываются формулой <code>$\dot{Y*}(t+h|t) = Y(t+h-T)</code>$.
Получаемые прогнозы следующий следующие $T $ шагов совпадают с предыдущими $T $ шагами. Эти модели часто используются как ориентировочные модели. Следующий график показывает графики показывают предсказания двух моделей для 2007 года (рис. 4, 5).<br><br><br><br>
===Разделение по сезонам + любая модель===
[[Файл:STL_docompositionOnIndustrialProductionIndexData.png|thumb|Рисунок 6. Методы разложения ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 6.com]</ref>Методы разложения ряда]]<br>Если данные показывают, что они воспроиимчивы восприимчивы к периодическим-(сезонным ) изменениям(ежедневно, еженедельно, ежеквартально, ежегодно), то будет полезным разложить исходный временной ряд на сумму трёх компонентов.<br>
<code>$Y(t) = S(t) + T(t) + R(t)</code>$<br>$S(t) $ {{---}} сезонный компонент.<br>$T(t) $ {{---}} компонент трендового цикла.<br>$R(t)$ {{---}} остаток.<br>Существуют несколько способов для такого разложения, но наиболее простой называется классическим разложением и заключается в том, чтобы<br>Оценить оценить тренд $T(t) $ через скользящее среднее<br>Посчитать , посчитать $S(t)$, как среднее без тренда $Y(t) - T(t) $ для каждого сезона.<br>Посчитать остаток, как <br>$R(t) = Y(t) - T(t)-S(t)$.<br>[[Файл:SeasonallyAdjustedIndustrial.png |thumb|left|Рисунок 7. Сезонные индексы ряда<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 7.com]</ref>Сезонные индексы ряда]]
Классическое разложение можно расширить несколькими способами.<br>
Расширение позволяет использовать данный метод при:
* непостоянной величине сезона;* посчитать начальные и конечные значение значения декомпозиции;* избежать лишнего сглаживания;
Обзор методов разложений ряда можно увидеть по [https://otexts.com/fpp2/decomposition.html ссылке]. Используется реализация из стандартной библиотеки(рис. 6).<br>
Одним из способов использования декомпозиции для прогнозирования будет:<br>
1)разложить Разложить обучающий набор алгоритмом из STL.<br>2)посчитать Посчитать сезонное отклонение ряда $Y(t)-S(t)$, используя любую модель для прогнозирования сезоносезонно-чувствительного временного ряда.<br>3)Добавить прогнозам сезонность последнего временного периода во временном ряду(в нашем случае $S(t) $ для прошлого года).<br>[[Файл:SeasonallyAdjustedTimeSeries.png|right|thumb|Рисунок 8. Декомпозиция и наивная модель<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 8.com]</ref>Декомпозиция и наивная модель]]<br>На следующем графике показаны сезонные индексы ряда с учётом сезонности (рис. 7):<br>.
Следующий график показывает предсказания полученные для 2007 года с использованием STL декомпозиции и наивной модели(рис. 8) для сезонно-изменяемого временного ряда:<br>
Декомпозиция была исплементирована Следующий график показывает расчёты для 2007 года с помощью встроенной в стандартную библиотеку функциииспользованием декомпозиции и наивной модели (рис.8) для сезонно-изменяемого временного ряда.<br>
===Экспоненциальное сглаживание ===
<br>[[Файл:ExpSmoothing.png|thumb|left|Рисунок 9. данные полученные для 2007 года с использованием модели экспоненциального сглаживания<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 9.com]</ref>Данные полученные для 2007 года с использованием модели экспоненциального сглаживания]]Экспоненциальное сглаживание<ref>[https://ru.wikipedia.org/wiki/Экспоненциальное_сглаживание Википедия: Экспоненциальное сглаживание]</ref> {{---}} один из наиболее успешных классических методов предсказаний. В своей базовой форме оно он называется простым экспоненциальный сглаживанием и его прогнозы описываются формулами:<code>$Ŷ(t+h|t) = ⍺y(t) + ⍺(1-⍺)y(t-1) + ⍺(1-⍺)²y(t-2) + …$</codebr>где'''''with $0<⍺<1.$ '''''. Если $⍺ = 0$, то текущие наблюдения игнорируются, если же $⍺ = 1$, то полностью игнорируются предыдущие наблюдения.<br>[[Файл:ExpSmoothing+Decomposition.png|thumb|right|Рисунок 10. данные полученные для 2007 года с использованием модели экспоненциального сглаживания и декомпозиции<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 10.com]</ref>Данные полученные для 2007 года, с использованием модели экспоненциального сглаживания и декомпозиции]]
Заметно, что прогнозы равны взвешенному среднему от старых наблюдений, и что соответствующие веса убывают экспоненциально по мере хода времени.
Некоторые методы для расширения алгоритма позволяют добавить тренд, его затухание и сезонность.
Экспоненциальное сглаживание состоит из 9 моделей, которые подробно описаны [https://otexts.com/fpp2/taxonomy.html здесь(ссылка)].
Следующие графики(рис. 9, 10) описывают прогнозы данные данных полученные для 2007 года , с использованием модели экспоненциального сглаживания(выбраны автоматически), которые подходили исходному и сезонно-чувствительному временному ряду.<br>
===ARIMA, SARIMA===
<br>[[Файл:SARIMA.png |thumb|left|Рисунок 11. SARIMA<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 11.com]</ref>SARIMA]]Также как и экспоненциальное сглаживание, интегрированная модель авторегрессии скользящего среднего (англ. autoregressive integrated moving average, ARIMA ) также часто используются для прогноза временных рядов. Название является акронимом AutoRegressive Integrated Moving Average Саморегрессивное интегрированное скользящее среднее
Саморегрессивность {{---}} линейная комбинация старых значений.
Скользящее среднее {{---}} линейная комбинация прошлых ошибок.
[[Файл{{Определение |definition = '''Процесс авторегрессии''' {{---}} последовательная зависимость элементов временного ряда, выразается следующим уравнением:SARIMA_Decomposition$x(t) = \psi + \phi_1 * x_(t-1) + \phi_2 * x_(t-2) + \phi_3 * x_(t-3) + ..png|thumb|right|Рисунок 12. SARIMA декомпозированная+ \epsilon$<refbr>[https://towardsdatascience.com/anГде $\psi$ {{-overview-of-time}} свободный член (константа).<br>$\phi_1, \phi_2, \phi_3, ...$ {{-series-forecasting-models-a2fa7a358fcb towardsdatascience}} параметры авторегрессии.com]</ref>]]ARIMA }}{{Определение|definition ='''Скользящее среднее''' {{---}} комбинация этих двух подходовобщее название для семейства функций, значения которых в каждой точке определения равны некоторому среднему значению исходной функции за предыдущий период. Так как эти подходы требуют стационарности временного ряда, может понадобится продифференциировать/проинтегрировать рядТо есть рассматировать ряд разностей, а не исходный ряд}}
SARIMA учитывает сезонность, добавляя линейную комбинацию прошлых сезонных значений и/или прошлых {{Определение|definition ='''Процесс скользящего среднего''' {{---}} в процессе скользящего среднего каждый элемент ряда подвержен суммарному воздействию предыдущих ошибок прогноза. В общем виде это можно записать следующим образом:Для полного ввода в ARIMA$x_t = \mu + \epsilon_t - \theta_1 * \epsilon_{t-1} - \theta_2 * \epsilon_{t-2} - ...$ <br>Где $\mu$ {{---}} константа.<br>$\theta_1, \theta_2, \theta_3, SARIMA читайте по ...$ {{---}} параметры скользящего среднего.}} [[Файл:SARIMA_Decomposition.png|thumb|right|[https://otextstowardsdatascience.com/fpp2an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 12.] SARIMA декомпозированная]]ARIMA {{---}} комбинация этих двух подходов. Так как эти подходы требуются стационарности временного ряда, может понадобится продифференциировать/arimaпроинтегрировать ряд.То есть рассматировать ряд разностей, а не исходный ряд.html ссылке]
Сезонная интегрированная модель авторегрессии скользящего среднего (англ. season autoregressive integrated moving average, SARIMA) учитывает сезонность, добавляя линейную комбинацию прошлых сезонных значений и/или прошлых ошибок прогноза.Более подробную информацию про ARIMA, SARIMA читайте по [https://otexts.com/fpp2/arima.html ссылке]. Данные графики показывают предсказания полученные для 2007 года , с использованием модели SARIMA(рис. 11,12).
===Garch===
<br>[[Файл:GARCH.png |thumb|left|Рисунок 13. ARMA<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 13.com]</ref>ARMA]]<br> В предыдущих моделях считалось, что слагаемое ошибки в стохастическом процессе генерации временного ряда имело одинаковую дисперсию. В GARСH-модели (англ. Generalized AutoRegressive Conditional Heteroscedasticity, GARCH) предполагается, что слагаемое ошибки следует авторегрессионному скользящему среднему (англ. AutoRegressive Moving Average, ARMA), соответственно слагаемое меняется по ходу времени. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон изменений тоже постоянно меняется (рис. 13).
В предыдущих моделях считалось1982 году была предложена ARCH {{---}} модель, что слагаемое ошибки в стохастическом процессе генерации временного ряды имели одинаковую дисперсию.описываемая формулой: <br>
В GARSH-модели$\sigma^2(рис. 13t) предполагаем, что слагаемое ошибки следуют ARMA процессу= \alpha + \sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ <br>где $\alpha$ {{---}} коэффициент задержки<br>$\sigma^2(саморегрессирующее скользящее среднееt), соответственно слагаемое меняется по ходу времени. Это особенно полезно при моделировании финансовых временных рядов, так как диапазон $ - волатильность<br>$\sum_{i = 1}^{\alpha}b_ir^{2}_{t-1}$ - линенйная комбинация абсолютных значений нескольких последних изменений тоже постоянно меняетсязначений.
Позднее была создана GARCH {{---}} обобщённая ARCH модель, которая также учитывает предыдущие оценки дисперсии. Формула может быть записана так:$\sigma^2(t) = \alpha + \sum_{i = 1}^{\alpha}b_ir^{2}_{t-1} \sum_{i = 1}^{p}c_i\sigma^{2}_{t-1}$ <br>где p {{---}} количество предшествующих оценок, влияющих на текущее значение.<br>с {{---}} весовые коэффициенты предыдущих оценок. Обычно ARMA используется и для учёта среднего, для подробного введения более подробное введение в Garsh модели смотри и различные варианты можно найти [https://cran.r-project.org/web/packages/rugarch/vignettes/Introduction_to_the_rugarch_package.pdf здесь]<br>.<br><br>
===Динамические линейные модели===
[[Файл:DLM+Decomposition.png|right|thumb|Рисунок 14. DLM<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 14.com]</ref>DLM]]<br>Динамические линейные модели представляют другой класс моделей предсказания временных рядов(рис. 14).Идея заключается в том, что в каждый момент времени $t $ эти модели соответствуют линейной модели, но коэффициент регрессии постоянно меняется. <br>Пример динамической линейной модели ниже:<br><code>$y(t) = ⍺(t) + tβ(t) + w(t)</code>$,<br><code>$⍺(t) = ⍺(t-1) + m(t)</code>$,<br><code>$β(t) = β(t-1) + r(t)</code>$,<br><code>$w(t)$ ~$N(0,W) $, $m(t)$ ~$N(0,M) $, $r(t)$ ~$N(0,R)</code>$.<br>
В предыдущей модели коэффициенты $a(t) $ и $b(t) $ следуют случайному блужданию.
Динамические линейные модели могут быть построены в рамках Байесовской системы. Тем не менее и этот метод можно улучшить, подробности читайте [https://cran.r-project.org/web/packages/dlm/vignettes/dlm.pdf тутздесь].<br>
===TBATS===
<br>[[Файл:TBATS_Electrical.png |left|thumb|Рисунок 15. DLM<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 15.com]</ref>DLM]]TBATS (англ. Trigonometric seasonality, Box-Cox transformation, ARMA errors, Trend and Seasonal components) {{---}} это модели, которые основаны на экспоненциальном сглаживании(рис. 15).<br> Главной особенностью TBATS является возможность взаимодействия с несколькими сезонностями. Моделируя каждую функцию сезонности отдельным тригонометрическим отображением построенным на [[L 2-теория рядов Фурье|рядах Фурье]]. <br><br>Классическим примером комплексной сезонности будет отображение ежедневных объемов продаж, которые которое имеет, как еженедельные колебания, так и ежегодные.<br>
Больше информации можно прочиать [https://robjhyndman.com/papers/ComplexSeasonality.pdf тут].<br><br><br>
===Prophet===
<br>Ещё одна модель, способная взаимодействовать с несколькими сезонностями(рис. 16). Это ПО с открытым исходным кодом от Фейсбука (рис[https://facebook.github. 16io/prophet/ ссылка]).<br>[[Файл:Prophet.png |right|thumb|Рисунок 16. Prophet<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 16.com]</ref>Prophet]]
Prophet считает, что временной ряд может быть расложен разложен следующим образом:<br><code>$y(t) = g(t) + s(t) + h(t) + ε(t)</code>$,<br>$g(t) $ {{---}} тренд,<br>$s(t) $ {{---}} сезонность,<br>$h(t) $ {{---}} каникулы, т.е аномальные данные,<br>$ε(t) $ {{---}} ошибки.<br>
Подгонка модели представляет собой упражнение по подгонке кривой, поэтому она явно не учитывает структуру временной зависимости в данных. Это также позволяет проводить наблюдения с нерегулярным интервалом.<br>
Есть два варианта временных рядов тренда: модель насыщающего роста и кусочно-линейная модель. Модель многопериодной сезонности основана на рядах Фурье<ref>[[Определение ряда Фурье]]</ref>. Эффект известных и заказных выходных дней может быть легко включен в модель.<br>
Модель пророка Prophet вставлена в байесовскую структуру и позволяет сделать полный апостериорный вывод, чтобы включить неопределенность параметров модели в неопределенность прогноза.<br>
===NNETAR===
<br>[[Файл:NNETARElectriacalequipmntManufacturing.png |left|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 17.] NNETAR]]Модель авторегрессии нейронной сети (англ. Neural NETwork AutoRegression, NNETAR ) представляет собой полностью связанную полносвязную [https://neerc.ifmo.ru/wiki/index.php?title=Нейронные_сети,_перцептрон нейронную сеть]. Модель NNETAR принимает на вход последние элементы последовательности до момента времени $t$ и выводит прогнозируемое значение в момент времени $t + 1$. Для выполнения многоэтапных прогнозов сеть применяется итеративно. Модель можно описать уравнением$y_t = f(y_{t-1}) + \epsilon_t$ <br>где $y_{t-1} = (y_{t-1}, y_{t-2}, ...)'$ {{---}} вектор, содержащий запаздывающие значения, <br>f {{---}} нейронная сеть, с 4 скрытыми узлами в каждом слое, <br>$\epsilon_t$ {{---}} считаем, что ряд ошибок [https://ru. Аббревиатура расшифровывается как Neural NETwork AutoRegressionwikipedia.org/wiki/Гомоскедастичность гомокседастичен] (и возможно имеет нормальное распределение).<br>[[Файл:NNETARElectriacalequipmntManufacturingDecomposition.png |right|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 18.] NNETAR c декомпозицией]]
Модель NNETAR принимает на вход последние элементы последовательности до момента времени t и выводит прогнозируемое Мы можем моделировать будущие выборочные пути этой модели итеративно, случайным образом генерируя значение для $\epsilon_t$ либо из нормального распределения, либо путем повторной выборки из исторических значений.<br> Так что если$\epsilon^*_{T+1}${{---}} случайная выборка из распределения ошибок в момент времени t $T+1$,<br> тогда $y^*_{T+1} = f(y_T) + \epsilon^*_{T+1}$ {{---}} один из возможных вариантов распределения прогнозов для $y_{T+1}$ <br>Установив $y^*_{T+ 1} = (y^*_{T+1}, y_{T})'$, мы можем повторить процесс, чтобы получить $y^*_{T+2} = f(y_{T+1}) + \epsilon_{T+2}$. Для выполнения многоэтапных прогнозов сеть применяется <br> Таким образом, мы можем итеративномоделировать будущий путь выборки. Повторно моделируя выборочные пути, мы накапливаем знания о распределении всех будущих значений на основе подобранной нейронной сети.
===LSTM===
Модели <br>Блок [[:Долгая_краткосрочная_память|cети долго-краткосрочной памяти]] (англ. Long short-term memory, LSTM ) могут использоваться для прогнозирования временных рядов (а также других рекуррентных нейронных сетей). <br>LSTM {{---}} это аббревиатура от Long-Short Term Memories.<br>
Состояние сети LSTM представлено через вектор пространства состояний. Этот метод позволяет отслеживать зависимости новых наблюдений от прошлых (даже очень далеких).<br>
Вообще говоря, LSTM представляют собой сложные модели, и они редко используются для прогнозирования одного временного ряда, поскольку для их оценки требуется большой объем данных.<br>Однако они обычно используются, когда необходимы прогнозы для большого количества временных рядов(проверьте как показано [https://arxiv.org/abs/1704.04110 здесь]).
==Оценка==
[[Файл:Evaluation.png |right|600px|thumb|Рисунок 17. MAE с перекрестной проверкой для каждой модели<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 19.com]</ref>MAE с перекрестной проверкой для каждой модели]]
Выполнен выбор модели с помощью процедуры перекрестной проверки, описанной ранее. Не рассчитывая его для динамических линейных моделей и моделей LSTM из-за их высокой вычислительной стоимости и низкой производительности.<br>
На следующем рисунке показывало показана [[Оценка качества в задачах классификации и регрессии|средняя абсолютная ошибка]] (англ. Mean Absolute Error, MAE ) с перекрестной проверкой для каждой модели и для каждого временного горизонта(рис. 17):   Видно, что для временных горизонтов больше 4 модель NNETAR с сезонно скорректированными данными работает лучше, чем другие. Давайте проверим общую MAE, вычисленную путем усреднения по разным временным горизонтам.<br>
Модель NNETAR по сезонно скорректированным данным была лучшей моделью для этого приложенияданной задачи, поскольку она соответствовала самому низкому значению MAE, прошедшему перекрестную проверку.<br>Чтобы получить объективную оценку наилучшей производительности модели, вычислим MAE на тестовом наборе(рис. 18), получив оценку, равную 5,24. На следующем рисунке можно увидеть MAE, оцененную на тестовой выборке для каждого временного горизонта.<br>
[[Файл:Cross-validated MAE.png |left|thumb|Рисунок 18. MAE, тестовый набор<ref>[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb towardsdatascienceРисунок 20.com]MAE, тестовый набор]]<br><br></refbr>]]=== Методы увеличения производительности===
===Как еще больше повысить производительность===Другие методы повышения производительности моделей:*Использование разных моделей для разных временных горизонтов,*Объединение нескольких прогнозов (например, с учетом среднего прогноза),*''Агрегация начальных данных''.<br><br>Последний метод у можно резюмировать следующим образом:*Разложите исходный временной ряд (например, используя STL)*Создайте набор похожих временных рядов путем случайного перемешивания фрагментов оставшейся компоненты.*Подбирайте модель для каждого временного ряда*Средние прогнозы каждой модели<br>
==Заключительные замечания==
Большинство ранее описанных моделей позволяют легко включать изменяющиеся во времени предикторы. Они могут быть извлечены из одного и того же временного ряда или могут соответствовать внешним предикторам (например, временному ряду другого индекса). В последнем случае мы должны необходимо обратить внимание на то, чтобы не использовать информацию из будущего, которая могла бы быть удовлетворена путем прогнозирования предикторов или использования версий c ошибками.<br>
Наконец, обратите Обратите внимание, что в этой статье мы рассмотрели только данном конспекте рассматривается случай, когда у нас есть один временной ряд для прогнозирования. Когда у нас много временных рядов, может быть предпочтительнее глобальный подход, поскольку он позволяет нам оценивать более сложную и потенциально более точную модель. Чтобы ознакомиться с глобальным подходом, щелкните Подробнее о глобальном подходе [https://arxiv.org/abs/1704.04110 здесь].
==См. Также==
==Источники Информации==
* Филатов, А. В. Заметки профайлера / А. В. Филатов. -Москва: Издательские решения, 2019. -522.* [http://www.machinelearning.ru/wiki/index.php?title=Временной_ряд machinelearning.ru]
*[https://ru.wikipedia.org/wiki/Временной_ряд Википедия: Временной ряд]
*[http://statsoft.ru/home/textbook/modules/sttimser.html StatSoft: Анализ временных рядов]
*[https://chaos.phys.msu.ru/loskutov/PDF/Lectures_time_series_analysis.pdf Лоскутов А.Ю. физ. фак. МГУ: Анализ Временных Рядов]
*[https://wiki.loginom.ru/articles/garch-model.html loginom: Garch-модель]
*[https://otexts.com/fpp2/nnetar.html Otexts: NNETAR]
[[Категория: Машинное обучение]]
[[Категория: Анализ временных рядов]]
1632
правки

Навигация