Изменения

Перейти к: навигация, поиск

Анализ временных рядов

1784 байта добавлено, 20 январь
NNETAR
Модель авторегрессии нейронной сети (англ. Neural NETwork AutoRegression, NNETAR) представляет собой полносвязную [https://neerc.ifmo.ru/wiki/index.php?title=Нейронные_сети,_перцептрон нейронную сеть].
Модель NNETAR принимает на вход последние элементы последовательности до момента времени $t$ и выводит прогнозируемое значение в момент времени $t + 1$. Для выполнения многоэтапных прогнозов сеть применяется итеративно.[[Файл:NNETARElectriacalequipmntManufacturingDecomposition.png |left|300px|thumb|[https://towardsdatascience.com/an-overview-of-time-series-forecasting-models-a2fa7a358fcb Рисунок 18.] NNETAR c декомпозицией]]
 
Модель можно описать уравнением
$y_t = f(y_{t-1}) + \epsilon_t$ <br>
где $y_{t-1} = (y_{t-1}, y_{t-2}, ...)'$ - вектор, содержащий запаздывающие значения <br>
f - нейронная сеть, с 4 скрытыми узлами в каждом слое <br>
$\epsilon_t$ - считаем, что ряд ошибок --- гомокседастичен( и возможно имеет нормальное распределение)
 
Мы можем моделировать будущие выборочные пути этой модели итеративно, случайным образом генерируя значение для $\epsilon_t$ либо из нормального распределения, либо путем повторной выборки из исторических значений. Так что если
$\epsilon_{T+1}*$
--- случайная выборка из распределения ошибок в момент времени $T+1$,<br> тогда $y_{T+1}* = f(y_T) + \epsilon_{T+1}*$ --- один из возможных вариантов распределения прогнозов для $y_{T+1}$ <br>
Установив $y_{T+1}* = (y_{T+1}*, y_{T})'$, мы можем повторить процесс, чтобы получить $y_{T+2}* = f(y_{T+1}) + \epsilon_{T+2}$. <br>
 
Таким образом, мы можем итеративно моделировать будущий путь выборки. Повторно моделируя выборочные пути, мы накапливаем знания о распределении всех будущих значений на основе подобранной нейронной сети.
===LSTM===
53
правки

Навигация