Условия ошибки скользящей средней модели

17

Это основной вопрос о моделях Box-Jenkins MA. Как я понимаю, модель MA - это, в основном, линейная регрессия значений временного ряда относительно предыдущих слагаемых ошибок . То есть наблюдение сначала регрессирует к своим предыдущим значениям а затем одно или несколько значений используются в качестве терминов ошибки для MA модель.Yet,...,etnYYt1,...,YtnYY^

Но как вычисляются члены ошибки в модели ARIMA (0, 0, 2)? Если модель MA используется без авторегрессионной детали и, следовательно, без расчетного значения, как я могу иметь ошибку?

Роберт Кубрик
источник
1
Нет, я думаю, что вы путаете определение модели MA (n), где регрессия происходит только в терминах с ее оценкой, где оцениваются по данным , etieti
Сиань
1
Основная проблема в вашем вопросе состоит в том, что вы говорите, что модель MA - это в основном линейная регрессия. Это просто не соответствует действительности, поскольку мы не соблюдаем условия ошибки.
mpiktas
Я думаю , что термин ошибка является на самом деле , где является или просто . Вот почему оценка параметра модели MA получена из повторяющегося шаблона в функции частичной автокорреляции , то есть поведения остатков. Вместо этого оценка параметра AR основана на повторяющейся схеме acf (Y). Y E ( Y | Y т , . . . , Т - п ) У т - Y т - 1 YYtYt^Y^E(Y|Yt,...,tn)YtYt1Y
Роберт Кубрик

Ответы:

20

Оценка модели MA:

Давайте предположим ряд с 100 временными точками, и скажем, что это характеризуется моделью MA (1) без перехвата. Тогда модель задается

yt=εtθεt1,t=1,2,,100(1)

Термин ошибки здесь не соблюдается. Таким образом, чтобы получить это, Box et al. Анализ временных рядов: прогнозирование и контроль (3-е издание) , стр. 228 , позволяют предположить, что термин ошибки вычисляется рекурсивно

εt=yt+θεt1

Таким образом, термин ошибки для : Теперь мы не можем вычислить это, не зная значения . Таким образом, чтобы получить это, нам нужно вычислить начальную или предварительную оценку модели, см. Box et al. упомянутой книги, раздел 6.3.2 стр. 202 утверждают, что,ε 1 = y 1 + θ ε 0 θt=1

ε1=y1+θε0
θ

Было показано, что первые автокорреляций процесса MA ( ) отличны от нуля и могут быть записаны в терминах параметров модели как Вышеприведенное выражение для в терминах предоставляет уравнений в неизвестных. Предварительные оценки s могут быть получены путем подстановки оценок для в вышеприведенном уравненииq ρ k = - θ k + θ 1 θ k + 1 + θ 2 θ k + 2 + + θ q - k θ qqqρ 1 , ρ 2, ρ q θ 1 , θ 2 , , θ q q q θ r k ρ k

ρk=θk+θ1θk+1+θ2θk+2++θqkθq1+θ12+θ22++θq2k=1,2,,q
ρ1,ρ2,ρqθ1,θ2,,θqqqθrkρk

Обратите внимание, что является предполагаемой автокорреляцией. Более подробное обсуждение приведено в разделе 6.3 «Начальные оценки параметров» . Теперь предположим, что мы получаем начальную оценку . Тогда Теперь другая проблема - у нас нет значения для потому что начинается с 1, и поэтому мы не можем вычислить . К счастью, есть два способа получить это,rkθ=0.5

ε1=y1+0.5ε0
ε0tε1
  1. Условное правдоподобие
  2. Безусловная вероятность

Согласно Box и соавт. В разделе 7.1.3 стр. 227 значения могут быть заменены на ноль в качестве приближения, если является умеренным или большим, этот метод является условным правдоподобием. В противном случае используется безусловное правдоподобие, при котором значение получают путем обратного прогнозирования, Box et al. рекомендую этот метод. Подробнее об обратном прогнозировании читайте в разделе 7.1.4 на стр. 231 .ε0nε0

После получения начальных оценок и значения , наконец, мы можем приступить к рекурсивному вычислению члена ошибки. Затем последним этапом является оценка параметра модели , помните, что это уже не предварительная оценка.ε0(1)

При оценке параметра я использую процедуру нелинейного оценивания, в частности алгоритм Левенберга-Марквардта, поскольку модели МА нелинейны по своему параметру.θ

В целом, я очень рекомендую вам прочитать Box et al. Анализ временных рядов: прогнозирование и контроль (3-е издание) .

Аль-Ахмадгайд Асаад
источник
Можете ли вы объяснить, что такое ? rk
Пиюш Дивьянакар
4

Гауссова модель MA (q) определяется (не только Боксом и Дженкинсом!) Как поэтому модель MA (q) является «чистой» моделью ошибок, степень определяющая, насколько далеко корреляция возвращается.

Yt=i=1qϑieti+σet,etiidN(0,1)
q
Сиань
источник
1
etetq
1
Почему в вашей формуле есть минус? Обычно минус для моделей AR. Математически это не проблема, мне просто любопытно, так как я никогда не видел минусов в моделях MA.
mpiktas
3
et
1
YE(Y)
1

YYt1,...,YtnYY^Yet1et2etθ1et1θ2et2etθ1θ2θ1θ2

IrishStat
источник
YY
1
2 предиктора - это лаги ошибок. Так как они не известны априори, так как мы не знаем терминов ошибки до того, как мы начнем, именно поэтому это должно рассматриваться с помощью нелинейной оценки. У вас возникает путаница в том, что модель, которая является конечной в прошлом (т.е. AR МОДЕЛЬ) потенциально бесконечна в ошибках, И модель, которая конечна в ошибках (т.е. МОДЕЛЬ МА), потенциально бесконечна в прошлом Y. Причина, по которой выбирается МОДЕЛЬ AR, а не МОДЕЛЬ МА, предназначена для экономии. Иногда мы строим модель ARMA, которая сочетает в себе историю Y и историю ошибок.
IrishStat
1
Yetn
1

Смотрите мой пост здесь для объяснения того, как понимать термины нарушения в серии МА.

Вам нужны разные методы оценки, чтобы оценить их. Это связано с тем, что вы не можете сначала получить остатки линейной регрессии, а затем включить в качестве объясняющих переменных отстающие остаточные значения, поскольку процесс MA использует остатки текущей регрессии. В вашем примере вы создаете два уравнения регрессии и используете невязки из одного в другое. Это не то, чем является процесс МА. Это не может быть оценено с помощью OLS.

JoeDanger
источник