Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы
Регрессия с MA-ошибкой
Оценивание регрессии с MA-ошибкой нелинейным МНК
Подобный материал:
1   ...   11   12   13   14   15   16   17   18   ...   22

Регрессия с MA-ошибкой

Оценивание регрессия с MA(1)-процессом в ошибке полным методом максимального правдоподобия


Будем рассматривать регрессию Y = X b + e с MA(1)-про­цес­сом в ошибке:

e i = x i + m x i–1 x i ~ N(0, w 2)

s 2 = var(e i) = (1 + m 2)w 2

Ковариационная матрица ошибок e i имеет вид V(s 2, m) = s 2 W(m).

W= = (1 + m 2) I + mF ,

где F = .

Симметричную положительно определенную матрицу можно представить в виде W = H TL H , где H — ортогональная матрица собственных векторов (H T =  , а L — диагональная матрица, диагональ которой состоит из соответствующих собственных чисел. В данном случае, собственные вектора матрицы W совпадают с собственными векторами матрицы F, и поэтому не зависят от m. Типичный элемент матрицы H равен

Hkl = sin(  )

Типичный диагональный элемент матрицы L (собственное число) равен

lk = m 2 + 2 m cos(  ) + 1.

Матрица W такова, что

W  = H TL H.

Несложно также найти определитель матрицы W:

|W| = .

Обозначим Y * = DHY, X * = DHX, где D = L1/2 — диагональная матрица.

Пусть e*(m) — остатки из вспомогательной регрессии, b (m) — оценки коэффициентов из этой регрессии. Тогда

(Y X b (m))T W (m) (Y X b (m)) = e*(m) Te*(m).

Концентрированная функция правдоподобия после исключения параметров s2 и b приобретет вид

c(m) = – (ln(1– m 2N + 2) – ln(1– m 2)) – ln(e*(m) Te*(m)) + const.

Остается с помощью одномерного поиска максимизировать концентрированную функцию правдоподобия по m на отрезке [, 1]. В максимуме функции правдоподобия можно с ненулевой вероятностью получить m = 1 или m  = –1.

Можно предложить и другую вспомогательную регрессию, которая применима и в общем случае MA(l)-процесса. Обозначим h = x0. Тогда модель можно преобразовать к виду

0 = –h + x0,

Y1 = X1b + m h + x1,

Y2 mY1 = (X2mX1)bmh + x2,

и так далее для i =3,...,N.

Более компактно это можно записать как уравнение регрессии:

= b + h + x.

Здесь , и имеют по N+1 наблюдению и вычисляются по рекуррентным формулам:

i = Yi m i–1, 0 = 0,

i = Xi m i–1, 0 = 0,

i = – m i–1, 0 = –1.

Пусть (m) — остатки из вспомогательной регрессии, b (m) — оценки коэффициентов b из этой регрессии. Тогда можно показать, что (Y X b (m))TW (m)(Y X b (m)) = (m)T(m). Соответственно, концентрированная функция правдоподобия равна

c(m) = – (ln(1– m 2N + 2) – ln(1– m 2)) – ln((m)T(m)) + const.

Оценивание регрессии с MA-ошибкой нелинейным МНК


Как и в случае регрессии с AR-процессом, можно получить оценку, которая асимптотически эквивалентна точной оценке максимального правдоподобия, если пренебречь первыми наблюдениями. В данном случае удобно считать, что довыборочные ошибки xi (i < 1) равны нулю. При этом из функции правдоподобия исчезает мешающий член –1/2 (ln(1– m 2N + 2) – ln(1– m 2)), и модель сводится к нелинейной регрессии, которую можно оценить с помощью метода Гаусса-Ньютона. Требуется минимизировать сумму квадратов остатков

xi2(b, m) ® min.

Остатки вычисляются рекуррентно по формуле

xi (b, m) = YiXi bm xi–1(b, m) (x0(b, m) = 0).

Производные функции xi (b, m), необходимые для использования метода Гаусса-Ньютона также находятся рекуррентно:

= – Xi m  ( = 0).

= – m  xi–1 ( = 0).
UP> – xi–1 ( = 0).