Пособие состоит из двух самостоятельных разделов
Вид материала | Документы |
СодержаниеРегрессия с MA-ошибкой Оценивание регрессии с MA-ошибкой нелинейным МНК |
- Пособие состоит из двух самостоятельных разделов, 1481.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 49.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 81.96kb.
- Курсовая работа по дисциплине Экономика предприятия состоит из двух разделов: теоретической, 153.63kb.
- Аннотации дисциплин, 456.29kb.
- Виктор Сергеевич Стародубцев учебное пособие, 718.78kb.
- Природоохранное и природоресурсное закон, 1307.64kb.
- -, 9049.93kb.
- Методические рекомендации по выполнению самостоятельной работы студентов по дисциплине, 54.29kb.
- Программа состоит из двух разделов: Примерная программа родительского всеобуча «Семейная, 451.17kb.
Регрессия с MA-ошибкой
Оценивание регрессия с MA(1)-процессом в ошибке полным методом максимального правдоподобия
Будем рассматривать регрессию Y = X + с MA(1)-процессом в ошибке:
i i + i–1 i ~ N(0, 2)
2 var( i) (1 + 2) 2
Ковариационная матрица ошибок i имеет вид V( 2, ) 2 W().
W (1 + 2) I + ,
где .
Симметричную положительно определенную матрицу можно представить в виде W H T H , где H — ортогональная матрица собственных векторов (H T , а — диагональная матрица, диагональ которой состоит из соответствующих собственных чисел. В данном случае, собственные вектора матрицы W совпадают с собственными векторами матрицы , и поэтому не зависят от . Типичный элемент матрицы H равен
Hkl sin( )
Типичный диагональный элемент матрицы (собственное число) равен
k 2 + 2 cos( ) + 1.
Матрица W такова, что
W H T H.
Несложно также найти определитель матрицы W:
|W| .
Обозначим Y * DHY, X * DHX, где D – 1/2 — диагональная матрица.
Пусть e*() — остатки из вспомогательной регрессии, () — оценки коэффициентов из этой регрессии. Тогда
(Y – X ())T W () (Y – X ()) = e*() Te*().
Концентрированная функция правдоподобия после исключения параметров 2 и приобретет вид
c() – (ln(1– 2N + 2) – ln(1– 2)) – ln(e*() Te*()) + const.
Остается с помощью одномерного поиска максимизировать концентрированную функцию правдоподобия по на отрезке [, 1]. В максимуме функции правдоподобия можно с ненулевой вероятностью получить = 1 или = –1.
Можно предложить и другую вспомогательную регрессию, которая применима и в общем случае MA(l)-процесса. Обозначим = 0. Тогда модель можно преобразовать к виду
0 = – + 0,
Y1 = X1 + + 1,
Y2 – Y1 = (X2 – X1) – 2 + 2,
и так далее для i =3,...,N.
Более компактно это можно записать как уравнение регрессии:
+ + .
Здесь , и имеют по N+1 наблюдению и вычисляются по рекуррентным формулам:
i = Yi – i–1, 0 = 0,
i = Xi – i–1, 0 = 0,
i = – i–1, 0 = –1.
Пусть () — остатки из вспомогательной регрессии, () — оценки коэффициентов из этой регрессии. Тогда можно показать, что (Y – X ())TW ()(Y – X ()) = ()T(). Соответственно, концентрированная функция правдоподобия равна
c() – (ln(1– 2N + 2) – ln(1– 2)) – ln(()T()) + const.
Оценивание регрессии с MA-ошибкой нелинейным МНК
Как и в случае регрессии с AR-процессом, можно получить оценку, которая асимптотически эквивалентна точной оценке максимального правдоподобия, если пренебречь первыми наблюдениями. В данном случае удобно считать, что довыборочные ошибки i (i < 1) равны нулю. При этом из функции правдоподобия исчезает мешающий член –1/2 (ln(1– 2N + 2) – ln(1– 2)), и модель сводится к нелинейной регрессии, которую можно оценить с помощью метода Гаусса-Ньютона. Требуется минимизировать сумму квадратов остатков
i2(, ) min.
Остатки вычисляются рекуррентно по формуле
i (, ) = Yi – Xi – i–1(, ) (0(, ) = 0).
Производные функции i (, ), необходимые для использования метода Гаусса-Ньютона также находятся рекуррентно:
– Xi – ( = 0).
= – – i–1 ( = 0).