Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы
Регрессия с ARCH-процессом в ошибке
Подобный материал:
1   ...   12   13   14   15   16   17   18   19   ...   22

Регрессия с ARCH-процессом в ошибке


Часто в эконометрических моделях остатки становятся то большими на какой-то период, то не очень большими, и так далее и в этом нет определенной закономерности. Особенно это относится к моделям финансовых рынков. Даже если безусловная дисперсия ошибок постоянна, условная дисперсия может быть подвержена случайным колебаниям. Условные прогнозы дисперсии могут иметь практическое значение. Владельцев активов интересует, как получить прогноз риска на ряд следующих периодов, если известна информация за текущий и предшествующие периоды.

Для моделирования таких процессов используется понятие условной авторегрессионной гетероскедастичности (ARCH, autoregressive conditional heteroskedasticity). Ввел это понятие Энгл (Engle, 1982). Основная идея состоит в том, что дисперсия ошибки в момент i зависит от величины квадрата ошибки в предшествующие периоды времени.

Процесс ARCH(p) имеет следующий вид:

s º E(e|Wi) = m + g 1e+g2e+ ... +gpe.

Wi обозначает информацию, которая имеется к моменту i, т. е. все наблюдаемые переменные в момент i  1 и ранее. В частности, для ARCH(1)

s = m + g 1e.

Предполагают, что m > 0, g k ³ 0, чтобы дисперсия не могла оказаться отрицательной.

В случае, когда ei имеют нормальное распределение, очередное значение задается формулой

ei = s i x i, где x i~NID(0,1).

или ei = x i,.

Такой процесс имеет большое сходство с авторегрессионным.

Обозначим безусловную дисперсию через s. Тогда, если взять ожидания от обеих частей в формуле для дисперсии, получим

s = m + g 1s + g2s + ... +gps.

Здесь мы восппользовались формулой полного математического ожидания:

E(s) = E(E(e|Wi) ) = E(e) = s.

Получаем выражение для безусловной дисперсии

s =  .

Отсюда видно, что для того, чтобы ARCH-процесс был стационарным необходимо, чтобы gk < 1.

На практике структура лага g 1, ... , gp неизвестна и ее приходится оценивать. Если p большое, то приходится оценивать слишком много коэффициентов. В таком случае можно наложить априорные ограничения. Энгл, например, взял

g 1 = 0.4g *, g 2 = 0.3g *, g 3 = 0.2g *, g 4 = 0.1g *,

поэтому вместо четырех коэффициентов, ему надо было оценить только один g *.

Если воспользоваться бесконечным геометрическим лагом, то можно преобразовать модель к виду

s = m + g 1e + d 1s.

Эта модель называется GARCH(1,1). Как ARCH похожа AR на , так GARCH похожа на ARMA. Модель GARCH предложена Боллерслевом (Bollerslev, 1986).

GARCH(p, q)имеет вид:

s = m + g 1e+ ... +gpe+ d 1s+ ... + d 1s=

=m + gk e + dk s.

Безусловная дисперсия равна

s =  .

Регрессионная модель с нормально распределенной GARCH-ошибкой имеет вид:

Yi = Xi b + ei, ei ~N(0, s),

где s вычисляется по данной выше формуле. К сожалению, не существует простого способа оценивания регрессии с GARCH-процессом в ­ошибке.

Логарифмическая функция правдоподобия для одного наблюдения равна

i =  lns –  = lns –  (YiXi b),

для всего вектора наблюдений

 = åi = å lns – å =

= å lns – å (YiXi b),

где s вычисляется рекуррентно:

s(b, g, d ) =m +gk e(b ) + dk s(b, g, d ).

Обозначим a = ( m, g1,... ,gp, d1,... , dq)T, zi = (1, e, ... , e, s, ..., s Тогда s =aTzi.

Вклад в градиент отдельного наблюдения:

=    (  – 1) +  eiXi ,

=   (  – 1).

Производные условной дисперсии вычисляются рекуррентно:

  = –2gk X e + dk ,

   = ziT + dk .

Приведенные формулы уже позволяют применить метод BHHH (OPG), как предложил Боллерслев. Однако, метод, как обычно, работает плохо в смысле сходимости и точности оценивания ковариационной матрицы оценок МП. Другие методы, — Ньютона, удвоенной регрессии, — работают гораздо лучше. Рассмотрим метод, использующий оценку информационной матрицы, в которой ожидания берутся только частично — только условные ожидания.

Чтобы найти оценку информационной матрицы, возьмем в точке истинных параметров математическое ожидание условное по информации, имеющейся на момент i (Wi), от матрицы внешнего произведения градиента i-го наблюдения. Поскольку ожидание условное, то единственной случайной компонентой будет ошибка (в точке истинных параметров остатки равны ошибкам). При этом пользуемся тем, что

E((  – 1) e | Wi) =0, E((  – 1) | Wi) = 2 и E(e | Wi) =s.

E(  | Wi) =      –  Xi XiT,

E(  |Wi) = –    ,

E( |Wi) = –     .

Информационная матрица равна безусловному ожиданию суммы условных мат. ожиданий гессианов со знаком минус:

(q ) = – E(åE(   | Wi))

= åE(      +  Xi XiT),

 = åE(    ), =åE(–    ).

Можно показать, хотя доказательство достаточно громоздкое, что = O. Таким образом, информационная матрица является блочно-ди­аго­наль­ной между коэффициентами регрессии и параметрами GARCH-процесса.

Информационную матрицу можно состоятельно оценить матрицей:

= ,

где

= å      +  Xi XiT и = å    .

Для нахождения оценок максимального правдоподобия можно применить обычный алгоритм:

b  = b  + lb ( )gb (q ),

a  = a  + la ()ga (q ).

Прежде чем оценивать GARCH-регрессию, имеет смысл проверить наличие GARCH­-процесса в ошибке с помощью теста множителя Лагранжа в точке оценок ОМНК. Используем блочно-диагональность информационной матрицы:

LM = ().

При нулевой гипотезе об отсутствии GARCH­-процесса s = m = s, и статистику можно упростить. Найдем эту статистику только в частном случае ARCH модели:

   = ziT Þ =   ziT (  – 1), = å   ziT zi.

Пусть m — вектор-столбец, состоящий из   – 1, Z — матрица, строками которой являются ziT = (1, e, ... , e). Тогда

= =  m TZ, =   ZTZ.

LM = m TZ (ZTZ)Z Tm c2(p).

Энгл предложил несколько изменить форму статистики. Для этого используется то, что поскольку ошибки распределены нормально, то

Plim mTm /N = 2.

Асимптотически эквивалентной статистикой будет

LM* = m TZ (ZTZ)Z Tm c2(p).

Эта статистика равняется N R, где R — коэффициент детерминации в рег­рес­сии квадратов остатков по Z, то есть по константе и p лагам квадратов остатков.