Книги по разным темам Pages:     | 1 |   ...   | 72 | 73 | 74 | 75 | 76 |   ...   | 82 |

Тогда SVAR можно переписать как p xtB = xt-jj + ztA + t. (23.2) j=Если матрица имеет индекс, то для обозначения ее элемента мы будем заключать матрицу в скобки. Например, (A1)ij.

656 Глава 23. Векторные авторегрессии Структурная векторная регрессия фактически является гибридом моделей авторегрессии и систем одновременных уравнений. Соответственно, анализ таких моделей должен учитывать и динамические свойства, характерные для моделей авторегрессии, и черты, присущие системам одновременных уравнений.

Уравнение структурной векторной авторегрессии представляет собой систему одновременных регрессионных уравнений, в которой среди факторов имеются лаги изучаемых переменных. Для того чтобы показать это в явном виде, введем следующие обозначения:

.

.

.

zt =(xt-1,..., xt-p, zt) и A =.

p A В таких обозначениях xtB = + t, ztA или в матричной записи XB = ZA +.

Как и в случае систем одновременных уравнений, нельзя оценить параметры структурной формы методом непосредственно наименьших квадратов, поскольку, если матрица B недиагональна, найдутся уравнения, в которых будет более чем одна эндогенная переменная. В i-м уравнении системы будет столько же эндогенных переменных, сколько ненулевых элементов в i-м столбце матрицы B. Таким образом, в общем случае уравнения системы будут взаимозависимы, и, следовательно, оценки их по отдельности методом наименьших квадратов будут несостоятельными.

Классический частный случай, в котором все-таки можно применять МНК Ч это случай рекурсивной системы. Рекурсивной является система одновременных уравнений, в которой матрица B является верхней треугольной, а матрица ковариаций ошибок (23.1) является диагональной. Последнее условие в случае SVAR выполнено по определению. При этом первая переменная зависит только от экзогенных переменных, вторая переменная зависит только от первой и от экзогенных переменных и т.д. Поскольку ошибки в разных уравнениях некоррелированы, то каждая эндогенная переменная коррелирована только с ошибками из своего 23.1. Векторная авторегрессия: формулировка и идентификация и предыдущих уравнений и не коррелирована с ошибками тех уравнений, в которые она входит в качестве регрессора. Таким образом, ни в одном из уравнений не нарушаются предположения МНК о некоррелированности ошибки и регрессоров, т.е. оценки МНК состоятельны.

В общем случае, когда модель SVAR не обязательно рекурсивная, чтобы избавиться от одновременных зависимостей, можно умножить2 23.2 справа на B-1:

p xt = xt-jjB-1 + ztAB-1 + tB-1.

j=Далее, обозначим D = AB-1, j =jB-1, vt = tB-1.

Это дает приведенную форму векторной авторегрессии:

p xt = xt-jj + ztD + vt.

j=Ковариационная матрица одновременных ошибок приведенной формы равна var(vt) =. Она связана с ковариационной матрицей одновременных ошибок структурной формы (см. 23.1) соотношением B B =.

Как и в случае обычных одновременных уравнений, при оценивании структурных векторных авторегрессий возникает проблема идентификации. Существует несколько типов идентифицирующих ограничений, которые можно использовать для решения этой проблемы.

1) Нормирующие ограничения, которые только закрепляют единицы измерения коэффициентов. В данном случае в качестве нормирующих ограничений используются ограничения Bll =1 (диагональные элементы матрицы B равны 1).

2) Ограничения на коэффициенты структурных уравнений. Ограничения на коэффициенты бывают двух видов: ограничение на коэффициенты в пределах одного и того же уравнения (важный частный случай такого ограничения Ч исключение переменной из уравнения) и ограничение на коэффициенты нескольких уравнений.

3) Ограничения на ковариационную матрицу ошибок. В структурной векторной авторегрессии используется крайний случай таких ограничений: матрица ковариаций ошибок в этой модели диагональна (см. 23.1), т.е. так называемое ограничение ортогональности ошибок.

4) Долгосрочные ограничения. Это ограничения на долгосрочные взаимодействия переменных, резюмируемые долгосрочным мультипликатором M, о котором речь пойдет ниже (см. 23.5).

Мы исходим из предположения, что B Ч неособенная матрица.

658 Глава 23. Векторные авторегрессии В отличие от векторной авторегрессии, в классических системах одновременных уравнений редко используют ограничения на ковариационную матрицу, а здесь они входят в определение модели, причем в виде жесткого ограничения ортогональности ошибок.

Стандартные идентифицирующие ограничения, которые неявно подразумевались в ранних статьях по векторной авторегрессии, состоят в том, что матрица B является верхней треугольной. Это дает рекурсивную векторную авторегрессию.

Рекурсивную векторную авторегрессию можно оценить методом наименьших квадратов по причинам, о которых упоминалось выше. Другой способ состоит в том, чтобы оценить приведенную форму модели и восстановить из нее коэффициенты структурной формы. Для этого надо использовать так называемое разложение Холецкого (триангуляризацию) для ковариационной матрицы приведенной формы: =U U, гд е Ч диагональная матрица с положительными элементами, U Ч верхняя треугольная матрица с единицами на диагонали. Естественно, вместо истинной матрицы используют ее оценку. Тогда полученная матрица будет оценкой ковариационной матрицы ошибок структурной формы, а U-1 Ч оценкой матрицы B.

Однако использование рекурсивной векторной авторегрессии нежелательно, если только нет каких-либо оснований считать, что одновременные взаимодействия между переменными действительно являются рекурсивными. Дело в том, что эти идентифицирующие ограничения совершенно произвольны и зависят от того, в каком порядке расположены переменные в векторе xt.

В общем случае оценивание структурной VAR производят примерно теми же методами, что и оценивание одновременных уравнений. В частности, можно использовать метод максимального правдоподобия. Специфичность методов оценивания состоит в том, что они должны учитывать ограничение ортогональности ошибок.

23.2. Стационарность векторной авторегрессии Чтобы анализировать условия и следствия стационарности векторной авторегрессии, удобно отвлечься от структурной формы этой модели и пользоваться приведенной формой. Для упрощения анализа мы без потери общности будем рассматривать векторную авторегрессию без детерминированных членов:

p xt = xt-jj + vt, j=23.2. Стационарность векторной авторегрессии или в операторном виде3:

p xt I - jLj = vt.

j=Многие свойства процесса VAR(p) можно получить из свойств процесса VAR(1), если воспользоваться соответствующим представлением:

xt = xt-1+ t, где вводятся следующие обозначения:

xt =(xt, xt-1,..., xt-p+1), t = vt, 0,..., k k и 1 Ik 0kk 0kk 2 0kk Ik 0kk.

.

.....

=....

.

....

p-1 0kk 0kk Ik p 0kk 0kk 0kk Используя рекуррентные подстановки xt =(xt-2+ t)+ t = + t+ t, xt- xt =(xt-3+ t)2 + t+ t = + t2 + t+ t xt-и т.д., несложно получить для VAR(1) представление в виде бесконечного скользящего среднего:

xt = t + t+ t2 + t3 +... = t-ii.

i=Для того чтобы этот ряд сходился, необходимо, чтобы его члены затухали, т.е. чтобы в пределе при i последовательность матриц i стремилась к ну лю. Для этого требуется, чтобы собственные значения матрицы лежали внутри Здесь оператор стоит после переменной, на которую действует, чтобы не нарушать правила умножения матриц.

660 Глава 23. Векторные авторегрессии единичного круга. Собственные значения матрицы, по определению, удовлетворяют уравнению:

- ITp =0.

Определитель в этой формуле можно выразить через матрицы j (доказательство этого требует довольно громоздких вычислений):

- ITp =(-1)Tp IT p - 1p-1 -... - p-1 - p.

Таким образом, уравнение для собственных значений эквивалентно следующему:

IT p - 1p-1 -... - p-1 - p =0.

Процесс VAR(p) слабо стационарен тогда и только тогда, когда корни этого уравнения меньше единицы по абсолютной величине.

Эти условия стационарности можно переформулировать в терминах матричного характеристического многочлена процесса VAR(p), который равен p (z) =I - jzj.

j=Если возьмем определитель этого многочлена, то получится скалярный характеристический многочлен p |(z)| = I - jzj.

j=Он будет многочленом, поскольку определитель Ч это многочлен от своих элементов. Соответствующее характеристическое уравнение имеет вид:

|(z)| =0.

Условия стационарности состоят в том, что корни этого характеристического уравнения лежат за пределами единичного круга.

23.3. Анализ реакции на импульсы Для содержательной интерпретации стационарной векторной авторегрессии следует выразить изучаемую переменную xt через ошибки t структурной формы, которые, по определению модели, взаимно некоррелированы.

23.3. Анализ реакции на импульсы Запишем приведенную форму модели (без детерминированных членов) с использованием лагового оператора L:

p xt I - jLj = vt = tB-1.

j=В предположении стационарности процесса xt можно обратить лаговый полином и получить p - xt = tB-1 I - jLj. (23.3) j=Это дает представление в виде бесконечного скользящего среднего (представление Вольда) для VAR:

xt = t-ii. (23.4) i=Матрицы i представляют так называемую функцию реакции на импульсы (IRF Ч impulse response function) для структурной векторной авторегрессии и могут быть символически записаны в виде dxt i =.

dt-i Более точно, функция реакции на импульсы Ч это последовательность (i)lr, i = 0, 1, 2, где l и r Ч индексы пары изучаемых переменных. Величина (i)lr показывает, как влияет ошибка tl (которая соответствует уравнению для переменной xtl) на переменную xtr при запаздывании на i периодов.

Эти матрицы можно рассчитать рекуррентно:

p i = i-jj, i =1, 2,..., j=начиная с 0 = B-1 и i =0kk, i < 0.

Накопленная реакция на импульсы определяется следующим образом:

s s = i.

i=662 Глава 23. Векторные авторегрессии Она показывает суммарное запаздывающее влияние ошибок на изучаемую переменную для всех лагов от 0 до некоторого s.

Долгосрочное влияние резюмируется матрицей M, определяемой как M = lim s = i. (23.5) s i=Эту матрицу называют долгосрочным мультипликатором. Ее также можно записать в виде p - M = B-1 I - j.

j=Последняя формула следует из того, что p - B-1 I - j = iLi (см. 23.3 и 23.3).

j=1 i=Для того чтобы это показать, надо подставить 1 вместо L.

23.4. Прогнозирование с помощью векторной авторегрессии и разложение дисперсии Поскольку лаги исследуемых переменных полагаются величинами известными, то построение прогнозов по ним в гораздо меньшей степени, чем в системах одновременных уравнений, осложняется проблемой получения точных значений факторов.

Для упрощения формул мы будем исходить из того, что нам известны истинные параметры процесса. Пусть известны значения xt временного ряда VAR для t =1,..., T. Сделаем прогноз на ( T +1)-й период. Это математическое ожидание xT +1, условное относительно имеющейся на момент T информации x1,..., xT.

При расчетах удобно действовать так, как если бы была известна вся предыстория процесса:

T =(xT,..., x1, x0,... ).

Выводы от этого не изменятся. Таким образом, будем использовать ожидания, условные относительно T.

Искомый прогноз равен p p xp (1) = E(xT +1|T ) = E(xT +1-j|T )j + E(vT +1|T ) = xT +1-jj, T j=1 j=23.4. Прогнозирование с помощью векторной авторегрессии где мы воспользовались тем, что E(vT +1|T ) = 0 и что все xt в правой части уравнения регрессии входят в предысторию T.

Чтобы получить формулу прогноза на s периодов, возьмем от обеих частей уравнения для процесса VAR математическое ожидание, условное относительно T. Получим p xp (s) =E(xT +s|T ) = E(xT +s-j|T )j.

T j=По этой формуле прогнозы вычисляются рекуррентно, причем E (xt|T ) =xt при t T, и E (xt|T ) =xp (t - T ) при t >T.

T Заметим, что построение прогнозов не требует знания структурной формы модели. Таким образом, чтобы построить прогноз, достаточно оценить приведенную форму без наложения ограничений обычным МНК. Это делает VAR очень удобным инструментом прогнозирования: не требуется анализировать, как взаимосвязаны переменные, какая переменная на какую влияет.

Ошибка прогноза Ч это ds = xT +s - xp = xT +s - E(xT +s|T ).

T +s Чтобы найти эту ошибку, воспользуемся разложением Вольда для xT +k:

xT +s = T +s-ii.

i=Очевидно, что ошибки T +1,..., T +s непредсказуемы и их ожидаемые значения относительно T равны нулю, поэтому xp (s) =E(xT +s|T ) = T +s-ii.

T i=s Таким образом, ошибка прогноза равна:

s- ds = T +s-ii.

i=Прогноз является несмещенным, поскольку E(d) =0.

Ковариационная матрица ошибки прогноза находится по формуле:

s-s- ds = E(d ds|T ) =E T +s-ii T +s-ii |T = s i=0 i=s-1 s- = E T +s-i|T i = i.

T +s-i i i i=0 i=664 Глава 23. Векторные авторегрессии При выводе формулы мы воспользовались тем, что ошибки структурной формы t не автокоррелированы и их ковариационная матрица равна var(t) =.

Можно выразить ковариационную матрицу ошибки прогноза также и через ковариационную матрицу ошибок приведенной формы:

s- ds = B Bi.

i i=Поскольку в структурной форме ошибки разных уравнений некоррелированы, 2 т.е. =diag(1,..., k), то можно разложить ковариационную матрицу ошибки прогноза на составляющие, соответствующие отдельным ошибкам tl. Обозначим l-ю строку матрицы i через il. Вектор il представляет собой функцию реакции на импульсы влияния t-i,l на все переменные xt. Тогд а s-1 s-1 k k s- 2 ds = i = ill il = ill il.

i i=0 i=0 l=1 l=1 i=Таким образом, ошибке l-го уравнения соответствует вкладв ковариационную матрицу ошибки прогноза равный s- ill il.

i=Можно интерпретировать j-й диагональный элемент этой матрицы как вклад ошибки l-го уравнения t,l в дисперсию ошибки прогноза j-й изучаемой переменной xt,j при прогнозе на s периодов. Обозначим этот вклад через jl,s:

s- 2 jl,s = l il.

il i=jj Можем вычислить также долю каждой из ошибок в общей дисперсии ошибки прогноза j-й изучаемой переменной:

jl,s Rjl,s =.

k jr,s r=Набор этих долей Rjl,s, гд е l = 1,..., k, представляет собой так называемое разложение дисперсии ошибки прогноза для структурной векторной авторегрессии.

23.5. Причинность по Грейнджеру 23.5. Причинность по Грейнджеру В эконометрике наиболее популярной концепцией причинности является причинность по Грейнджеру. Это связано, прежде всего, с ее относительной простотой, а также с относительной легкостью определения ее на практике.

Pages:     | 1 |   ...   | 72 | 73 | 74 | 75 | 76 |   ...   | 82 |    Книги по разным темам