Причинность по Грейнджеру применяется к компонентам стационарного векторного случайного процесса: может ли одна из этих переменных быть причиной другой переменной. В основе определения лежит хорошо известный постулат, что будущее не может повлиять на прошлое.
Этот постулат Грейнджер рассматривал в информационном аспекте. Для того чтобы определить, является ли переменная x причиной переменной y, следует выяснить, какую часть дисперсии текущего значения переменной y можно объяснить прошлыми значениями самой переменной y и может ли добавление прошлых значений переменной x улучшить это объяснение. Переменную x называют причиной y, если x помогает в предсказании y с точки зрения уменьшения дисперсии.
В контексте векторной авторегрессии переменная x будет причиной y, если коэффициенты при лагах x статистически значимы. Заметим, что часто наблюдается двухсторонняя причинная связь: x является причиной y,и y является причиной x.
Рассмотрим причинность по Грейнджеру для двух переменных. Приведенная форма модели имеет вид:
p p xt = ajxt-j + bjyt-j + vt, j=1 j=p p yt = cjxt-j + djyt-j + wt.
j=1 j=Отсутствие причинной связи от x к y означает, что cj =0 при j =1,..., p, т.е. что прошлые значения x не влияют на y. Отсутствие причинной связи от y к x означает, что bj =0 при j =1,..., p.
Когда процесс стационарен, тогда гипотезы о причинной связи можно проверять с помощью F -статистики. Нулевая гипотеза заключается в том, что одна переменная не является причиной по Грейнджеру для другой переменной. Длину лага p следует выбрать по самому дальнему лагу, который еще может помочь в прогнозировании.
Следует понимать, что причинность по Грейнджеру Ч это не всегда то, что принято называть причинностью в общем смысле. Причинность по Грейнджеру связана скорее с определением того, что предшествует чему, а также с информативностью переменной с точки зрения прогнозирования другой переменной.
666 Глава 23. Векторные авторегрессии 23.6. Коинтеграция в векторной авторегрессии Векторная авторегрессия представляет собой также удобный инструмент для моделирования нестационарных процессов и коинтеграции между ними (о коинтеграции см. в гл. 17).
Предположим, что в векторной авторегрессии xt, задаваемой уравнением p xt = xt-jj + vt, (23.6) j=отдельные составляющие процессы xtj либо стационарны, I(0), либо интегрированы первого порядка, I(1). Рассмотрим в этой ситуации коинтеграцию CI(1, 0).
Для упрощения забудем о том, что согласно точному определению коинтегрированные вектора сами по себе должны быть нестационарными. Линейную комбинацию стационарных процессов по этому упрощающему определению тоже будем называть коинтегрирующей комбинацией. Таким образом, будем называть коинтегрирующим вектором рассматриваемого процесса векторной авторегрессии xt такой вектор c =0, что xtc является I(0).
Если векторный процесс состоит из более чем двух процессов, то может существовать несколько коинтегрирующих векторов.
Поскольку коинтегрирующая комбинация Ч это линейная комбинация, то как следствие, любая линейная комбинация коинтегрирующих векторов, не равная нулю, есть опять коинтегрирующий вектор. В частности, если c1 и c2 Чд ва коинтегрирующих вектора и c = 1c1 + 2c2 =0, то c Ч тоже коинтегрирующий вектор. Таким образом, коинтегрирующие вектора фактически образуют линейное подпространство с выколотым нулем, которое принято называть коинтегрирующим подпространством.
Обозначим через матрицу, соответствующую произвольному базису коинтегрирующего подпространства процесса xt. Это k r матрица, где r Чразмерность коинтегрирующего подпространства. Размерность r называют рангом коинтеграции. Столбцы Ч это линейно независимые коинтегрирующие вектора.
Для удобства анализа преобразуем исходную модель (23.6) векторной авторегрессии. Всегда можно переписать векторную авторегрессию в форме векторной модели исправления ошибок (vector error-correction model, VECM):
p- xt = xt-1+ xt-jj + vt, j=p p где j = - i, =-(I - i) =-(1).
i=j+1 i=23.6. Коинтеграция в векторной авторегрессии При сделанных нами предположениях первые разности xt должны быть стаp- ционарными. Отсюда следует, что процесс xt-1=xt - xt-jj - vt стаj=ционарен как линейная комбинация стационарных процессов. Это означает, что столбцы матрицы Ч это коинтегрирующие вектора (либо нулевые вектора).
юбой такой вектор можно разложить по базису коинтегрирующего подпространства,. Составим из коэффициентов таких разложений k r матрицу, такчто =. Ранг матрицы не может превышать r. Укажем без доказательства, что при сделанных предположениях ранг матрицы в точности равен r.
Таким образом, мы получили следующую запись для векторной модели исправления ошибок:
p- xt = xt-1 + xt-jj + vt, j=где отвечает за скорость исправления отклонений от равновесия (матрица корректирующих коэффициентов), Ч матрица коинтеграционных векторов.
Можно рассмотреть два крайних случая: r =0 и r = k. Если r =0, то =и не существует стационарных линейных комбинаций процесса xt. Если r = k, то имеет полный ранг и любая комбинация xt стационарна, т.е. все составляющие процессы являются I(0). О собственно коинтеграции можно говорить лишь при 0 До сих пор мы не вводили в модель детерминированные компоненты. Однако, вообще говоря, можно ожидать, что в модель входят константы и линейные тренды, причем они могут содержаться как в самих рядах, так и в коинтеграционных уравнениях. Рассмотрим векторную модель исправления ошибок с константой и трендом: p- xt = 0 + 1t + xt-1 + xt-jj + vt, j=где 0 и 1 Ч вектора-строки длиной k. Вектор 0 соответствует константам, а вектор 1 Ч коэффициентам линейных трендов. Можно выделить пять основных случаев, касающихся статуса векторов 0 и 1 в модели. В таблице 23.1 они перечислены в порядке перехода от частного к более общему. Здесь 0 и 1 Ч вектора-строки длины r. Случай 0 легко понять Ч константы и тренды в модели полностью отсутствуют. В случае 1 константа входит в коинтеграционное пространство и тем самым в корректирующие механизмы, но не входит в сам процесс xt в виде дрейфа. Это 668 Глава 23. Векторные авторегрессии Таблица 23.Случай 0 0 =0 1 =Случай 1 0 = 0 1 =Случай 1 0 произвольный 1 =Случай 2 0 произвольный 1 = Случай 2 0 произвольный 1 произвольный несложно увидеть, если переписать модель следующим образом: p- xt =(0 + xt-1) + xt-jj + vt. j=В случае 1 0 можно записать как 0 = + 0, гд е 0 входит в коинтеграционное пространство, а соответствует дрейфу в векторной модели исправления ошибок: p- xt = +(0 + xt-1) + xt-jj + vt. j=Дрейф в модели исправления ошибок означает, что процесс xt содержит линейный тренд4. Аналогичные рассуждения верны по отношению к временному тренду в случаях 2 и 2. В случае 2 тренд входит в коинтеграционное пространство, но не входит в xt в виде квадратичного тренда. В случае 2 тренд входит и в коинтеграционное пространство, и в xt в виде квадратичного тренда. 23.7. Метод Йохансена Наряду с методом ЭнглаЧГрейнджера (см. п. 17.6), еще одним популярным методом нахождения стационарных комбинаций нестационарных переменных является метод Йо хансена. Этот метод, по сути дела, распространяет методику ДикиЧ Фуллера (см. 17.4) на случай векторной авторегрессии. Помимо оценивания коинтегрирующих векторов, метод Йохансена также позволяет проверить гипотезы о ранге коинтеграции (количестве коинтегрирующих векторов) и гипотезы о виде коинтегрирующих векторов. Это аналог ситуации для скалярного авторегрессионного процесса с дрейфом. 23.7. Метод Йохансена Перечислим преимущества, которые дает метод Йохансена по сравнению с методом ЭнглаЧГрейнджера: 1) Метод ЭнглаЧГрейнджера применим, только когда между нестационарными переменными есть всего одно коинтегрирующее соотношение. Если ранг коинтеграции больше 1, то метод дает бессмысленные результаты. 2) Метод ЭнглаЧГрейнджера статичен, в нем не учитывается краткосрочная динамика. 3) Результаты метода Йохансена не зависят от нормировки, использованной при оценивании, в то время как метод ЭнглаЧГрейнджера может дать существенно отличающиеся результаты в зависимости от того, какая переменная стоит в левой части оцениваемой коинтеграционной регрессии. Пусть векторный процесс xt =(x1t,..., xkt) описывается векторной авторегрессией p-го порядка, причем каждая из компонент является I(1) или I(0). Пред полагается, что ошибки, относящиеся к разным моментам времени, независимы и распределены нормально с нулевым математическим ожиданием и ковариационной матрицей. Как указывалось выше, можно записать векторную авторегрессию в форме векторной модели исправления ошибок: p- xt = xt-1+ xt-jj + vt. j=В методе Йохансена оцениваемыми параметрами являются k k матрицы коэффициентов j и, а также ковариационная матрица. Имеяоценки j и, можно получить оценки коэффициентов приведенной формы модели по следующим формулам: 1 = I +1 +, j =j - j-1, j =2,..., p- 1, p = -p-1. Ранг коинтеграции r считается известным. Ограничения на ранг коинтеграции задаются как ограничения на матрицу. Как сказано выше, в предположении, что ранг коинтеграции равен r, ранг матрицы тоже равен r, и эту матрицу можно представить в виде произведения двух матриц: =, где и имеют размерность k r. Таким образом, в дальнейших выкладках используется представление: p- xt = xt-1 + xt-jj + vt. j=670 Глава 23. Векторные авторегрессии Матрица состоит из коинтегрирующих векторов. Заметим, что если бы матрица была известна (естественно, с точностью до нормировки), то отклонения от равновесия xt тоже были бы известны, и мы имели бы дело с линейными уравнениями регрессии, которые можно оценить посредством МНК. В методе Йохансена исходят из того, что матрицу требуется оценить. Для оценивания модели используется метод максимального правдоподобия. Плотность распределения ошибок vt по формуле для многомерного нормального распределения равна (2)-k/2 ||-1/2 e(- vt-1vt). Обозначим через вектор, состоящий из параметров, и j. Для данного остатки модели равны p- vt() =xt - xt-1 - xt-jj. j=Используя это обозначение, можем записать функцию правдоподобия: T 2 t=p L(, ) = (2)-kT/2 ||-T/2 e(- vt()-1vt()). Заметим, что это функция правдоподобия, в которой за неимением данных в сумме пропущены первые p наблюдений. огарифмическая функция правдоподобия равна T kT T ln L(, ) = - ln(2) + ln |-1| - vt()-1vt(). 2 2 t=p При данном максимум функции правдоподобия по достигается при T =() = vt()vt(). T t=p Это можно доказать, дифференцируя логарифмическую функцию правдоподобия по -1 (см. Приложение A.2.2). Можно показать, что для этой матрицы выполнено T vt()-1()vt() =Tk. t=p 23.7. Метод Йохансена С учетом этого максимизация функции правдоподобия эквивалентна минимизации определителя матрицы () по или T vt()vt() min! t=p Тем самым мы получили, что метод максимального правдоподобия сводится к максимизации некоторой обобщенной суммы квадратов. По аналогии со сказанным выше ясно, что при данной матрице можно получить оценки максимального правдоподобия для остальных неизвестных параметров обычным методом наименьших квадратов. Кроме того, при данных, можно получить оценки j методом наименьших квадратов из регрессий: p- xt - xt-p = xt-jj + vt. j=Оценим отдельно регрессии xt и xt-p по переменным, стоящим в правой части данного уравнения: p- xt = xt-jSj + r0t, j=p- xt-p = xt-jTj + rpt, j=где Sj, Tj Ч коэффициенты регрессий. Получим из них остатки r0t и rpt. Отсюда при данных и получим остатки исходной модели: vt = vt(, ) =r0t - rpt. В этих обозначениях задача нахождения оценок приобретает вид: T (r0t - rpt ) (r0t - rpt ) min!, t=p Для нахождения матриц и Йохансен использовал процедуру, известную как регрессия с пониженным рангом. Она состоит в следующем. На основе остатков r0t и rpt формируются выборочные ковариационные матрицы остатков: T Mij = ritrjt, i, j =0, p, T t=672 Глава 23. Векторные авторегрессии и задача переписывается в виде M00 - Mp0 - M0p + Mpp min!, Минимизация по при данном дает () =M0p( Mpp)-1, откуда следует задача минимизации уже только по : M00 - M0p( Mpp)-1 Mp0 min! Очевидно, что отсюда нельзя однозначно найти. Для нахождения удобно ввести следующую нормировку: Mpp = Ir. Оказывается, что с учетом данного нормирующего ограничения последняя задача минимизации эквивалентна следующей обобщенной задаче поиска собственных значений5: -Mp0M00 M0p - Mpp c =0, где c Ч собственный вектор, а собственные значения находятся как решения уравнения: - Mp0M00 M0p - Mpp =0. Матрица находится в виде собственных векторов, соответствующих r наибольшим собственным значениям, где r Ч ранг коинтеграции. Пусть собственные числа упорядочены по убыванию, т.е. 1 2... k. Тогда следует выбрать первые r этих чисел, 1,..., r. Столбцами матрицы будут соответствующие вектора c1,..., cr. Обобщенную задачу поиска собственных значений можно свести к стандартной 1/задаче, если найти какую-либо матрицу Mpp, являющуюся квадратным корнем 1/1/матрицы Mpp, т.е. Mpp = Mpp Mpp : -1/2 -1 -1/Mpp Mp0M00 M0pMpp - I c =0, Она напоминает метод наименьшего дисперсионного отношения для оценивания систем одновременных уравнений (см. п. 10.3). Также это напрямую связано с так называемой теорией канонических корреляций. (См. Бриллинджер Д. Временные ряды. Обработка данных и теория. Ч М.: Мир, 1980.) 23.7. Метод Йохансена 1/где c = Mpp c. Напомним еще раз, что определяется только с точностью до некоторой нормировки. Мы уже использовали нормировку Mpp = Ir, которая выбрана из соображений удобства вычислений. Однако нормировку предпочтительнее выбирать, исходя из экономической теории рассматриваемых процессов. Поэтому следует умножить полученную оценку справа на квадратную неособенную r r матрицу, которая бы привела коинтеграционные вектора к более удобному для экономической интерпретации виду. После того как найдена оценка максимального правдоподобия для, вычисляются оценки других параметров. Для этого можно использовать в обратном порядке все те подстановки, которые мы сделали при упрощении задачи максимизации функции правдоподобия. Можно также использовать эквивалентную процедуру: сразу получить оценки и j, применив метод наименьших квадратов к исходной регрессии. Для проверки гипотез о ранге коинтеграции r используется статистика отношения правдоподобия. Пусть нулевая гипотеза состоит в том, что ранг коинтеграции равен r0, а альтернативная гипотеза Ч что ранг коинтеграции равен ra ( ra >r0).