Книги по разным темам Pages:     | 1 |   ...   | 17 | 18 | 19 | 20 | 21 |   ...   | 30 |

i и i - неизвестные постоянные, uit - случайные ошибки. (Для простоты переменную x будем рассматривать пока как скалярную переменную.) Если предполагать, что uit ~ i.i.d. N(0,u ), i = 1,K, N, t =1,K,T, и что E(xitu )= 0 для любых i, j =1,K, N, t,s = 1,K,T, js так что x является экзогенной переменной, то мы имеем дело с N не связанными между собой линейными регрессиями, удовлетворяющими предположениям классической нормальной линейной регрессии. Для получения оценок параметров i и i эти регрессии можно оценивать в этом случае порознь, так что оценки наименьших квадратов для i и i имеют вид:

226 Глава T - xi )(yit - yi ) (xit t= i =, T - xi ) (xit t= i = yi - i xi, i =1,K, N, где T T 1 yi = yit, xi = xit.

T T t=1 t=Эти оценки имеют при фиксированных значениях yit и xit нормальное распределение и являются наилучшими линейными несмещенными оценками (BLUE).

Если ошибки uit независимы между собой и имеют нормальные распределения с нулевыми средними, но дисперсии их различны для разных субъектов, так что uit ~ i.i.d. N(0,ui), i = 1,K, N, t = 1,K,T, то тогда следует использовать взвешенный метод наименьших квадратов, приписывая каждому наблюдению для i -го субъекта вес wi = 1 ui. Поскольку же дисперсии ui в реальных исследованиях не известны, приходится использовать доступную версию этого метода, в которой вместо весов wi = 1 ui берутся их оценки ui wi = 1, где - подходящие оценки неизвестных дисперсий. В ui качестве таковых можно брать, например, несмещенные оценки дисперсий ui :

ui (i) = RSS /(N - p).

Здесь RSS(i) - сумма квадратов остатков, получаемых при оценивании модели регрессии для i -го субъекта, а p - количество объясняющих переменных в уравнениях регрессии (для парной регрессии с константой p = 2 ).

Панельные данные Несколько более сложная модель возникает, если предположить коррелированность ошибок для разных субъектов в совпадающие моменты времени. Это модель кажущихся несвязанными регрессий1 (SUR, SURE - seemingly unrelated regressions). При наличии такой коррелированности следует использовать уже не взвешенный, а обобщенный метод наименьших квадратов. Если представить уравнение для i -го субъекта в векторно-матричной форме (i) (i) y(i) = X + u(i), где yi1 1 xi1 ui (i) (i) y(i) = M, X = M =, u(i) = M, M, 1 xiT u yiT iT то модель SUR можно записать в следующем виде:

(1) X 0 L (1) y(1) u(1) (2) 0 X L 0 M =, M + M M M O M (N ) u(N ) y(N ) (N ) 0 0 L X или (в очевидных обозначениях) y = X + u.

При сделанных предположениях ковариационная матрица NT 1-вектора u равна 11 12 L 1N 12 22 L 2N = Cov(u) =, M M O M 2N L NN 1N В некоторых руководствах по эконометрике такую модель называют системой внешне не связанных между собой уравнений.

228 Глава где (T T )-матрица ij имеет вид ij 0 L 0 ij L ij =, ij = Cov(uit,u ).

jt M M O M 0 0 L ij Обобщенная оценка наименьших квадратов (GLS-оценка) вектора находится по формуле -T T SUR = GLS = (X -1 X) X -1 y.

Заметим, что подлежащая обращению матрица имеет размер NT NT. Однако такого обращения можно избежать вследствие наличия следующего соотношения:

(- (- ( 111) 121) L 1-1) N ( 121) (-1) L (-1) 22 2N -1 =, M M O M ( 1-1) (-1) L (-1) N 2 N NN где (-1) ij 0 L ( 0 ij-1) L ( ij-1) =, M M O M ( 0 0 L ij-1) ( а ij-1) - элементы матрицы -1, обратной к матрице 11 L 1N = M O M.

L 1N NN Благодаря этому достаточно произвести обращение матрицы размера N N.

Панельные данные Учет коррелированности ошибок в различных уравнениях позволяет ожидать определенного выигрыша в точности оценивания (i) каждого из за счет информации, идущей от других уравнений через указанную коррелированность. Однако реальный выигрыш зависит от целого ряда факторов. Например, если ij = для i j, то предпочтительность SUR-оценки возрастает с ростом 1, когда T велико. С другой стороны, если = 0, то SUR- и OLS-оценки совпадают. Кроме того, непосредственная реализация SUR-оценивания на практике невозможна из-за того, что значения ij не известны исследователю. Доступный (feasible) вариант SURоценивания предусматривает использование адаптивной оценки FGLS вектора, при вычислении которой неизвестные значения ij ij заменяются их состоятельными оценками.

(i) (i) (i) Пусть e(i) = y - X - вектор остатков, получаемый при OLS-оценивании уравнения для i -го субъекта. Тогда естественной оценкой для является ij T (e(i)) e( j) ij =.

T При j = i это есть просто RSS(i) T, и, как известно, такая оценка для дисперсии ошибки в i -м уравнении имеет смещение, а несмещенной оценкой для этой дисперсии является RSS(i) (T - p), где p - количество объясняющих переменных в уравнении регрессии. (Конечно, при этом должно выполняться условие T > p.) При соответствующих условиях на матрицу X, требующихся и в FGLS классической модели линейной регрессии, обе оценки GLS и при T состоятельны.

230 Глава П р и м е р Рассмотрим для иллюстрации приведенные в [Greene (1993), стр.

481] ежегодные данные об объемах инвестиций y и прибыли x трех предприятий ( N = 3 ) за десятилетний период (T =10 ).

t Y1 X1 Y2 X2 Y3 X 1 13.32 12.85 20.30 22.93 8.85 8. 2 26.30 25.69 17.47 17.96 19.60 16. 3 2.62 5.48 9.31 9.160 3.87 1. 4 14.94 13.79 18.01 18.73 24.19 24. 5 15.80 15.41 7.63 11.31 3.99 5. 6 12.20 12.59 19.84 21.15 5.73 8. 7 14.93 16.64 13.76 16.13 26.68 22. 8 29.82 26.45 10.00 11.61 11.49 8. 9 20.32 19.64 19.51 19.55 18.49 15.10 4.77 5.43 18.32 17.06 20.84 17.Здесь столбцы Yi, Xi содержат данные по i -му предприятию, i = 1,2,3. Ниже приведены графики изменения объемов инвестиций и прибыли по каждому из трех предприятий.

YX1 2 3 4 5 6 7 8 9 Панельные данные YX1 2 3 4 5 6 7 8 9 YX1 2 3 4 5 6 7 8 9 232 Глава Раздельное оценивание уравнений регрессии (в пакете Eviews) дает следующие результаты.

Первое предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C -2.468913 0.980426 -2.518205 0.X1 1.167170 0.058250 20.03737 0. R-squared 0.Второе предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C -1.384797 1.972680 -0.701988 0.X2 1.014542 0.115314 8.798102 0. R-squared 0.Третье предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C 0.455479 1.491604 0.305362 0.X3 1.076374 0.100360 10.72516 0. R-squared 0. Матрица = (ij) оценивается как 1.2549 - 0.0099 - 0. = 0.0099 1.9628 1.0351 ;

- - 0.9101 1.0351 4. соответствующая корреляционная матрица имеет вид 1 - 0.0063 - 0..

- 0.0063 1 0. - 0.3905 0.3552 Использование доступного GLS приводит к следующим результатам.

Панельные данные Первое предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C -2.857213 0.812548 -3.52 0.X1 1.192389 0047494 25.11 0. R-squared 0.Второе предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C -2.11701 1.66034 -1.28 0.X2 1.05876 0.09663 10.96 0. R-squared 0.Третье предприятие:

Variable Coefficient Std. Error t-Statistic Prob.

C 0.721196 1.199687 0.60 0.X3 1.055824 0.077589 13.61 0. R-squared 0.Оцененные коэффициенты несколько отличаются от результатов раздельного оценивания уравнений, и вопрос в том, сколь значимым является это различие. В связи с этим представляет интерес проверка гипотезы H0 : = 0 для i j.

ij В предположении нормальности ошибок эта гипотеза соответствует статистической независимости ошибок в разных уравнениях. Для проверки этой гипотезы можно использовать критерий БройшаЦПагана. Статистика этого критерия равна i N - = T, rij i =2 j =где ij rij = - оцененная корреляция между ошибками в i -м ii jj и j -м уравнениях. При гипотезе H0 эта статистика имеет 234 Глава асимптотическое распределение хи-квадрат с числом степеней свободы, равным N(N -1) 2 (заметим, что гипотеза H0 накладывает именно столько ограничений, поскольку = ).

ij ji В нашем примере накладывается 3 ограничения, статистика критерия принимает значение 2.787. Соответствующее ему Pзначение, вычисленное на основании распределения (3), равно 0.4256, так что если ориентироваться на это P-значение, то гипотеза независимости не отвергается.

Следует также обратить внимание на то, что различие между оценками коэффициентов при переменных x1, x2, x3 довольно невелико, так что возникает вопрос о проверке гипотезы совпадения этих коэффициентов:

H0 : 1 = 2 = 3.

В рамках модели SUR для проверки этой гипотезы используются две формы критерия Вальда: одна основана на F статистике и P-значении, рассчитанном исходя из соответствующего F -распределения, а другая основана на статистике qF ( q - количество линейных ограничений) и P-значении, рассчитанном исходя из асимптотического распределения (q) этой статистики.

Использование этих двух форм дает следующие результаты:

Wald Test:

F-statistic 1.342317 Probability 0.Chi-square 2.684634 Probability 0. Разница в двух P-значениях весьма мала и не приводит к различию в статистических выводах: гипотеза H0 : 1 = 2 = 3 не отвергается.

Поскольку ранее на основании применения критерия Бройша - Пагана мы не отвергли гипотезу независимости ошибок в разных уравнениях, естественно попытаться проверить гипотезу H0 : 1 = 2 = 3 в условиях такой независимости.

Заметим, что модель SUR в нашем примере записывается как Панельные данные y11 1 x11 0 0 0 0 u M M M M M M M M 1 x1T 0 0 0 0 y1T u1T 1 y21 0 0 1 x21 0 0 u M = M M M M M M + M 2 0 0 1 x2T 0 0 u2T y2T y31 u 0 0 0 0 1 x31 3 M M M M M M M M 0 0 0 0 1 x3T u y3T 3T Это означает, что ее можно рассматривать как модель линейной регрессии переменной y, принимающей значения y11, y12,K, y1T, y21, y22,K, y2T, y31, y32,K, y3T, на следующие 6 переменных: три дамми-переменных (dummy variables) d1 со значениями 1,K,1,0,K,0,0,K,0 ;

13 1 3 1 2 2 T T T d2 со значениями 0,K,0,1,K,1, 0,K,0 ;

1 3 1 3 1 2 2 T T T d3 со значениями 0,K,0, 0,K,0,1,K,1;

1 3 12 1 2 3 T T T и три комбинированных переменных d1x, d2x и d3x, построенных на основании указанных дамми-переменных и переменной x, принимающей значения x11, x12,K, x1T, x21, x22,K, x2T, x31, x32,K, x3T, так что d1x, d2x и d3x принимают значения d1x : x11, x12,K, x1 0,0,K,0, 0,0,K,1 14243, 1 4 4T T T T d2x : 0,0,K,0, x21, x22,K x3, 0,0,K,1 3 1 424 14424,4T T T T d3x : 0,0,K,0,0,0,K,0, x31, x32,K x3.

1 3 1 424 1424,4T T T T 236 Глава Если случайные ошибки в разных уравнениях статистически независимы, то мы можем получить эффективные оценки коэффициентов, применяя OLS-оценивание, и проверить интересующую нас гипотезу H0 : 1 = 2 = 3 с использованием обычного F-критерия. При этом получаются следующие результаты:

Variable Coefficient Std. Error t-Statistic Prob.

D1 -2.468913 1.388033 -1.778714 0.D2 -1.384797 2.233064 -0.620133 0.D3 0.455479 1.137109 0.400559 0.D1*X 1.167170 0.082467 14.15324 0.D2*X 1.014542 0.130535 7.772208 0.D3*X 1.076374 0.076508 14.06874 0.R-squared 0.Wald Test:

F-statistic 0.592788 Probability 0.Таким образом, гипотеза H0 : 1 = 2 = 3 не отвергается и в предположении независимости ошибок.

Мы будем говорить о модели M0 : yit = i + i xit + uit, i = 1,K, N, t = 1,K,T, как о Умодели без ограниченийФ. Обозначим остаточную сумму квадратов (RSS) в этой модели как S0, N T S0 = (yit -i - i xit ).

i =1 t =В рамках модели без ограничений рассмотрим две гипотезы:

H : i одинаковы для всех i, H : i и i одинаковы для всех i.

Гипотеза H : i одинаковы для всех i. Этой гипотезе соответствует модель Панельные данные M1 : yit = i + xit + uit, i =1,K, N, t =1,K,T.

Остаточную сумму квадратов (RSS) в модели М1 обозначим через S1, N T i S1 = (yit - - xit ).

i =1 t =Модель M1 можно записать в виде N yit = dij + xit + uit, i j=где dij = 1, если j = i, и dij = 0 в противном случае, так что мы имеем здесь в правой части N дамми-переменных. Обозначим:

T y = (y11, y12,K, y1T, y21, y22,K, y2T,K, yN1, yN 2,K, yNT ), T x = (x11, x12,K, x1T, x21, x22,K, x2T,K, xN1, xN 2,K, xNT ), T u = (u11,u12,K,u1T, u21,u22,K,u2T,K,uN1,uN 2,K,uNT ), T 1,1,K,1, 0,0,K,0, d1 = 1 4 1 423 T NT -T T 0,, 1,1,K,1, 0,0,K,0, d2 = 10,K3, 1 4 1 4240 423 T T NT -2T K T dN = 0,,,1, 10,K3,4240 1,K, NT -T T и пусть X = [d1 d2 KdN x ] - матрица размера NT (N +1), столбцами которых являются векторы d1,d2,K, dN, x. В этих обозначениях модель M1 принимает вид y = X + u, где 238 Глава T = (1,2,K,N, ).

Соответственно, оценка наименьших квадратов T =(1,,K,, ) для вектора вычисляется по формуле N -T T = (X X) X y.

Будем предполагать далее, что uit ~ i.i.d. N(0,u ), i =1,K, N, t =1,K,T, и что E(xitu )= 0 для любых i, j =1,K, N, t,s = 1,K,T, js так что x является экзогенной переменной.

При этих предположениях и при фиксированной матрице X оценка имеет (N +1)-мерное нормальное распределение, причем E()=, т.е. является несмещенной оценкой для, а ковариационная матрица случайного вектора имеет вид -2 T Cov()= (X X).

u Интересно, что численно те же самые значения оценок параметров 1,2,K,N, можно получить иным способом.

Именно, пусть T T T 1 1 yi = yit, xi = xit, ui = uit T T T t=1 t=1 t= - средние по времени значения переменных y, x и ошибки для i -го субъекта исследования. Усредняя по времени обе части уравнений yit = i + xit + uit, получаем yi = i + xi + ui, i =1,K, N.

Из двух последних уравнений находим:

yit - yi = (xit - xi)+ (uit - ui), i = 1,K, N, t = 1,K,T Панельные данные (Умодель, скорректированная на индивидуальные средниеФ).

Pages:     | 1 |   ...   | 17 | 18 | 19 | 20 | 21 |   ...   | 30 |    Книги по разным темам