Книги по разным темам Pages:     | 1 |   ...   | 16 | 17 | 18 | 19 | 20 |   ...   | 30 |

Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: homoskedastic Correlation: no autocorrelation Estimated covariances = 1 Number of obs = Estimated autocorrelations = 0 Number of groups = Estimated coefficients = 3 Time periods = Wald chi2(2)= 866.14, Prob > chi2 =0.Log likelihood = -1191.invest Coef. Std. Err. z

z mvalue.1155622.0057918 19.95 0.kstock.2306785.025284 9.12 0.cons -42.71437 9.440069 -4.52 0.Приведенный протокол оценивания показывает, что мы оцениваем модель пула, в которой отсутствуют гетероскедастичность и Панельные данные автокоррелированность ошибок. Для проверки гипотезы о незначимости регрессии в целом (т.е. гипотезы о нулевых значениях коэффициентов при объясняющих переменных mvalue и kstock) здесь используется критерий Вальда, основанный на статистике Wald = qF, где F - обычная F -статистика для проверки этой гипотезы, а q - количество линейных ограничений на параметры модели (в данном примере q = 2 ). Статистика критерия Вальда имеет асимптотическое распределение хи-квадрат с q степенями свободы. Вычисленный на основе этого асимптотического распределения наблюденный уровень значимости (P-значение), соответствующий наблюдаемому значению 866.14, равен Prob > chi2 =0.0000, так что гипотеза о нулевых значениях коэффициентов при объясняющих переменных mvalue и kstock отвергается. Во втором столбце таблицы приведены оценки коэффицентов, в третьем - оценки для стандартных ошибок этих оценок. В четвертом столбце приведены значения t-статистик для раздельной проверки гипотез о равенстве нулю отдельных коэффициентов, а в пятом столбце - соответствующие им P-значения, вычисляемые на основании нормального приближения распределения Стьюдента (отсюда обозначение Z вместо обычного t в заголовке четвертого столбца). Полученные P-значения говорят о высокой статистической значимости оценок коэффициентов.

В такой упрощенной модели, собственно, и не возникает никаких особенностей статистического анализа, связанных с панельным представлением данных. Положение, однако, изменится, T если предположить, что в той же модели yit = xit + uit ошибки uit, оставаясь статистически независимыми между собой, имеют разные дисперсии для разных субъектов: D(uit )= ui. В этом случае OLSоценки коэффициентов остаются несмещенными, но возникает смещение при оценивании дисперсий этих оценок, что отражается на оцененных значениях стандартных ошибок оценок, используемых при построении доверительных интервалов для 216 Глава коэффициентов и при проверке гипотез о значениях коэффициентов (например, при проверке их статистической значимости). Хотя и здесь особенность панельного характера данных отражается лишь в структуре весов: при применении взвешенного метода наименьших квадратов (WLS - weighted least squares) веса, приписываемые различным наблюдениям, не изменяются в пределах наблюдений одного субъекта.

П р и м е р (продолжение) Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: heteroskedastic Correlation: no autocorrelation Wald chi2(2) = 669.69, Prob > chi2 = 0.Log likelihood = -1037.invest Coef. Std. Err. z

z mvalue.1116328.0049823 22.41 0.kstock.1537718.0125707 12.23 0.cons -21.44348 3.901219 -5.50 0.Здесь протокол оценивания указывает на применение взвешенного метода наименьших квадратов (Panels: heteroscedastic).

По сравнению с предыдущим результатом, существенно снизилось значение оцененного коэффициента при переменной kstock и произошло двукратное уменьшение оцененной стандартной ошибки для этого коэффициента. Соответственно изменился и вычисленный 95% интервал для данного коэффициента: теперь это интервал (0.129, 0.178), тогда как ранее это был интервал (0.181, 0.280) Заметим, что как и в обычной модели регрессии, вместо применения взвешенного метода наименьших квадратов можно использовать оценки коэффициентов, полученные обычным методом наименьших квадратов (OLS), но при этом следует Панельные данные произвести коррекцию стандартных ошибок этих оценок.

Использование такого подхода в пакете Stata8 дает в рассматриваемом примере следующие результаты.

П р и м е р (продолжение). xtpcse invest mvalue kstock, hetonly casewise Linear regression, heteroskedastic panels corrected standard errors Estimated covariances = 10, R-squared = 0.Wald chi2(2) = 567.87, Prob > chi2 = 0.Het-corrected invest Coef. Std. Err. z

z mvalue.1155622.0070863 16.31 0.kstock.2306785.029747 7.75 0.cons -42.71437 7.131515 -5.99 0.Следующим шагом в усложнении модели может быть дополнительное предположение о наличии корреляционной связи между ошибками в уравнениях для разных субъектов в один и тот же момент времени (cross-sectional correlation):

0 для t s Cov(uit,u )=, для js ( 0) t = s ij так что матрица ковариаций = (ij) не является диагональной.

В этом случае приходится использовать обобщенный метод наименьших квадратов (GLS - generalized least squares), учитывающий это обстоятельство. Мы коснемся деталей несколько позже, при рассмотрении моделей Укажущихся несвязанными регрессийФ, а сейчас только посмотрим, что дает применение этого метода к анализируемым данным.

П р и м е р (продолжение) Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: heteroskedastic with cross-sectional correlation 218 Глава Correlation: no autocorrelation Estimated covariances = 55 Number of obs = Estimated autocorrelations = 0 Number of groups =Estimated coefficients = 3 Time periods = Wald chi2(2) =3738.07, Prob > chi2 = 0.Log likelihood = -879.invest Coef. Std. Err. z

z mvalue.1127515.0022364 50.42 0.kstock.2231176.0057363 38.90 0.cons -39.84382 1.717563 -23.20 0.Заметим, что в этом случае помимо собственно трех коэффициентов модели приходится оценивать еще и 10 дисперсий случайных ошибок в уравнениях для 10 предприятий, а также 45 ковариаций, i j. Если не накладывать никаких дополнительных ij ограничений на структуру матрицы ковариаций = (ij), то оценивание каждой ковариации (или дисперсии) производится на основании всего 20 наблюдений и потому может быть весьма неточным.

И здесь можно оставить OLS-оценки для коэффициентов, скорректировав оценки стандартных ошибок (correlated panels corrected standard errors). При этом получаем:

.xtpcse invest mvalue kstock, casewise Linear regression, correlated panels corrected standard errors (PCSEs) Estimated covariances = 55, R-squared = 0.Wald chi2(2) = 637.41, Prob > chi2 = 0.Panel-corrected invest Coef. Std. Err. z

z mvalue.1155622.0072124 16.02 0.kstock.2306785.0278862 8.27 0.cons -42.71437 6.780965 -6.30 0.Панельные данные Следующим шагом в усложнении модели является снятие предположения о взаимной независимости ошибок в пределах одного субъекта, например, путем предположения о том, что последовательность ошибок при наблюдении i -го субъекта следует процессу авторегрессии первого порядка AR(1) с нулевым средним.

T Поясним это на примере модели yit = xit + uit, в которой uit = i ui,t -1 + it, где i <1, а случайные величины i1,i2,K,iT являются гауссовскими инновациями, так что они взаимно независимы и имеют одинаковое распределение N(0,i) и, кроме того, it не зависит от значений ui,t -k, k 1. Коэффициент i можно оценить различными способами. Можно, например, оценить (методом T наименьших квадратов) модель yit = xit + uit без учета автокоррелированности ошибок, получить последовательность остатков i1, i2,K, iT, вычислить значение статистики Дарбина - Уотсона T - i,t-1) (it t =di = T it t =и, используя приближенное соотношение i 1- di 2, получить оценку i,DW 1 - di 2.

Можно поступить иначе: получив последовательность остатков i1, i2,K, iT, использовать оценку наименьших квадратов, получаемую при оценивании уравнения регрессии it = i i,t -1 +it.

Искомая оценка вычисляется по формуле:

220 Глава T i,t-it t= i =.

T it t= [В пакете Stata8 эта оценка обозначена как tscorr.] После получения оценок для i, i =1,K, N, в уравнениях для каждого субъекта производится известное преобразование Прайса - Уинстена переменных, призванное получить модель с независимыми ошибками. Объединяя преобразованные уравнения, получаем возможность произвести в ней OLS-оценивание коэффициентов.

Если предполагается, что уравнения имеют общий AR-параметр, т.е. 1 = 2 = L = N =, то это общее значение оценивается величиной = (1 + 2 +L+ ) N, так что преобразование N ПрайсаЦУинстена использует одну эту оценку.

П р и м е р (продолжение) Будем предполагать, что дисперсии ошибок для разных субъектов могут быть различными. Если при этом предполагается отсутствие перекрестной коррелированности ошибок между уравнениями и если ошибки в уравнениях для разных субъектов следуют одинаковым AR(1)-моделям (с общим ), то оценивание такой модели дает следующие результаты.

. xtpcse invest mvalue kstock, correlation(ar1) hetonly rhotype(dw) (note: estimates of rho outside [-1,1] bounded to be in the range [-1,1]) Prais-Winsten regression, heteroskedastic panels corrected standard errors Autocorrelation: common AR(1) Estimated covariances = 10 R-square = 0.Estimated autocorrelations = Estimated coefficients = Панельные данные Wald chi2(2) = 91.72, Prob > chi2 = 0.Het-corrected invest Coef. Std. Err. z

z mvalue.0972395.0126259 7.70 0.kstock.306441.0561245 5.46 0.cons -42.07116 21.02442 -2.00 0.rho.Здесь использовалась оценка, вычисляемая через посредство статистики ДарбинаЦУотсона.

Если использовать второй вариант оценивания коэффициента, описанный выше, то это приводит к следующим результатам.

. xtpcse invest mvalue kstock, correlation(ar1) hetonly rhotype(tscorr) casewise Prais-Winsten regression, heteroskedastic panels corrected standard errors Autocorrelation: common AR(1) Estimated covariances = 10 R-squared = 0.Estimated autocorrelations = Estimated coefficients = Wald chi2(2) = 192.41, Prob > chi2 = 0.Het-corrected invest Coef. Std. Err. z

z mvalue.1032102.0112252 9.19 0.kstock.2947986.0459298 6.42 0.cons -45.78767 13.97367 -3.28 0.rho.Оцененное значение существенно изменилось.

Если допускается перекрестная коррелированность ошибок между уравнениями и ошибки в уравнениях для разных субъектов следуют одинаковым AR(1)-моделям (с общим ), то оценивание такой модели (по DW-варианту) дает следующие результаты.

222 Глава. xtpcse invest mvalue kstock, correlation(ar1) rhotype(dw) (note: estimates of rho outside [-1,1] bounded to be in the range [-1,1]) Prais-Winsten regression, heteroskedastic panels corrected standard errors Panels: heteroskedastic (balanced) Estimated covariances = 55, R-squared = 0.Estimated autocorrelations = Estimated coefficients = Wald chi2(2) = 120.05, Prob > chi2 = 0.Panel-corrected Coef. Std. Err. z

z mvalue.0972395.0124362 7.82 0.kstock.306441.054533 5.62 0.cons -42.07116 24.09387 -1.75 0. rho.И опять использование второго варианта оценивания коэффициента приводит к несколько отличным результатам:.

xtpcse invest mvalue kstock, correlation(ar1) rhotype(tscorr) casewise Prais-Winsten regression, correlated panels corrected standard errors (PCSEs) Panels: correlated (balanced Estimated covariances = 55, R-squared = 0.Estimated autocorrelations = Estimated coefficients = Wald chi2(2)= 215.52, Prob > chi2 = 0.Panel-corrected Coef. Std. Err. z

z mvalue.1032102.0108656 9.50 0.kstock.2947986.0432809 6.81 0.cons -45.78767 15.24513 -3.00 0.rho.Панельные данные Посмотрим, что дает оценивание модели с перекрестной коррелированностью ошибок между уравнениями, когда ошибки в уравнениях для разных субъектов могут следовать разным AR(1)моделям (с разными i ). При оценивании такой модели (по DWварианту) получаем:

. xtpcse invest mvalue kstock, correlation(psar1) rhotype(dw) casewise Prais-Winsten regression, correlated panels corrected standard errors (PCSEs) Panels: correlated (balanced) Autocorrelation: panel-specific AR(1) Estimated covariances = 55, R-squared = 0.Estimated autocorrelations = 10, Estimated coefficients = 3, Wald chi2(2) = 211.38, Prob > chi2 = 0.Panel-corrected Coef. Std. Err. z

z mvalue.1013946.0108632 9.33 0.kstock.3449446.0478113 7.21 0.cons -41.18685 19.33078 -2.13 0.rhos =.7427231.8831453.9741851.7277056.9564705...

.А при оценивании по второму варианту Ц.xtpcse invest mvalue kstock, correlation(psar1) rhotype(tscorr) casewise Prais-Winsten regression, correlated panels corrected standard errors (PCSEs) Panels: correlated (balanced) Autocorrelation: panel-specific AR(1) Estimated covariances = 55, R-squared = 0.Estimated autocorrelations =Estimated coefficients = Wald chi2(2) = 444.53, Prob > chi2 = 0.Panel-corrected 224 Глава Coef. Std. Err. z

z mvalue.1052613.0086018 12.24 0.kstock.3386743.0367568 9.21 0.cons -58.18714 12.63687 -4.60 0.rhos =.5135627.87017.9023497.63368.8571502....Заметим, что и здесь приходится оценивать значительное количество дисперсий, ковариаций и автокорреляций, используя всего 20 наблюдений, растянутых во времени.

Для удобства объединим полученные результаты в одну таблицу, дополнительно указав в последнем столбце 95% доверительные интервалы для коэффициентов.

invest Coef. Std.Err. z

z 95% Conf. Int.

Независимые одинаково распределенные ошибки mvalue.116.0058 19.95 0.00.104.kstock.231.0253 9.12 0.00.181.Гетероскедастичность - WLS mvalue.112.0050 22.41 0.00.102.kstock.154.0126 12.23 0.00.129.SUR - GLS mvalue.113.0022 50.42 0.00.108.kstock.223.0057 38.90 0.00.212.AR(1) - common rho (Durbin - Watson) : est rho =.mvalue.097.0126 7.70 0.00.072.kstock.306.0561 5.46 0.00.196.AR(1) - common rho (OLS) : est rho =.mvalue.103.0112 9.19 0.00.081.kstock.295.0460 6.42 0.00.205.SUR&AR(1) - common rho (DЦW) : est rho =.mvalue.097.0124 7.82 0.00.073.kstock.306.0545 5.62 0.00.200.SUR&AR(1) - common rho (OLS) : est rho =.mvalue.103.0109 9.50 0.00.082.Панельные данные kstock.295.0433 6.81 0.00.210.SUR&AR(1) - different rho (DЦW) mvalue.101.0109 9.33 0.kstock.345.0478 7.21 0.rhos =.7427231.8831453.9741851.7277056....SUR&AR(1) - different rho (TSCORR) mvalue.105.0086 12.24 0.kstock.339.0368 9.21 0.rhos =.5135627.87017.9023497.63368....Здесь SUR&AR(1) означает наличие корреляции между ошибками в разных уравнениях в совпадающие моменты времени и AR(1)-модель для ошибок в пределах каждого предприятия.

Обратимся теперь к модели ковариационного анализа M0 : yit = i + i xit + uit, i = 1,K, N, t = 1,K,T ;

Pages:     | 1 |   ...   | 16 | 17 | 18 | 19 | 20 |   ...   | 30 |    Книги по разным темам