Книги по разным темам Pages:     | 1 |   ...   | 14 | 15 | 16 | 17 | 18 |   ...   | 30 |

Ей соответствует оцененная корреляционная матрица 1 0. 0.600370 1, указывающая на наличие заметной корреляции между ошибками в разных уравнениях. Это означает, что потенциально имеется возможность повысить эффективность оценивания, учитывая такую коррелированность и применяя трехшаговый метод наименьших квадратов или метод максимального правдоподобия с полной информацией.

При применении 3SLS получаем:

System: FRU Estimation Method: Iterative Three-Stage Least Squares Convergence achieved after: 2 weight matricies, 3 total coef iterations Coefficient Std. Error t-Statistic Prob.

C(1) -0.361831 0.077466 -4.670812 0.C(2) 18.16639 9.259287 1.961964 0.C(3) 1.279190 0.119551 10.69998 0.C(4) 0.592909 0.150576 3.937596 0.C(5) 89.91484 13.79846 6.516294 0.C(6) -1.159822 0.130071 -8.916811 0.C(7) 0.550297 0.056107 9.808057 0.Determinant residual covariance 486.Инструментальные переменные. СистемыЕ Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.781184 Mean dependent var 111.Adjusted R-squared 0.764975 S.D. dependent var 9.S.E. of regression 4.788722 Sum squared resid 619.Durbin-Watson stat 2.Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.849356 Mean dependent var 101.Adjusted R-squared 0.831974 S.D. dependent var 15.S.E. of regression 6.469047 Sum squared resid 1088.Durbin-Watson stat 2.Сравним оцененные коэффициенты и оцененные стандартные ошибки оценок коэффициентов, полученные двумя методами:

Coefficients Std. Errors 2SLS 3SLS 2SLS 3SLS C(1) -0.361831 -0.361831 0.081657 0.C(2) 18.16639 18.16639 9.760145 9.C(3) 1.279190 1.279190 0.126018 0.C(4) 0.563994 0.592909 0.175307 0.C(5) 88.78386 89.91484 15.06578 13.C(6) -1.128017 -1.159822 0.158217 0.C(7) 0.561206 0.550297 0.065442 0.Оцененные значения коэффициентов практически не изменились.

При этом произошло некоторое уменьшение всех оцененных стандартных ошибок коэффициентов.

192 Глава Результаты применения метода FIML:

Coefficient Std. Error t-Statistic Prob.

C(1) -0.363540 0.097355 -3.734157 0.C(2) 18.18156 13.65099 1.331886 0.C(3) 1.280771 0.167147 7.662534 0.C(4) 0.593625 0.221715 2.677418 0.C(5) 89.82550 19.84547 4.526248 0.C(6) -1.159165 0.151139 -7.669539 0.C(7) 0.549823 0.065905 8.342675 0.Log Likelihood -172.Determinant residual covariance 486.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.780336 Mean dependent var 111.Adjusted R-squared 0.764065 S.D. dependent var 9.S.E. of regression 4.797990 Sum squared resid 621.Durbin-Watson stat 2.Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.849367 Mean dependent var 101.Adjusted R-squared 0.831986 S.D. dependent var 15.S.E. of regression 6.468814 Sum squared resid 1087.Durbin-Watson stat 2.Оцененные значения коэффициентов незначительно отличаются от полученных ранее.

В связи с рассматриваемым примером обратим внимание на следующее обстоятельство. Попробуем оценить уравнения структурной формы обычным методом наименьших квадратов, игнорируя наличие в правых частях этих уравнений эндогенных переменных. Это приводит к следующим результатам:

Инструментальные переменные. СистемыЕ System: SYS_FULL_OLS Estimation Method: Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -0.213716 0.063693 -3.355431 0.C(2) 18.15974 8.908678 2.038432 0.C(3) 1.130662 0.108276 10.44241 0.C(4) 0.614038 0.159561 3.848293 0.C(5) 86.61460 14.71164 5.887487 0.C(6) -1.154140 0.153404 -7.523517 0.C(7) 0.553841 0.064458 8.592225 0.Determinant residual covariance 517.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.817697 Mean dependent var 111.Adjusted R-squared 0.804193 S.D. dependent var 9.S.E. of regression 4.370958 Sum squared resid 515.Durbin-Watson stat 2.Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.849675 Mean dependent var 101.Adjusted R-squared 0.832330 S.D. dependent var 15.S.E. of regression 6.462188 Sum squared resid 1085.Durbin-Watson stat 2.Сравним оценки коэффициентов, полученные при применении системного метода оценивания FIML и несистемного OLS:

Coefficient FIML OLS -0.363540 -0.18.18156 18.1.280771 1.0.593625 0.89.82550 86.-1.159165 -1.0.549823 0.194 Глава За исключением коэффициента при переменной yt 2 в первом уравнении, оценки всех остальных коэффициентов структурных уравнений, полученные двумя методами, довольно близки друг к другу. И это характерно для ситуаций, в которых при оценивании уравнений приведенной формы получаются высокие значения коэффициентов детерминации. В нашем примере это значения 0.902361 для первого уравнения и 0.824120 для второго уравнения приведенной формы.

Рассмотрим теперь, что получится, если во второе уравнение не включена одна из переменных xt3, xt 4. (Система остается при этом идентифицируемой.) При этом будем ориентироваться на результаты применения 3SLS. Сначала исключим переменную xt 4 - издержки производства. Это приводит к следующему результату:

System: SYS_EXACT_2_Estimation Method: Iterative Three-Stage Least Squares Convergence achieved after: 1 weight matrix, 2 total coef iterations Coefficient Std. Error t-Statistic Prob.

C(1) -0.393021 0.106679 -3.684137 0.C(2) 18.16779 9.612186 1.890079 0.C(3) 1.310468 0.142630 9.187882 0.C(4) 1.603271 0.324620 4.938909 0.C(5) 68.85896 29.34434 2.346584 0.C(6) -1.469719 0.308619 -4.762247 0.Determinant residual covariance 3322.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.764186 Mean dependent var 111.Adjusted R-squared 0.746719 S.D. dependent var 9.S.E. of regression 4.971235 Sum squared resid 667.Durbin-Watson stat 1.Инструментальные переменные. СистемыЕ Equation: Y2=C(4)*Y1+C(5)+C(6)*XObservations: R-squared 0.360021 Mean dependent var 101.Adjusted R-squared 0.312615 S.D. dependent var 15.S.E. of regression 13.08436 Sum squared resid 4622.Durbin-Watson stat 1.Сравним коэффициенты, полученные при исключении xt 4 из второго уравнения, с коэффициентами, полученными 3SLS без исключения этой переменной из второго уравнения:

X4 excluded X4 included C(1) -0.393021 -0.C(2) 18.16779 18.C(3) 1.310468 1.C(4) 1.603271 0.C(5) 68.85896 89.C(6) -1.469719 -1.Произошло более чем двукратное возрастание коэффициента при переменной yt1 во втором уравнении. Обозревая таблицу результатов, можно заметить довольно низкое значение статистики ДарбинаЦУотсона для второго уравнения, что может указывать на пропуск существенной объясняющей переменной в этом уравнении.

Отметим также на довольно большое значение оцененной стандартной ошибки случайной составляющей во втором уравнении - 13.08436 против 4.971235, что, конечно, вполне возможно, но также может указывать на пропуск объясняющей переменной во втором уравнении.

Если вместо переменной xt 4 исключить из второго уравнения переменную xt3 - погодный фактор, то это приводит к следующему результату:

196 Глава System: SYS_EXACT_2_Estimation Method: Three-Stage Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -0.318323 0.116740 -2.726758 0.C(2) 18.16444 8.863637 2.049321 0.C(3) 1.235561 0.145848 8.471570 0.C(4) 0.274776 0.265732 1.034037 0.C(5) 16.26065 26.12243 0.622478 0.C(7) 0.499415 0.113699 4.392423 0.Determinant residual covariance 2157.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.799484 Mean dependent var 111.Adjusted R-squared 0.784631 S.D. dependent var 9.S.E. of regression 4.584099 Sum squared resid 567.Durbin-Watson stat 2.Equation: Y2=C(4)*Y1+C(5)+C(7)*XObservations: R-squared 0.490954 Mean dependent var 101.Adjusted R-squared 0.453247 S.D. dependent var 15.S.E. of regression 11.66938 Sum squared resid 3676.Durbin-Watson stat 1.Сравним коэффициенты, полученные при исключении xt3 из второго уравнения с коэффициентами, полученными 3SLS без исключения этой переменной из второго уравнения:

X3 excluded X3 included C(1) -0.318323 -0.C(2) 18.16444 18.C(3) 1.235561 1.C(4) 0.274776 0.C(5) 16.26065 89.C(6) -1.C(7) 0.499415 0.Инструментальные переменные. СистемыЕ На этот раз произошло более чем двукратное уменьшение коэффициента при переменной yt1 во втором уравнении. Опять наблюдается довольно большое значение оцененной стандартной ошибки случайной составляющей во втором уравнении - 11.против 4.584099 в первом уравнении, что может указывать на пропуск объясняющей переменной во втором уравнении. Заметим, что при включении в правую часть второго уравнения обеих переменных xt3, xt 4 такого большого различия оцененных стандартных ошибок случайных составляющих не наблюдается: в первом уравнении оцененное значение равно 4.788722, а во втором 6.469047; при этом вполне удовлетворительными выглядят и значения статистик ДарбинаЦУотсона: 2.036078 в первом и 2.во втором уравнениях.

П р и м е р Чтобы составить некоторое представление о возможности более или менее точного восстановления параметров структурной формы, сгенерируем 30 новых УнаблюденийФ, используя процесс порождения данных в виде:

yt1 = -0.5yt 2 + 80 + 0.7xt 2 + ut1, y = 0.75yt1 +10 -1.5xt3 +1.5xt + ut, t 2 4 где переменные имеют ту же интерпретацию и значения переменных xt 2, xt3 и xt 4 те же, что и в предыдущем примере, а случайные составляющие ut1 и ut 2 не коррелированы во времени, имеют нулевые ожидания, одинаковые дисперсии D(ut1)= D(ut 2)= 36 и Corr(ut1,ut 2)= 0.7. Полученные УданныеФ приведены в таблице:

Y1 Y2 X2 X3 X88.1 152.4 97.6 99.1 142.87.1 114.6 98.2 98.9 123.101.1 74.1 99.8 110.8 111.98.6 99.2 100.5 108.2 121.109.4 74.0 96.6 108.7 92.198 Глава 105.2 72.4 88.9 100.6 97.100.6 69.2 84.6 70.9 64.121.7 51.3 96.4 110.5 78.96.0 109.7 104.4 92.5 109.90.3 135.5 110.7 89.3 128.105.7 100.2 99.1 90.3 95.91.3 144.5 105.6 95.2 130.95.5 126.1 116.8 98.6 125.101.0 90.6 105.3 105.7 109.110.2 66.7 85.6 107.8 88.87.1 104.0 84.8 80.4 96.97.4 85.3 89.8 90.7 90.99.8 102.6 93.2 88.9 101.99.9 110.8 105.9 96.9 110.102.8 114.8 110.8 101.9 117.99.8 131.2 115.3 104.9 134.95.8 141.2 120.6 103.6 140.123.4 62.6 105.7 106.2 78.110.4 73.2 103.5 100.8 94.98.7 121.1 110.6 110.5 135.88.2 134.5 109.3 86.7 126.110.0 91.8 99.5 93.8 90.88.3 115.1 105.9 99.9 134.93.6 114.5 102.7 104 123.103.5 76.9 96.8 108.4 104.Оценим по сгенерированным данным уравнения структурной формы обычным методом наименьших квадратов, игнорируя наличие в правых частях этих уравнений эндогенных переменных.

Это приводит к следующим результатам:

System: SYS_FULL_OLS Estimation Method: Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -0.363218 0.041816 -8.686139 0.C(2) 88.69833 10.49401 8.452281 0.C(3) 0.476608 0.122697 3.884420 0.C(4) 1.019773 0.297976 3.422330 0.C(5) -11.07961 28.30156 -0.391484 0.Инструментальные переменные. СистемыЕ C(6) -1.752307 0.214654 -8.163409 0.C(7) 1.672787 0.127403 13.12991 0.Determinant residual covariance 576.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.743523 Mean dependent var 100.Adjusted R-squared 0.724524 S.D. dependent var 9.S.E. of regression 4.899311 Sum squared resid 648.Durbin-Watson stat 2.Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.950061 Mean dependent var 102.Adjusted R-squared 0.944299 S.D. dependent var 27.S.E. of regression 6.428860 Sum squared resid 1074.Durbin-Watson stat 2.Применим двухшаговый метод наименьших квадратов.

Результаты применения этого метода:

System: SYS_FULL_OLS Estimation Method: Two-Stage Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -0.424633 0.045795 -9.272577 0.C(2) 83.95884 10.96205 7.659048 0.C(3) 0.585040 0.130033 4.499177 0.C(4) 0.901844 0.420366 2.145379 0.C(5) -1.113488 37.81363 -0.029447 0.C(6) -1.684157 0.274838 -6.127827 0.C(7) 1.628247 0.169687 9.595614 0.Determinant residual covariance 522.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.723032 Mean dependent var 100.Adjusted R-squared 0.702516 S.D. dependent var 9.S.E. of regression 5.091263 Sum squared resid 699.Durbin-Watson stat 1.200 Глава Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.949761 Mean dependent var 102.Adjusted R-squared 0.943964 S.D. dependent var 27.S.E. of regression 6.448196 Sum squared resid 1081.Durbin-Watson stat 2.При применении 3SLS получаем:

Coefficient Std. Error t-Statistic Prob.

C(1) -0.424633 0.043445 -9.774155 0.C(2) 83.95884 10.39951 8.073345 0.C(3) 0.585040 0.123360 4.742549 0.C(4) 0.889189 0.369342 2.407495 0.C(5) -0.653169 34.88671 -0.018723 0.C(6) -1.671481 0.220626 -7.576096 0.C(7) 1.624186 0.152419 10.65606 0.Determinant residual covariance 518.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.723032 Mean dependent var 100.Adjusted R-squared 0.702516 S.D. dependent var 9.S.E. of regression 5.091263 Sum squared resid 699.Durbin-Watson stat 1.Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*XObservations: R-squared 0.949688 Mean dependent var 102.Adjusted R-squared 0.943883 S.D. dependent var 27.S.E. of regression 6.452837 Sum squared resid 1082.Durbin-Watson stat 2.Инструментальные переменные. СистемыЕ Сравним оцененные этими методами коэффициенты:

Coefficient OLS 2SLS 3SLS True Первое уравнение C(1) -0.363218 -0.424633 -0.424633 -0.C(2) 88.69833 83.95884 83.95884 80.C(3) 0.476608 0.585040 0.585040 0.Второе уравнение C(4) 1.019773 0.901844 0.889189 0.C(5) -11.07961 -1.113488 -0.653169 10.C(6) -1.752307 -1.684157 -1.671481 -1.C(7) 1.672787 1.628247 1.624186 1.Приведем для иллюстрации результаты применения двухступенчатой процедуры GodfreyЦHutton к рассмотренной системе уравнений:

yt1 = 11yt 2 + 11xt1 + 21xt 2 + ut1, y = 12 yt1 + 12xt1 + 22xt3 + 32xt + ut, t 2 4 используя данные, приведенные в Примере 2. В качестве инструментальных переменных используются x1 = 1, x2, x3, x4.

Мы уже произвели выше оценивание обоих уравнений двухшаговым методом наименьших квадратов. Полученные при этом 2SLS-остатки обозначим, соответственно, t2SLS, t22SLS.

Оценим уравнение регрессии t2SLS на x1 = 1, x2, x3, x4. Полученное значение коэффициента детерминации равно 0.000319, так что J = nR2 = 0.00957. Число степеней свободы равно 4 - 3 =1.

Поскольку P-значение равно 0.922, гипотеза пригодности использованных инструментов не отвергается. (Если оценить уравнение регрессии t22SLS на x1 = 1, x2, x3, x4, то в этом случае J = 0, число степеней свободы равно 4 - 4 = 0, и J -критерий неприменим.) 202 Глава Поскольку гипотеза пригодности инструментов не отвергнута, перейдем ко второму этапу и используем на этом этапе критерий Дарбина-Ву-Хаусмана.

Сначала оцениваем уравнение yt 2 = 12 + xt 2 + 32xt3 + xt 4 + wt 22 и получаем ряд остатков t 2 = yt 2 - t 2. Затем оцениваем расширенное первое уравнение yt1 = 11 yt 2 + 11xt1 + 21xt 2 + t 2 + tи проверяем гипотезу H0 : = 0. Поскольку здесь - скалярная величина, то для проверки этой гипотезы можно использовать t критерий. Результаты оценивания расширенной модели:

Pages:     | 1 |   ...   | 14 | 15 | 16 | 17 | 18 |   ...   | 30 |    Книги по разным темам