Пособие состоит из двух самостоятельных разделов
Вид материала | Документы |
Внешне не связанные регрессионные уравнения |
- Пособие состоит из двух самостоятельных разделов, 1495.22kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 49.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 81.96kb.
- Курсовая работа по дисциплине Экономика предприятия состоит из двух разделов: теоретической, 153.63kb.
- Аннотации дисциплин, 456.29kb.
- Виктор Сергеевич Стародубцев учебное пособие, 718.78kb.
- Природоохранное и природоресурсное закон, 1307.64kb.
- -, 9049.93kb.
- Методические рекомендации по выполнению самостоятельной работы студентов по дисциплине, 54.29kb.
- Программа состоит из двух разделов: Примерная программа родительского всеобуча «Семейная, 451.17kb.
Внешне не связанные регрессионные уравнения
Пусть есть k = 1,...,K регрессионных уравнений и соответствующие выборки одинаковой длины i = 1,...,N:
Yk = Xk bk + ek, k = 1,...,K.
Предполагается, что коэффициенты bk в разных уравнениях не связаны между собой какими-либо ограничениями, т.е. уравнения независимы с точки зрения коэффициентов, но существует связь с точки зрения ошибок наблюдений с одним и тем же номером i. Т.е. соответствующая корреляционная матрица не является диагональной, причем все элементы этой матрицы неизвестны. Ошибки, относящиеся к наблюдениям с разными номерами, считаются независимыми.
В экономике такое может быть если наблюдения относятся к одному и тому же периоду времени. В этом случае “одновременные” ошибки могут быть сильно коррелированы (как прибыль предприятий из-за экономического цикла). Еще один пример — регрессии, относящиеся к мужьям и женам.
Если обозначить
Y = X = b = e = ,
тогда модель можно переписать в более компактном виде:
Y= X b + e.
Пусть остатки k-й регрессии равны ek(bk) = Yk – Xk bk .
Составим матрицу E (b), столбцами которой являются ek:
Ek i = Yk i – Xk i bk i.
Строки матрицы E будем обозначать Ei.
Предположение модели об ошибках состоит в том, что “одновременные” ошибки коррелированы, а “разновременные” — нет. Таким образом,
E(eki eli) = wkl и E(eki els) = 0 (i ¹ s)
или, в матричной записи,
E (Ei(b 0) Ei(b 0)T) = W и E (Ei(b 0) Es(b 0)T) = 0 (i ¹ s).
Составим из ошибок вектор-столбец по другому:
= = ,
где ошибки, относящиеся к одному и тому же наблюдению i стоят рядом.
Ковариационная матрица этого вектора ошибок является блочно-диагональной и равна
= E ( T) = .
Обратная к ней тоже блочно-диагональная и равна
= .
Если использовать символ Кронекера, то можно записать ковариационную матрицу не переставляя наблюдения:
V = E(eTe) = WÄIK
(в этих обозначениях = IK Ä W), где IK — единичная матрица K´K. Аналогично
V = WÄIK.
Чтобы оценить модель, мы должны указать распределение ошибок. Предполагаем, как обычно, что ошибки имеют нормальное распределение.
b и W — неизвестные параметры модели.
Так же как и из ошибок, составим один вектор-столбец и из остатков:
e(b) = , (b) =
Логарифмическая функция правдоподобия равна
= – ln |V | – eTV e + const =
= – ln | | – T + const ® max
= – ln |W| – EiWEi T+ const =
= – ln |W| – Tr (E WE T) + const.
В максимуме правдоподобия производная по W равна нулю:
= W – E TE = 0.
Откуда получаем W(b) = E(b)TE(b).
При дифференцировании мы использовали правила
= AT и = CA.
Подставим W(b) в (.), чтобы получить концентрированную функцию правдоподобия:
= – ln |W(b)| – Tr (E W(b)E T) = – ln |W(b)| – Tr (E TE W(b)) =
= – ln |W(b)| – Tr (IK) = – ln |W(b)| – .
Задача ® max эквивалентна задаче
|W(b)| ® min или
|E(b)TE(b)|® min .
Выражение |E(b)TE(b)| получило название обобщенной дисперсии .
Найдем условия первого порядка максимума концентрированной функции правдоподобия.
ln|W(b)| = Tr (W(b) W(b)).
Здесь мы используем, что
= Tr( ),
где s(A) — скалярная функция от матрицы A, а также что
= (A)T.
W(b) = ( ETE) = ET = – ET(0,...,0,Xk j,0,...,0) =
= – (0,...,0, ETXk j,0,...,0).
Поэтому,
Tr (W(b) W(b)) = – W(b)ETXk j,
где W(b) — k-я строка матрицы W(b).
Отсюда
ln|W(b)| = – W(b)ETXk = – 2 (ETE)ETXk.
Получим условия первого порядка:
(E(b)TE(b))E(b)TXk = 0.
Эта система уравнений нелинейна относительно b. Один из возможных способов решения состоит в использовании последовательности вспомогательных регрессий. Он основан на том, что эти уравнения для оценок МП (хотя показать это технически сложно) эквивалентны уравнениям
k = (Xk*TXk*)Xk*TYk ,
где Xk* = (Xk, E()), E() — матрица остатков всех уравнений, кроме k-го. То есть в каждую регрессию надо добавить остатки из других регрессий.
Оценки вычисляются итеративно, начиная, например, с оценок ОМНК. Стандартные ошибки полученных в результате итераций уравнений надо скорректировать: вычислять не на основе суммы квадратов остатков из вспомогательной регрессии, а на основе суммы квадратов исходных остатков, т. е. ek()Tek() = (Yk –Xk )T(Yk –Xk ).
В частном случае, когда регрессоры во всех уравнениях одни и те же, оценки МП для коэффициентов b совпадут с оценками ОМНК. Различие будет только в оценке ковариационной матрицы ошибок W . Если в условии первого порядка
(E(b)TE(b))E(b)TXk = 0
взять Xk = X "k, то должно выполняться (E(b)TE(b))E(b)TX = 0, откуда следует, что E(b)TX = 0, то есть ek(b)TX = 0 — в каждом уравнении остатки ортогональны матрице регрессоров X. А это и есть условие минимума суммы квадратов в соответствующем уравнении.
Как и в любой модели обобщенного метода наименьших квадратов информационная матрица параметров b вычисляется по формуле
= X TV X,
т.е.
= X T(WÄIK) X.
Другой подход к вычислению оценок МП состоит в использовании итеративного обобщенного МНК.
W = E(b )TE(b ).
b = (X T((W)ÄIK)X ) X T((W)ÄIK)Y.
При использовании этого метода приходится иметь дело с матрицами большой размерности.