Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы
Якобиан преобразования плотности распределения в функции правдоподобия
Преобразование зависимой переменной. Модель Бокса-Кокса
Подобный материал:
1   ...   14   15   16   17   18   19   20   21   22

Якобиан преобразования плотности распределения в функции правдоподобия

Функция правдоподобия модели типа e = f (Y,q 1)


Рассмотрим модель по отношению к которой регрессия является частным случаем:

e = f (Y,q 1).

Здесь Y — зависимая переменная, e — ошибка, причем Y и e — вектора-столбцы одинаковой размерности. “Независимые переменные” (рег­рес­со­ры) X неявно содержатся в функции f (.). q 1 — неизвестные параметры. Обозначаем их q 1, а не q , потому что распределение ошибок e само может зависеть от вектора неизвестных параметров (q 2), так что

q  = .

В частном случае линейной регрессии

f (Y,q 1) = Y Xb, q 1 = b, q 2 = s 2.

Как правило, при построении эконометрической модели делают предположение о распределении ошибки, а уже из распределения ошибки выводят распределение зависимой переменной. Таким образом, задача состоит в том, чтобы из плотности распределения e получить плотность распределения Y (если мы имеем дело с непрерывным распределением).

Плотности распределения связаны между собой соотношением:

pY(Y,q ) = pe( f (Y,q 1),q 2) abs |J(q 1)|,

где J(q 1) — матрица Якоби (якобиан), соответствующий преобразованию Y в e :

J(q 1) = = {}il

— матрица первых производных f  по Y. В выражении для плотности здесь стоит модуль определителя якобиана.

Функция правдоподобия — это по определению плотность распределения Y. Таким образом, логарифмическая функция правдоподобия равна

 = ln pe( f (Y,q 1),q 2) + ln abs |J(q 1)|.

Будем второе слагаемое здесь называть якобианным членом. Якобианный член уже присутствовал в логарифмических функциях правдоподобия, которые мы рассматривали выше (см. напр. регрессии с автокоррелированными ошибками). В модели с AR(1)-ошибкой e i = r e i–1 + x i, где e i = Yi Xi b. Выразим x через Y:

fi(Y,q 1) = x i = (Yi X i b) – r (Yi–1 Xi–1 b), i =1,...,N.

f1(Y,q 1) = (Y1 X1b).

Здесь q 1 = . f1(Y,q 1) определена таким образом, чтобы все элементы f имели одинаковую дисперсию. Для этой модели

J(q 1) = = , abs |J(q 1)| = .

Преобразование зависимой переменной. Модель Бокса-Кокса


В частном случае рассмотренной модели q 1 состоит из b и d и

fi (Yi,q 1) = hi(Yi,d) – Xi(d)b.

Модель является квазирегрессионной. Здесь X(d) — матрица “рег­рес­со­ров”, b — вектор регрессионных коэффициентов. Якобиан J = = зависит только от параметров d и является диагональной матрицей.

Такая модель возникает из регрессии, если применить к зависимой переменной преобразование, зависящее от оцениваемых параметров.

Пусть ошибки нормально распределены e i~N(0,s 2) и некоррелированы.

pe(z) = (2ps 2) exp(–  zTz).

Логарифмическая функция правдоподобия для такой модели:

 = ln pe( f (Y,q 1),q 2) + ln abs |J(q 1)| =

= – ln(2ps 2) –   f Tf  + ln abs |  | =

= – ln(2ps 2) –   (h(Y,d) – X(d)b)2 + ln abs (  ).

Самое популярное преобразование зависимой переменной — это преобразование Бокса-Кокса:

h(Yi,d) = .

В общем случае его можно применять при положительных Yi.

Если d ® 0, то ® lnYi, поэтому берут h(Y,0) = lnY.

Таким образом, имеем следующую простейшую модель Бокса-Кокса3:

 = Xi b +e i .

Здесь регрессоры X детерминированы и не зависят от неизвестных параметров.

Якобиан равен

J = .

Функция правдоподобия для модели Бокса-Кокса равна

 = – ln(2ps 2) –   ( – X b )2 – (1  d )  lnYi.

Концентрируя функцию правдоподобия по s 2, получим

 = – ln(2p ) – – (1  d )  lnYi.

Обозначим среднее геометрическое Yi:

= (iYi).

Тогда  = – ln(RSS) – N (1  d ) ln  + const.

Максимизация  эквивалентна минимизации следующей суммы квадратов:

( ( – X b)).

Можно предложить два метода оценивания.

Первый метод заключается в одномерной минимизации по d, поскольку при фиксированном d задача сводится к ОМНК. Строим регрессию (Y – 1)/d  по X.

Второй метод заключается в использовании нелинейного МНК, в котором зависимой переменной является вектор, состоящий из нулей, а в правой части стоит ((Y – 1)/d X b ).

В обоих случаях мы найдем МП-оценки, но не найдем состоятельную оценку матрицы ковариаций оценок (ко­ва­ри­аци­он­ные матрицы из этих вспомогательных регрессий не годятся).