Пособие состоит из двух самостоятельных разделов
Вид материала | Документы |
Якобиан преобразования плотности распределения в функции правдоподобия Преобразование зависимой переменной. Модель Бокса-Кокса |
- Пособие состоит из двух самостоятельных разделов, 1495.22kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 49.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 81.96kb.
- Курсовая работа по дисциплине Экономика предприятия состоит из двух разделов: теоретической, 153.63kb.
- Аннотации дисциплин, 456.29kb.
- Виктор Сергеевич Стародубцев учебное пособие, 718.78kb.
- Природоохранное и природоресурсное закон, 1307.64kb.
- -, 9049.93kb.
- Методические рекомендации по выполнению самостоятельной работы студентов по дисциплине, 54.29kb.
- Программа состоит из двух разделов: Примерная программа родительского всеобуча «Семейная, 451.17kb.
Якобиан преобразования плотности распределения в функции правдоподобия
Функция правдоподобия модели типа e = f (Y,q 1)
Рассмотрим модель по отношению к которой регрессия является частным случаем:
e = f (Y,q 1).
Здесь Y — зависимая переменная, e — ошибка, причем Y и e — вектора-столбцы одинаковой размерности. “Независимые переменные” (регрессоры) X неявно содержатся в функции f (.). q 1 — неизвестные параметры. Обозначаем их q 1, а не q , потому что распределение ошибок e само может зависеть от вектора неизвестных параметров (q 2), так что
q = .
В частном случае линейной регрессии
f (Y,q 1) = Y – Xb, q 1 = b, q 2 = s 2.
Как правило, при построении эконометрической модели делают предположение о распределении ошибки, а уже из распределения ошибки выводят распределение зависимой переменной. Таким образом, задача состоит в том, чтобы из плотности распределения e получить плотность распределения Y (если мы имеем дело с непрерывным распределением).
Плотности распределения связаны между собой соотношением:
pY(Y,q ) = pe( f (Y,q 1),q 2) abs |J(q 1)|,
где J(q 1) — матрица Якоби (якобиан), соответствующий преобразованию Y в e :
J(q 1) = = {}il
— матрица первых производных f по Y. В выражении для плотности здесь стоит модуль определителя якобиана.
Функция правдоподобия — это по определению плотность распределения Y. Таким образом, логарифмическая функция правдоподобия равна
= ln pe( f (Y,q 1),q 2) + ln abs |J(q 1)|.
Будем второе слагаемое здесь называть якобианным членом. Якобианный член уже присутствовал в логарифмических функциях правдоподобия, которые мы рассматривали выше (см. напр. регрессии с автокоррелированными ошибками). В модели с AR(1)-ошибкой e i = r e i–1 + x i, где e i = Yi – Xi b. Выразим x через Y:
fi(Y,q 1) = x i = (Yi – X i b) – r (Yi–1 – Xi–1 b), i =1,...,N.
f1(Y,q 1) = (Y1 – X1b).
Здесь q 1 = . f1(Y,q 1) определена таким образом, чтобы все элементы f имели одинаковую дисперсию. Для этой модели
J(q 1) = = , abs |J(q 1)| = .
Преобразование зависимой переменной. Модель Бокса-Кокса
В частном случае рассмотренной модели q 1 состоит из b и d и
fi (Yi,q 1) = hi(Yi,d) – Xi(d)b.
Модель является квазирегрессионной. Здесь X(d) — матрица “регрессоров”, b — вектор регрессионных коэффициентов. Якобиан J = = зависит только от параметров d и является диагональной матрицей.
Такая модель возникает из регрессии, если применить к зависимой переменной преобразование, зависящее от оцениваемых параметров.
Пусть ошибки нормально распределены e i~N(0,s 2) и некоррелированы.
pe(z) = (2ps 2) exp(– zTz).
Логарифмическая функция правдоподобия для такой модели:
= ln pe( f (Y,q 1),q 2) + ln abs |J(q 1)| =
= – ln(2ps 2) – f Tf + ln abs | | =
= – ln(2ps 2) – (h(Y,d) – X(d)b)2 + ln abs ( ).
Самое популярное преобразование зависимой переменной — это преобразование Бокса-Кокса:
h(Yi,d) = .
В общем случае его можно применять при положительных Yi.
Если d ® 0, то ® lnYi, поэтому берут h(Y,0) = lnY.
Таким образом, имеем следующую простейшую модель Бокса-Кокса3:
= Xi b +e i .
Здесь регрессоры X детерминированы и не зависят от неизвестных параметров.
Якобиан равен
J = .
Функция правдоподобия для модели Бокса-Кокса равна
= – ln(2ps 2) – ( – X b )2 – (1 – d ) lnYi.
Концентрируя функцию правдоподобия по s 2, получим
= – ln(2p ) – – (1 – d ) lnYi.
Обозначим среднее геометрическое Yi:
= (iYi).
Тогда = – ln(RSS) – N (1 – d ) ln + const.
Максимизация эквивалентна минимизации следующей суммы квадратов:
( ( – X b)).
Можно предложить два метода оценивания.
Первый метод заключается в одномерной минимизации по d, поскольку при фиксированном d задача сводится к ОМНК. Строим регрессию (Y – 1)/d по X.
Второй метод заключается в использовании нелинейного МНК, в котором зависимой переменной является вектор, состоящий из нулей, а в правой части стоит ((Y – 1)/d – X b ).
В обоих случаях мы найдем МП-оценки, но не найдем состоятельную оценку матрицы ковариаций оценок (ковариационные матрицы из этих вспомогательных регрессий не годятся).