Пособие состоит из двух самостоятельных разделов
Вид материала | Документы |
СодержаниеЯкобиан преобразования плотности распределения в функции правдоподобия Преобразование зависимой переменной. Модель Бокса-Кокса |
- Пособие состоит из двух самостоятельных разделов, 1481.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 49.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 81.96kb.
- Курсовая работа по дисциплине Экономика предприятия состоит из двух разделов: теоретической, 153.63kb.
- Аннотации дисциплин, 456.29kb.
- Виктор Сергеевич Стародубцев учебное пособие, 718.78kb.
- Природоохранное и природоресурсное закон, 1307.64kb.
- -, 9049.93kb.
- Методические рекомендации по выполнению самостоятельной работы студентов по дисциплине, 54.29kb.
- Программа состоит из двух разделов: Примерная программа родительского всеобуча «Семейная, 451.17kb.
Якобиан преобразования плотности распределения в функции правдоподобия
Функция правдоподобия модели типа = f (Y, 1)
Рассмотрим модель по отношению к которой регрессия является частным случаем:
= f (Y, 1).
Здесь Y — зависимая переменная, — ошибка, причем Y и — вектора-столбцы одинаковой размерности. “Независимые переменные” (регрессоры) X неявно содержатся в функции f (.). 1 — неизвестные параметры. Обозначаем их 1, а не , потому что распределение ошибок само может зависеть от вектора неизвестных параметров ( 2), так что
= .
В частном случае линейной регрессии
f (Y, 1) Y – X, 1 , 2 2.
Как правило, при построении эконометрической модели делают предположение о распределении ошибки, а уже из распределения ошибки выводят распределение зависимой переменной. Таким образом, задача состоит в том, чтобы из плотности распределения получить плотность распределения Y (если мы имеем дело с непрерывным распределением).
Плотности распределения связаны между собой соотношением:
pY(Y, ) = p( f (Y, 1), 2) abs |J( 1)|,
где J( 1) — матрица Якоби (якобиан), соответствующий преобразованию Y в :
J( 1) = = {}il
— матрица первых производных f по Y. В выражении для плотности здесь стоит модуль определителя якобиана.
Функция правдоподобия — это по определению плотность распределения Y. Таким образом, логарифмическая функция правдоподобия равна
= ln p( f (Y, 1), 2) + ln abs |J( 1)|.
Будем второе слагаемое здесь называть якобианным членом. Якобианный член уже присутствовал в логарифмических функциях правдоподобия, которые мы рассматривали выше (см. напр. регрессии с автокоррелированными ошибками). В модели с AR(1)-ошибкой i = i–1 + i, где i = Yi – Xi . Выразим через Y:
fi(Y, 1) = i = (Yi – X i ) – (Yi–1 – Xi–1 ), i =1,...,N.
f1(Y, 1) = (Y1 – X1).
Здесь 1 . f1(Y, 1) определена таким образом, чтобы все элементы f имели одинаковую дисперсию. Для этой модели
J( 1) = = , abs |J( 1)| = .
Преобразование зависимой переменной. Модель Бокса-Кокса
В частном случае рассмотренной модели 1 состоит из и и
fi (Yi, 1) = hi(Yi,) – Xi().
Модель является квазирегрессионной. Здесь X() — матрица “регрессоров”, — вектор регрессионных коэффициентов. Якобиан J = = зависит только от параметров и является диагональной матрицей.
Такая модель возникает из регрессии, если применить к зависимой переменной преобразование, зависящее от оцениваемых параметров.
Пусть ошибки нормально распределены i~N(0, 2) и некоррелированы.
p(z) = (2 2) exp(– zTz).
Логарифмическая функция правдоподобия для такой модели:
= ln p( f (Y, 1), 2) + ln abs |J( 1)| =
= – ln(2 2) – f Tf + ln abs | | =
= – ln(2 2) – (h(Y,) – X())2 + ln abs ( ).
Самое популярное преобразование зависимой переменной — это преобразование Бокса-Кокса:
h(Yi,) = .
В общем случае его можно применять при положительных Yi.
Если 0, то lnYi, поэтому берут h(Y,0) = lnY.
Таким образом, имеем следующую простейшую модель Бокса-Кокса3:
= Xi + i .
Здесь регрессоры X детерминированы и не зависят от неизвестных параметров.
Якобиан равен
J = .
Функция правдоподобия для модели Бокса-Кокса равна
= – ln(2 2) – ( – X )2 – (1 – ) lnYi.
Концентрируя функцию правдоподобия по 2, получим
= – ln(2 ) – – (1 – ) lnYi.
Обозначим среднее геометрическое Yi:
= (iYi).
Тогда = – ln(RSS) – N (1 – ) ln + const.
Максимизация эквивалентна минимизации следующей суммы квадратов:
( ( – X )).
Можно предложить два метода оценивания.
Первый метод заключается в одномерной минимизации по , поскольку при фиксированном задача сводится к ОМНК. Строим регрессию (Y – 1)/ по X.
Второй метод заключается в использовании нелинейного МНК, в котором зависимой переменной является вектор, состоящий из нулей, а в правой части стоит ((Y – 1)/ – X ).
В обоих случаях мы найдем МП-оценки, но не найдем состоятельную оценку матрицы ковариаций оценок (ковариационные матрицы из этих вспомогательных регрессий не годятся).