Пособие состоит из двух самостоятельных разделов
Вид материала | Документы |
Регрессия с ошибками во всех переменных |
- Пособие состоит из двух самостоятельных разделов, 1495.22kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 49.78kb.
- Экзамен по избранному виду спорта состоит из двух разделов теоретического и практического, 81.96kb.
- Курсовая работа по дисциплине Экономика предприятия состоит из двух разделов: теоретической, 153.63kb.
- Аннотации дисциплин, 456.29kb.
- Виктор Сергеевич Стародубцев учебное пособие, 718.78kb.
- Природоохранное и природоресурсное закон, 1307.64kb.
- -, 9049.93kb.
- Методические рекомендации по выполнению самостоятельной работы студентов по дисциплине, 54.29kb.
- Программа состоит из двух разделов: Примерная программа родительского всеобуча «Семейная, 451.17kb.
Регрессия с ошибками во всех переменных
В классической регрессионной модели ошибка содержится в единственной переменной — той, которая стоит в левой части (зависимой переменной). Рассмотрим более общий случай.
Пусть имеется матрица ненаблюдаемых исходных переменных X = (X1,..., XM), X = {Xij }, i = 1, ..., N, j = 1, ..., M. Эти переменные связаны между собой линейной зависимостью: Xb = 0. Требуется оценить коэффициенты b. Наблюдаются только переменные Y, которые представляют собой переменные X измеренные с ошибками:
Yj = Xj + ej.
Предполагается, что ошибки некоррелированы для разных номеров наблюдений, но ошибки, относящиеся к наблюдениям с одним и тем же номером i коррелированы, причем матрица ковариаций W точно известна. Для того, чтобы можно было воспользоваться методом максимального правдоподобия, делаем предположение, что ошибки распределены нормально.
Логарифмическая функция правдоподобия равна
= – ln |W| – EiWEi T+ const ® max X, b
где Ei = Yj – Xj — i-я строка матрицы остатков.
Максимизируем функцию правдоподобия при ограничении Xb = 0.
Задачу максимизации можно записать с помощью лагранжиана:
L = – Tr((Y – X) W(Y – X)T) – lTXb =
= – Tr(Y WY T) + Tr(X WY T) – Tr(X WX T) – lTXb.
= WY T – WX T– b lT = 0.
Используем
= B = 2BAT = yxT.
Отсюда получим выражение для X:
X = Y – lb TW.
Если домножить это уравнение на b и вспомнить, что Xb = 0, то
Yb = lb TW b, Þ l = Yb.
Подставим эти соотношения в функцию правдоподобия и получим концентрированную функцию правдоподобия (“концентрированный лагранжиан”):
= – Tr(lb TW W WblT) = – Tr(lTl b TW b) = – lTl b TW b =
= –
Таким образом, нахождение максимума правдоподобия равносильно минимизации следующей функции:
j = ® minb
Условие первого порядка для минимума:
= 2 Y TYb – 2 W b = 0
Þ (Y TY – W) b = 0
или (WY TY –) b = (WY TY – j) b = 0.
Таким образом, j должно быть собственным числом матрицы WY TY, а b — ее собственным вектором. Проверим, что эти два условия не противоречат друг другу. Пусть bk — некоторый собственный вектор, jk — соответствующее собственное число этой матрицы:
(WY TY – j k)b k = 0.
Покажем, что j k = .
Домножим слева на b kTW:
b kTY TYb k – j k b kT W b k = 0.
Отсюда получаем требуемое равенство.
Поскольку требуется минимизировать j, то нужно выбрать минимальное собственное число jmin. Оценкой вектора коэффициентов будет соответствующий собственный вектор bmin. Отсюда получаем оценки для матрицы исходных переменных X:
X = Y – l TW = Y – Y TW = Y(I – TW).
В частном случае, когда ошибка имеется только в первой переменной
W = .
Нужно минимизировать величину
j = = (Y1 + Y(1) b(1))T(Y1 + Y(1) b(1)).
где Y(1) — матрица Y без первого столбца, b(1) — вектор b без первого элемента. Если обозначить = Y1, = Y(1), = b(1) то получим ОМНК:
( – )T( – ) ® min