Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы
Регрессия с ошибками во всех переменных
Подобный материал:
1   ...   14   15   16   17   18   19   20   21   22

Регрессия с ошибками во всех переменных


В классической регрессионной модели ошибка содержится в единственной переменной — той, которая стоит в левой части (зависимой переменной). Рассмотрим более общий случай.

Пусть имеется матрица ненаблюдаемых исходных переменных X = (X1,..., XM), X = {Xij }, i = 1, ..., N, j = 1, ..., M. Эти переменные связаны между собой линейной зависимостью: Xb = 0. Требуется оценить коэффициенты b. Наблюдаются только переменные Y, которые представляют собой переменные X измеренные с ошибками:

Yj = Xj + ej.

Предполагается, что ошибки некоррелированы для разных номеров наблюдений, но ошибки, относящиеся к наблюдениям с одним и тем же номером i коррелированы, причем матрица ковариаций W точно известна. Для того, чтобы можно было воспользоваться методом максимального правдоподобия, делаем предположение, что ошибки распределены нормально.

Логарифмическая функция правдоподобия равна

 = – ln |W| –  EiWEi T+ const ® max X, b

где Ei = Yj Xji-я строка матрицы остатков.

Максимизируем функцию правдоподобия при ограничении Xb = 0.

Задачу максимизации можно записать с помощью лагранжиана:

L = – Tr((Y X) W(Y X)T) – lTXb =

= – Tr(Y WY T) + Tr(X WY T) – Tr(X WX T) – lTXb.

= WY T – WX Tb lT = 0.

Используем

= B = 2BAT = yxT.


Отсюда получим выражение для X:

X = Y lb TW.

Если домножить это уравнение на b и вспомнить, что Xb = 0, то

Yb = lb TW b, Þ l = Yb.

Подставим эти соотношения в функцию правдоподобия и получим концентрированную функцию правдоподобия (“концентрированный лагранжиан”):

 = – Tr(lb TW W WblT) = – Tr(lTl b TW b) = – lTl b TW b =

= –

Таким образом, нахождение максимума правдоподобия равносильно минимизации следующей функции:

j = ® minb

Условие первого порядка для минимума:

= 2 Y TYb – 2 W b = 0

Þ (Y TY – W) b = 0

или (WY TY –) b = (WY TYj) b = 0.

Таким образом, j должно быть собственным числом матрицы WY TY, а b — ее собственным вектором. Проверим, что эти два условия не противоречат друг другу. Пусть bk — некоторый собственный вектор, jk — соответствующее собственное число этой матрицы:

(WY TYj k)b k = 0.

Покажем, что j k = .

Домножим слева на b kTW:

b kTY TYb kj k b kT W b k = 0.

Отсюда получаем требуемое равенство.

Поскольку требуется минимизировать j, то нужно выбрать минимальное собственное число jmin. Оценкой вектора коэффициентов будет соответствующий собственный вектор bmin. Отсюда получаем оценки для матрицы исходных переменных X:

X = Y l TW = Y Y  TW = Y(I   TW).

В частном случае, когда ошибка имеется только в первой переменной

W = .

Нужно минимизировать величину

j = = (Y1 + Y(1) b(1))T(Y1 + Y(1) b(1)).

где Y(1) — матрица Y без первого столбца, b(1) — вектор b без первого элемента. Если обозначить = Y1, = Y(1), = b(1) то получим ОМНК:

( – )T( – ) ® min