Статистичний аналіз тенденцій захворюваності в Україні
Дипломная работа - Математика и статистика
Другие дипломы по предмету Математика и статистика
, …, n - некорельовані і мають однакову дисперсію, тобто
соv[?i, ?j] = ,
то D[?] = ?2In,
D[Y] = D[Y - X?] = D[?], отже D[Y] = ?2In.
Звідси одержуємо
D[] = D[(ХХ)-1ХY] = сov((ХХ)-1XY, (ХХ)-1XY) =
= (XX)-1Xcov(Y,Y)((XX)-1X) = (XX)-1XDYX(XX)-1 =
= (XX)-1X?2IX(XX)-1 = ?2(XX)-1(XX) (XX)-1 = ?2(XX)-1 (1.1.10)
Виникає таке питання: чому за оцінку вектора ? ми вибираємо саме (оцінку найменших квадратів), а не будь яку іншу оцінку? Далі покажемо, що в деякому розумному класі оцінок j, є оцінкою параметра ?j з найменшою дисперсією. Цю оцінку j можна „виділити" з вектора = (0, 1, ..., p-1) множенням зліва на вектор-рядок c, у якого (j +1)-й елемент рівний одиниці, а всі інші елементи дорівнюють нулю. Таку специфічну властивість оцінки j, можна узагальнити на випадок довільної лінійної комбінації а. Для цього використовуємо наступну теорему.
Теорема 1.1.4.
Нехай - оцінка найменших квадратів вектора = Х?. Тоді в класі всіх лінійних незміщених оцінок лінійної комбінації c? оцінка c є єдиною оцінкою, яка має мінімальну дисперсію. (Будемо говорити, що c є найкращою лінійною незміщеною оцінкою (НЛНО) для c?)
Доведення.
Оцінку найменших квадратів вектора = Х? представимо у вигляді
= X = X(ХХ)-1XY = X(ХХ)-1XY = PY,
при цьому
PX = X(ХХ)-1XX = X(ХХ)-1XX = XI = X .
Перевіримо, що c - лінійна незміщена оцінка для c?. Дійсно,
M[c] = McРY = cP MY = cP? = cPX? = cX? = c?
для всіх ?? = [Х] і c = cPY = (Pc)Y = (Рс)Y. Розглянемо іншу лінійну незміщену оцінку для c?. Тоді M[dY] = c? з одного боку, а з іншого
M[dY] = dMY = d?,
Тоді
c? = d? (с - d)? = 0 (с- d)? = 0, тобто (c - d) ? = R(X).
Оскільки R(X) = R(P) в силу теореми 1.1.2, то
(c d) R(P), (c d)P = 0 ((c d)P) = 0 P(c d) = 0
Pc = Pd
Порахуємо дисперсію оцінки c:
Dc = D[(Рd)Y] = D[(Рd)Y] = DdPY = cov(dPY, dPY) =
= dPcov(Y, Y)(dP) = dPDYPd = dP?2IPd = ?2dР2d = ?2 dРd,
Тоді
D[dY] - D[c] = D[dY] - D[(Рd) Y] =
= dDYd - ?2dPd = ?2dd - ?2dPd =
= ?2(dd - dРd) = ?2d(In - Р)d = {In P = (In P)2} =
= ?2 d(In - Р)(In - Р)d = {In P = (In P)} =
= ?2 d(In - Р)(In - Р)d = ?2 [(In - Р)d][(In - Р)d] ? 0
Рівність нулю досягається тоді й тільки тоді, коли
(In - Р)d = 0
d Pd = 0
d = Рd = Рс
Тоді D(dY) ? D(c), при цьому c? = d?. Це і означає, що c має мінімальну дисперсію і є єдиною оцінкою з такою властивістю в класі всіх лінійних незміщених оцінок лінійних комбінацій c?.
Теорема доведена.
Теорема доведена в припущенні, що матриця X має ранг p, так що Р = X (ХХ)-1X, і ? =Х? випливає, що ? = (ХХ)-1Х?.
Нехай с = а(ХХ)-1X, тоді звідси оцінка а? = a(XX)-1X = с є НЛНО з мінімальною дисперсією для а? при кожному а.
Зауваження. Якщо похибки ?і незалежні й однаково розподілені ? ~ або, в еквівалентній формі, Y ~ , то a має мінімальну дисперсію серед усіх незміщених оцінок, а не тільки в класі лінійних незміщених оцінок.
Зокрема, МНК оцінка і, і = 0, …, p 1 є також оцінкою максимальної правдоподібності, і вона ефективна оцінка для ?і.
Якщо ж розподіл ?i не є нормальним, то МНК оцінка і відрізняється від оцінки максимальної правдоподібності. В цьому випадку МНК оцінка і асимптотично ефективна для ?і.
Оцінимо параметр ?2 = D?i, але спочатку сформулюємо низку лем.
Лема 1.1.1. Нехай Y = Y(n1) випадковий вектор, А(nn) = A симетрична матриця. Якщо MY = ?, DY = ?, тоді математичне сподівання квадратичної форми YAY дорівнює
M(YAY) = tr(A?) + ?A?
.Наслідок
Якщо ? = ?2I, то tr(A?) = ?2trA.
Лема 1.1.2.
Нехай маємо n незалежних випадкових величин Y1, Y2, …, Yn з середніми ?1, ?2, …, ?n, однаковими дисперсіями ?2 та однаковими третіми та четвертими центральними моментами ?3 та ?4 відповідно (?r = M(Yi ?i)r). Якщо A = = А(nn) симетрична матриця, а a вектор стовпець, утворений її діагональними елементами, тоді дисперсія квадратичної форми YAY дорівнює
D(YAY) = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2?A2? + 4?3?Aa
Теорема 1.1.4.
Якщо
М[Y] = X?, де Х = X(np), rangX = p, D[Y] = ?2 In,
тоді оцінка
є незміщеною оцінкою для ?2.
Доведення.
Похибку ? запишемо у вигляді:
? = Y - = Y - Х = { = (XX)-1XY } = Y X(XX)-1XY =
= (In X(XX)-1X)Y = (In - Р)Y.
Тоді
(n - p)S2 = (Y - X)(Y - X) = ((In P)Y)((In P)Y) = Y(In P)(In P)Y = {(In P) = In P симетрична} =Y(In P)2Y = Y(In P)Y.
Виразимо Y(In P)Y з рівності:
(Y X?)(In P)(Y X?) = Y(In P)Y Y(In P)X? (X?)(In P)Y + (X?)(In P)X?;
Y(In P)Y = (Y X?)(In P)(Y X?) + Y(In P)X? + (X?)(In P)Y - (X?)(In P)X?.
Порахуємо M(n p)S2
M(n p)S2 = MY(In P)Y = {лема 1.1.1} = M(Y X?)(In P)(Y X?) +
+ MY(In P)X? + M(X?)(In P)Y M(X?)(In P)X? =
= M(Y X?)(In P)(Y X?) + (X?)(In P)X? + (X?)(In P)X?
- (X?)(In P)X? = M(Y MY)(In P)(Y MY) =
= + (X?)(In P)X? =
= + (X?)(In P)X? =
= + (X?)(In P)X? =
= ?2(p11 + p22 + … + pnn) + ?X(In P)X? =
= ?2tr(In P) + ?X(In P)X? = =
= ?2(n p) + 0 = ?2(n p)
Отже,
M(n p)S2 = ?2(n p) MS2 = ?2.
Теорема доведена.
Виявляється, що S2, подібно до , має певні властивості оптимальності, які наведено в наступній теоремі.
Теорема 1.1.5.
Нехай Y1, Y2, …, Yn незалежні випадкові величини, які мають однакові дисперсії ?2 = 3?2 і однакові треті та четверті моменти ?3 і ?4. Якщо M[Y] = X?, де матриця Х = Х(n p), rangX = p, то DY = ?2I і (n p)S2 є єдиною невідємною квадратичною незміщеною оцінкою для (n p)?2, яка має мінімальну дисперсію при ?4 = 3?4 або при