Статистичний аналіз тенденцій захворюваності в Україні

Дипломная работа - Математика и статистика

Другие дипломы по предмету Математика и статистика

, …, n - некорельовані і мають однакову дисперсію, тобто

 

соv[?i, ?j] = ,

то D[?] = ?2In,

D[Y] = D[Y - X?] = D[?], отже D[Y] = ?2In.

 

Звідси одержуємо

 

D[] = D[(ХХ)-1ХY] = сov((ХХ)-1XY, (ХХ)-1XY) =

= (XX)-1Xcov(Y,Y)((XX)-1X) = (XX)-1XDYX(XX)-1 =

= (XX)-1X?2IX(XX)-1 = ?2(XX)-1(XX) (XX)-1 = ?2(XX)-1 (1.1.10)

 

Виникає таке питання: чому за оцінку вектора ? ми вибираємо саме (оцінку найменших квадратів), а не будь яку іншу оцінку? Далі покажемо, що в деякому розумному класі оцінок j, є оцінкою параметра ?j з найменшою дисперсією. Цю оцінку j можна „виділити" з вектора = (0, 1, ..., p-1) множенням зліва на вектор-рядок c, у якого (j +1)-й елемент рівний одиниці, а всі інші елементи дорівнюють нулю. Таку специфічну властивість оцінки j, можна узагальнити на випадок довільної лінійної комбінації а. Для цього використовуємо наступну теорему.

Теорема 1.1.4.

Нехай - оцінка найменших квадратів вектора = Х?. Тоді в класі всіх лінійних незміщених оцінок лінійної комбінації c? оцінка c є єдиною оцінкою, яка має мінімальну дисперсію. (Будемо говорити, що c є найкращою лінійною незміщеною оцінкою (НЛНО) для c?)

Доведення.

Оцінку найменших квадратів вектора = Х? представимо у вигляді

 

= X = X(ХХ)-1XY = X(ХХ)-1XY = PY,

 

при цьому

PX = X(ХХ)-1XX = X(ХХ)-1XX = XI = X .

 

Перевіримо, що c - лінійна незміщена оцінка для c?. Дійсно,

 

M[c] = McРY = cP MY = cP? = cPX? = cX? = c?

 

для всіх ?? = [Х] і c = cPY = (Pc)Y = (Рс)Y. Розглянемо іншу лінійну незміщену оцінку для c?. Тоді M[dY] = c? з одного боку, а з іншого

 

M[dY] = dMY = d?,

 

Тоді

 

c? = d? (с - d)? = 0 (с- d)? = 0, тобто (c - d) ? = R(X).

 

Оскільки R(X) = R(P) в силу теореми 1.1.2, то

 

(c d) R(P), (c d)P = 0 ((c d)P) = 0 P(c d) = 0

Pc = Pd

 

Порахуємо дисперсію оцінки c:

 

Dc = D[(Рd)Y] = D[(Рd)Y] = DdPY = cov(dPY, dPY) =

= dPcov(Y, Y)(dP) = dPDYPd = dP?2IPd = ?2dР2d = ?2 dРd,

 

Тоді

 

D[dY] - D[c] = D[dY] - D[(Рd) Y] =

= dDYd - ?2dPd = ?2dd - ?2dPd =

= ?2(dd - dРd) = ?2d(In - Р)d = {In P = (In P)2} =

= ?2 d(In - Р)(In - Р)d = {In P = (In P)} =

= ?2 d(In - Р)(In - Р)d = ?2 [(In - Р)d][(In - Р)d] ? 0

 

Рівність нулю досягається тоді й тільки тоді, коли

 

(In - Р)d = 0

d Pd = 0

d = Рd = Рс

 

Тоді D(dY) ? D(c), при цьому c? = d?. Це і означає, що c має мінімальну дисперсію і є єдиною оцінкою з такою властивістю в класі всіх лінійних незміщених оцінок лінійних комбінацій c?.

Теорема доведена.

Теорема доведена в припущенні, що матриця X має ранг p, так що Р = X (ХХ)-1X, і ? =Х? випливає, що ? = (ХХ)-1Х?.

Нехай с = а(ХХ)-1X, тоді звідси оцінка а? = a(XX)-1X = с є НЛНО з мінімальною дисперсією для а? при кожному а.

Зауваження. Якщо похибки ?і незалежні й однаково розподілені ? ~ або, в еквівалентній формі, Y ~ , то a має мінімальну дисперсію серед усіх незміщених оцінок, а не тільки в класі лінійних незміщених оцінок.

Зокрема, МНК оцінка і, і = 0, …, p 1 є також оцінкою максимальної правдоподібності, і вона ефективна оцінка для ?і.

Якщо ж розподіл ?i не є нормальним, то МНК оцінка і відрізняється від оцінки максимальної правдоподібності. В цьому випадку МНК оцінка і асимптотично ефективна для ?і.

Оцінимо параметр ?2 = D?i, але спочатку сформулюємо низку лем.

Лема 1.1.1. Нехай Y = Y(n1) випадковий вектор, А(nn) = A симетрична матриця. Якщо MY = ?, DY = ?, тоді математичне сподівання квадратичної форми YAY дорівнює

 

M(YAY) = tr(A?) + ?A?

 

.Наслідок

Якщо ? = ?2I, то tr(A?) = ?2trA.

Лема 1.1.2.

Нехай маємо n незалежних випадкових величин Y1, Y2, …, Yn з середніми ?1, ?2, …, ?n, однаковими дисперсіями ?2 та однаковими третіми та четвертими центральними моментами ?3 та ?4 відповідно (?r = M(Yi ?i)r). Якщо A = = А(nn) симетрична матриця, а a вектор стовпець, утворений її діагональними елементами, тоді дисперсія квадратичної форми YAY дорівнює

 

D(YAY) = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2?A2? + 4?3?Aa

 

Теорема 1.1.4.

Якщо

 

М[Y] = X?, де Х = X(np), rangX = p, D[Y] = ?2 In,

 

тоді оцінка

 

 

є незміщеною оцінкою для ?2.

Доведення.

Похибку ? запишемо у вигляді:

? = Y - = Y - Х = { = (XX)-1XY } = Y X(XX)-1XY =

= (In X(XX)-1X)Y = (In - Р)Y.

 

Тоді

 

(n - p)S2 = (Y - X)(Y - X) = ((In P)Y)((In P)Y) = Y(In P)(In P)Y = {(In P) = In P симетрична} =Y(In P)2Y = Y(In P)Y.

 

Виразимо Y(In P)Y з рівності:

 

(Y X?)(In P)(Y X?) = Y(In P)Y Y(In P)X? (X?)(In P)Y + (X?)(In P)X?;

Y(In P)Y = (Y X?)(In P)(Y X?) + Y(In P)X? + (X?)(In P)Y - (X?)(In P)X?.

 

Порахуємо M(n p)S2

 

M(n p)S2 = MY(In P)Y = {лема 1.1.1} = M(Y X?)(In P)(Y X?) +

+ MY(In P)X? + M(X?)(In P)Y M(X?)(In P)X? =

= M(Y X?)(In P)(Y X?) + (X?)(In P)X? + (X?)(In P)X?

- (X?)(In P)X? = M(Y MY)(In P)(Y MY) =

= + (X?)(In P)X? =

= + (X?)(In P)X? =

= + (X?)(In P)X? =

= ?2(p11 + p22 + … + pnn) + ?X(In P)X? =

= ?2tr(In P) + ?X(In P)X? = =

= ?2(n p) + 0 = ?2(n p)

 

Отже,

 

M(n p)S2 = ?2(n p) MS2 = ?2.

 

Теорема доведена.

Виявляється, що S2, подібно до , має певні властивості оптимальності, які наведено в наступній теоремі.

Теорема 1.1.5.

Нехай Y1, Y2, …, Yn незалежні випадкові величини, які мають однакові дисперсії ?2 = 3?2 і однакові треті та четверті моменти ?3 і ?4. Якщо M[Y] = X?, де матриця Х = Х(n p), rangX = p, то DY = ?2I і (n p)S2 є єдиною невідємною квадратичною незміщеною оцінкою для (n p)?2, яка має мінімальну дисперсію при ?4 = 3?4 або при