Статистичний аналіз тенденцій захворюваності в Україні

Дипломная работа - Математика и статистика

Другие дипломы по предмету Математика и статистика

рівності всіх діагональних елементів матриці P.

Доведення.

Оскільки ?2 > 0, то будемо розглядати тільки невідємні оцінки.

Нехай YАY незміщена квадратична оцінка для (n - р)?2. Порахуємо математичне сподівання та дисперсію оцінки YАY

 

(n - р)?2 = M[YАY] = ?2 trА + ?ХАХ?

 

для всіх ?, тоді trА = n - р і ?ХАХ? = 0 для всіх ?. Отже, ХАХ = 0 А- додатньо напіввизначена симетрична матриця з ХАХ = 0 випливає, що АХ = 0.

Позначимо а вектор, утворений діагональними елементами матриці А і ?2 = (?4 - 3?4)/?4, тоді згідно з лемою 1.1.2,

 

D[YАY] = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2(X?)A2(X?) + 4?3(X?)Aa =

= = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2?XAX? +

+ 4?3?(AX)a = ?4 ?2 аа + 2?4 trА2 . (1.1.11)

 

Далі розглянемо оцінку (n - р)S2, яка належить класу незміщених квадратичних оцінок для (n - р)?2 згідно з теоремою 1.1.4

 

(n - р)S2 = (Y - X)(Y - X) = Y(In - Р)Y = YRY

 

(де для стислості, введене позначення In - Р = R), trR2 = trR = n - р.

Розглянемо D[YRY]:

 

D[YRY] = ?4 ?2 rr + 2?4trR2 = ?4 ?2 rr + 2?4 (n - р). (1.1.12)

 

де r вектор, утворений діагональними елементами матриці R.

Для того, щоб знайти достатні умови для мінімальності дисперсії оцінки YАY, покладемо А = R + D. Оскільки A та R симетричні, то матриця D також симетрична і trА = trR + trD.

Підставляємо: (n p) = (n p) + 0 таким чином, trD = 0. Оскільки АХ = 0, то АР = АХ(ХХ)-1X = 0, тоді

 

A = R + D

AP = RP + DP

AP = P P2 + DP

0 = P P + DP

DP = 0

 

Тоді

DR = D DP = D 0 = D

 

(останнє рівне також D = D = RD, так як D симетрична).

Позначимо a = r + d, r вектор діагональних елементів матриці R, d вектор діагональних елементів матриці D.

 

A2 = (R + D)2 = R2 + DR + RD + D2 = R + 2D + D2

tr A2 = trR + 2trD + trD2 = (n - р) + trD2.

 

Підставляючи а = r + d і tr A2 в (1.1.11), одержуємо

 

D[YАY] = ?4 ?2 aа + 2?4trA2 = ?4 ?2(r + d)(r + d) + 2?4(n p + trD2) =

= ?4 ?2(r + d)(r + d) + 2?4(n p + trD2) =

= ?4 ?2(dr + dd + rr + rd) + 2?4(n p + trD2) =

= ?4?2 rr + 2?4(n p) + 2?4 =

= D[YRY] + 2?4 .

 

Щоб знайти оцінку з мінімальною дисперсією, потрібно мінімізувати D[YАY] за умов tr D = 0 і DR = D. У загальному випадку виконати таку мінімізацію досить важкою. Проте в двох важливих окремих випадках ця мінімізація виконується не важко. Перший випадок - це ситуація, коли ?2 = 0 При цьому

 

D[YAY] = D[YRY] + 2?2

 

Остання ж величина досягає мінімуму, коли dij = 0 для всіх i, j, тобто коли D = 0 і А = R. Другий випадок - це випадок рівності всіх діагональних елементів матриці Р. При цьому всі вони рівні р11 = p22 = … = pnn

 

trR = trI trP = n p tr Р = р.

 

Тому

 

р11 + p22 + … + pnn rii = p

npii = p pii = p/n

 

Тоді діагональні елементи матриці R = (I P) дорівнюють rii = 1 pii = 1 p/n = (n - р)/n для кожного і

 

D[YAY] = D[YRY] + 2?4(=

= =

= D(YRY) + 2?4 =

= D[YRY] + 2?4, (1.1.13)

 

Далі для будьякої випадкової величини ? виконується нерівність ?2 ?-2. Дійсно,

 

0 ? D(? M?)2 = M(? M?)4 (M(? - M?)2)2 = ?4 (?2)2 =

= ?4 3(?2)2 + 2(?2)2 = (?2)2(?4 / (?2)2 3 + 2) =

= = (?2)2(?2 + 2), отже ?2 ? -2

 

отже D[YАY] досягає мінімуму, коли dij = 0 для всіх i, j. Таким чином, в обох випадках дисперсія виявляється мінімальною тоді і тільки тоді, коли А = R. Теорема доведена. Доведена теорема говорить про те, що незміщена квадратична оцінка для ?2, з мінімальною дисперсією існує тільки при певних обмеженнях, наведених в теоремі. У припущенні нормальності, тобто при ?2 = 0, оцінка S2 є незміщеною оцінкою для ?2, яка має мінімальну дисперсією в класі всіх незміщених оцінок, а не тільки в класі квадратичних незміщених оцінок. Раніше ми припускали відносно похибок ?i, що M[?] = 0 і D[?] = ?2In. Якщо додатково припустити, що похибки ?i розподілені нормально, тобто ? ~ Nn(0, ?2In) (отже Y ~ Nn(X?, ?2In)), то можна одержати низку наступних результатів, повязаних з розподілами.

Теорема 1.1.6. Якщо Y ~ Nn(X?, ?2In), де Х = Х(np), rangX = p, тоді

  1. ~ Np(?, ?2(XX)-1);

  2. (

    - ?)XX( - ?)/?2 ~ ;

  3. не залежить від S2;

  4. RSS/?2 = (n p)S2/?2 ~

    .

  5. Доведення. (I) МНК оцінка вектора ? має вигляд

    = (ХХ)-1ХY, тоді = СY, де C = (ХХ)-1Х - матриця розміру рn, для якої rangС = rang(ХХ)-1Х = rangХ-1(Х)-1X = rangХ-1 = p. Вектор Y ~ Nn(X?, ?2In). Генератриса моментів для вектора дорівнює

    M = M.

M(t) = M= M= = M= = =

 

- генератриса моментів , де cX? = (XX)-1? = ?,

c?2Ic = (XX)-1X?2I((XX)-1X) = ?2(XX)-1XX(XX)-1 = ?2(XX)-1.

 

Генератриса функції моментів нормального розподілу ? ~ N(a; ?2):

 

M(t) = Met? = ,

 

Генератриса моментів для вектора однозначно визначає щільність розподілу вектора і дорівнює M(t) = Met, , t = (t1, t2, …, tp)

 

(II) ( - ?)ХХ( - ?)/?2 = =

= ( - ?)(D)-1( - ?) = (1 ?1, …, p ?p)(D)-1 =

= (D)-1

~ N(?; ?2(XX)-1),

- ? ~ N(0; ?2(XX)-1),

, тоді . Отже, .

 

(III) Необхідно довести, не залежить від S2. Порахуємо cov(,Y-X)

 

cov(, Y - X) = cov((XX)-1XY, Y X(XX)-1XY) =

= cov((XX)-1XY, Y - PY) = cov((XX)-1XY, (I P)Y) =

= (XX)-1Xcov(Y, Y)(I P) = {(I P) = I P} =

= (XX)-1XDY(I P) = {DY = ?2} = (XX)-1X?2I(I P) =

= ?2(XX)-1X(I P) = = 0

 

Залишилось скористатись наступною теоремою:

Нехай Y ~ N(X?; ?2I), U = AY, V = BY, матриця А1 складена з лінійно незалежних рядків матриці А, U1 = A1Y. Якщо cov(U, V) = 0, то

1) випадковий вектор U1 не залежить від VV;

2) випадкові величини UU та VV незалежні.

Позначимо

 

U1 = , V = Y - X, U = U1 =

U1 = (XX)-1XY, V = Y - X = (I P)Y.

 

Оскільки cov(U1, V) = 0, тоді U1 = не залежить від VV=(Y - X)(Y - X) = = (n p)S2.

(IV) Розглянемо

 

Q1 = (Y X?)(Y X?) = (Y - X + Х( - ?))(Y - X + X( - ?)) =

= (Y X)(Y X) + (Y X)X ( - ?) + ( - ?)X(Y - X) +

+ ( - ?)XX ( - ?) =

= =

= (Y X)(Y X) + ( - ?)XX ( - ?) = Q + Q2. (1.1.15)