Статистичний аналіз тенденцій захворюваності в Україні
Дипломная работа - Математика и статистика
Другие дипломы по предмету Математика и статистика
рівності всіх діагональних елементів матриці P.
Доведення.
Оскільки ?2 > 0, то будемо розглядати тільки невідємні оцінки.
Нехай YАY незміщена квадратична оцінка для (n - р)?2. Порахуємо математичне сподівання та дисперсію оцінки YАY
(n - р)?2 = M[YАY] = ?2 trА + ?ХАХ?
для всіх ?, тоді trА = n - р і ?ХАХ? = 0 для всіх ?. Отже, ХАХ = 0 А- додатньо напіввизначена симетрична матриця з ХАХ = 0 випливає, що АХ = 0.
Позначимо а вектор, утворений діагональними елементами матриці А і ?2 = (?4 - 3?4)/?4, тоді згідно з лемою 1.1.2,
D[YАY] = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2(X?)A2(X?) + 4?3(X?)Aa =
= = (?4 3(?2)2)aa + 2(?2)2trA2 + 4(?2)2?XAX? +
+ 4?3?(AX)a = ?4 ?2 аа + 2?4 trА2 . (1.1.11)
Далі розглянемо оцінку (n - р)S2, яка належить класу незміщених квадратичних оцінок для (n - р)?2 згідно з теоремою 1.1.4
(n - р)S2 = (Y - X)(Y - X) = Y(In - Р)Y = YRY
(де для стислості, введене позначення In - Р = R), trR2 = trR = n - р.
Розглянемо D[YRY]:
D[YRY] = ?4 ?2 rr + 2?4trR2 = ?4 ?2 rr + 2?4 (n - р). (1.1.12)
де r вектор, утворений діагональними елементами матриці R.
Для того, щоб знайти достатні умови для мінімальності дисперсії оцінки YАY, покладемо А = R + D. Оскільки A та R симетричні, то матриця D також симетрична і trА = trR + trD.
Підставляємо: (n p) = (n p) + 0 таким чином, trD = 0. Оскільки АХ = 0, то АР = АХ(ХХ)-1X = 0, тоді
A = R + D
AP = RP + DP
AP = P P2 + DP
0 = P P + DP
DP = 0
Тоді
DR = D DP = D 0 = D
(останнє рівне також D = D = RD, так як D симетрична).
Позначимо a = r + d, r вектор діагональних елементів матриці R, d вектор діагональних елементів матриці D.
A2 = (R + D)2 = R2 + DR + RD + D2 = R + 2D + D2
tr A2 = trR + 2trD + trD2 = (n - р) + trD2.
Підставляючи а = r + d і tr A2 в (1.1.11), одержуємо
D[YАY] = ?4 ?2 aа + 2?4trA2 = ?4 ?2(r + d)(r + d) + 2?4(n p + trD2) =
= ?4 ?2(r + d)(r + d) + 2?4(n p + trD2) =
= ?4 ?2(dr + dd + rr + rd) + 2?4(n p + trD2) =
= ?4?2 rr + 2?4(n p) + 2?4 =
= D[YRY] + 2?4 .
Щоб знайти оцінку з мінімальною дисперсією, потрібно мінімізувати D[YАY] за умов tr D = 0 і DR = D. У загальному випадку виконати таку мінімізацію досить важкою. Проте в двох важливих окремих випадках ця мінімізація виконується не важко. Перший випадок - це ситуація, коли ?2 = 0 При цьому
D[YAY] = D[YRY] + 2?2
Остання ж величина досягає мінімуму, коли dij = 0 для всіх i, j, тобто коли D = 0 і А = R. Другий випадок - це випадок рівності всіх діагональних елементів матриці Р. При цьому всі вони рівні р11 = p22 = … = pnn
trR = trI trP = n p tr Р = р.
Тому
р11 + p22 + … + pnn rii = p
npii = p pii = p/n
Тоді діагональні елементи матриці R = (I P) дорівнюють rii = 1 pii = 1 p/n = (n - р)/n для кожного і
D[YAY] = D[YRY] + 2?4(=
= =
= D(YRY) + 2?4 =
= D[YRY] + 2?4, (1.1.13)
Далі для будьякої випадкової величини ? виконується нерівність ?2 ?-2. Дійсно,
0 ? D(? M?)2 = M(? M?)4 (M(? - M?)2)2 = ?4 (?2)2 =
= ?4 3(?2)2 + 2(?2)2 = (?2)2(?4 / (?2)2 3 + 2) =
= = (?2)2(?2 + 2), отже ?2 ? -2
отже D[YАY] досягає мінімуму, коли dij = 0 для всіх i, j. Таким чином, в обох випадках дисперсія виявляється мінімальною тоді і тільки тоді, коли А = R. Теорема доведена. Доведена теорема говорить про те, що незміщена квадратична оцінка для ?2, з мінімальною дисперсією існує тільки при певних обмеженнях, наведених в теоремі. У припущенні нормальності, тобто при ?2 = 0, оцінка S2 є незміщеною оцінкою для ?2, яка має мінімальну дисперсією в класі всіх незміщених оцінок, а не тільки в класі квадратичних незміщених оцінок. Раніше ми припускали відносно похибок ?i, що M[?] = 0 і D[?] = ?2In. Якщо додатково припустити, що похибки ?i розподілені нормально, тобто ? ~ Nn(0, ?2In) (отже Y ~ Nn(X?, ?2In)), то можна одержати низку наступних результатів, повязаних з розподілами.
Теорема 1.1.6. Якщо Y ~ Nn(X?, ?2In), де Х = Х(np), rangX = p, тоді
~ Np(?, ?2(XX)-1);
- (
- ?)XX( - ?)/?2 ~ ;
не залежить від S2;
- RSS/?2 = (n p)S2/?2 ~
.
Доведення. (I) МНК оцінка вектора ? має вигляд
= (ХХ)-1ХY, тоді = СY, де C = (ХХ)-1Х - матриця розміру рn, для якої rangС = rang(ХХ)-1Х = rangХ-1(Х)-1X = rangХ-1 = p. Вектор Y ~ Nn(X?, ?2In). Генератриса моментів для вектора дорівнює
M = M.
M(t) = M= M= = M= = =
- генератриса моментів , де cX? = (XX)-1? = ?,
c?2Ic = (XX)-1X?2I((XX)-1X) = ?2(XX)-1XX(XX)-1 = ?2(XX)-1.
Генератриса функції моментів нормального розподілу ? ~ N(a; ?2):
M(t) = Met? = ,
Генератриса моментів для вектора однозначно визначає щільність розподілу вектора і дорівнює M(t) = Met, , t = (t1, t2, …, tp)
(II) ( - ?)ХХ( - ?)/?2 = =
= ( - ?)(D)-1( - ?) = (1 ?1, …, p ?p)(D)-1 =
= (D)-1
~ N(?; ?2(XX)-1),
- ? ~ N(0; ?2(XX)-1),
, тоді . Отже, .
(III) Необхідно довести, не залежить від S2. Порахуємо cov(,Y-X)
cov(, Y - X) = cov((XX)-1XY, Y X(XX)-1XY) =
= cov((XX)-1XY, Y - PY) = cov((XX)-1XY, (I P)Y) =
= (XX)-1Xcov(Y, Y)(I P) = {(I P) = I P} =
= (XX)-1XDY(I P) = {DY = ?2} = (XX)-1X?2I(I P) =
= ?2(XX)-1X(I P) = = 0
Залишилось скористатись наступною теоремою:
Нехай Y ~ N(X?; ?2I), U = AY, V = BY, матриця А1 складена з лінійно незалежних рядків матриці А, U1 = A1Y. Якщо cov(U, V) = 0, то
1) випадковий вектор U1 не залежить від VV;
2) випадкові величини UU та VV незалежні.
Позначимо
U1 = , V = Y - X, U = U1 =
U1 = (XX)-1XY, V = Y - X = (I P)Y.
Оскільки cov(U1, V) = 0, тоді U1 = не залежить від VV=(Y - X)(Y - X) = = (n p)S2.
(IV) Розглянемо
Q1 = (Y X?)(Y X?) = (Y - X + Х( - ?))(Y - X + X( - ?)) =
= (Y X)(Y X) + (Y X)X ( - ?) + ( - ?)X(Y - X) +
+ ( - ?)XX ( - ?) =
= =
= (Y X)(Y X) + ( - ?)XX ( - ?) = Q + Q2. (1.1.15)