Книги по разным темам Pages:     | 1 |   ...   | 2 | 3 | 4 | 5 | 6 |   ...   | 30 |

xik xik Заметим, что поскольку модель нелинейна, при интерпретации значений предельного эффекта надо иметь в виду отклик интересующей нас вероятности именно на малые приращения объясняющей переменной.

В случае, когда сама объясняющая переменная принимает только два значения 0 и 1 (дамми-переменная - dummy variable), указывающие на наличие (1) или отсутствие (0) у субъекта определенного признака, УмалыеФ изменения переменной, о которых говорилось выше, попросту невозможны. В этом случае Упредельный эффектФ определяют просто как разность P{yi = 1 xi, d = 1}- P{yi = 1 xi,d = 0}, где d обозначает рассматриваемую дамми-переменную, а xi - вектор значений остальных объясняющих переменных.

T В пробит-модели P{yi = 1 xi}= (xi )= (1xi1 +K + xip).

p Малое изменение xik k -й объясняющей переменной приводит здесь (при неизменных значениях остальных объясняющих переменных) к изменению вероятности P{yi = 1 xi} на величину, приближенно равную (1xi1 +L+ xip ) p P{yi = 1 xi} xik = (xiT )k xik, xik где (z) = e-t / 2 - функция плотности стандартного нормального распределения N(0,1), математическое ожидание которого равно нулю, а дисперсия равна единице. Предельный Модели с дискретными объясняемыми переменнымиЕ эффект k -й объясняющей переменной равен (xiT )k (а не k - как в линейной модели).

В логит-модели P{yi =1 xi}= (xiT)= (1xi1 + K + xip ) p малое изменение xik k -й объясняющей переменной приводит (при неизменных значениях остальных объясняющих переменных) к изменению вероятности P{yi =1 xi} на величину, приближенно равную T P{yi = 1 xi} (xi ) P{yi =1 xi} xik = xik.

xik xik Учитывая явный вид функции (z), находим отсюда:

T T P{yi =1 xi} {(xi )(1- (xi ))k }xik.

Выражение, заключенное в фигурные скобки, представляет предельный эффект для k -й объясняющей переменной в логитмодели.

Заметим теперь следующее. Пусть p = P(A) - вероятность p некоторого события A, 0 < p <1. Отношение часто называют 1 - p шансами (оdds) этого события. Например, если p = 2 / 3, то p 2 / = = 2, и шансы за то, что событие A произойдет, против 1 - p 1/ того, что это событие не произойдет, равны 2:1 (Удва к одномуФ, или p Ув 2 раза вышеФ). Логарифм отношения называют логитом 1- p p (logit), logit(p)= ln. Если logit(p)= 0, то p = 1 - p = 0.5, т.е.

1- p шансы для события A равны У50 на 50Ф. Если logit(p)> 0, то больше шансов, что событие A произойдет. Если logit(p)< 0, то больше шансов, что событие A не произойдет.

38 Глава Пусть теперь p = P{yi =1 xi}. В логит-модели exp(xiT) T T p = (xi )= T 1+ exp(xiT), 1- p = 1+ exp(xi ), так что logit(p)= xi, т.е. логит-модель линейна в отношении логита. Отсюда вытекает, что изменение значения k -й объясняющей переменной на величину xik приводит (при неизменных значениях остальных объясняющих p переменных) к изменению значения ln на kxik, что при 1 - p малых значениях xik означает изменение значения отношения p приблизительно на 100kxik процентов. Иначе говоря, при 1- p этом шансы за то, что yi =1, против того, что yi = 0, возрастают приблизительно на 100 k xik процентов.

1.5. Проверка выполнения стандартных предположений При анализе обычных линейных моделей регрессии проверка выполнения стандартных предположений осуществляется посредством графического анализа и различных статистических критериев, призванных выявить наличие таких особенностей статистических данных, которые могут говорить не в пользу гипотезы о выполнении стандартных предположений.

Посмотрим, однако, на график остатков для пробит-модели, оцененной по рассматривавшемуся выше множеству данных о наличии (отсутствии) собственных автомобилей у 1000 семей.

Модели с дискретными объясняемыми переменнымиЕ 1.1.0.0.-0.-1.-1.500 1000 1500 Этот график по форме разительно отличается от тех, с которыми приходится сталкиваться при анализе обычных моделей регрессии с непрерывной объясняемой переменной. И это вовсе не должно нас удивлять, если вспомнить свойства случайных ошибок в моделях бинарного выбора: при заданных значениях объясняющих переменных случайная величина может принимать в i -м i наблюдении только два значения. Соответственно, привычный графический анализ остатков не дает здесь полезной информации, и более полезным является непосредственное использование подходящих статистических критериев.

Поскольку мы используем для оценивания модели бинарного выбора метод максимального правдоподобия, естественным представляется сравнение максимумов функций правдоподобия, получаемых при оценивании модели с выполненными стандартными предположениями и при оценивании модели, в которой эти предположения не выполняются. При этом предполагается, что эти две модели - гнездовые, т.е. первая вложена во вторую, так что вторая модель является более сложной, а первая является частным случаем второй модели.

Здесь надо заметить, что сравнением максимумов правдоподобий в двух гнездовых моделях мы фактически уже пользовались выше. Действительно, на таком сравнении основаны определения коэффициентов 40 Глава pseudoR =1 - 1 + 2(ln L1 - ln L0 )/ n и ln LMcFaddenR =1 -.

ln LВ этом случае в качестве гнездовых моделей рассматриваются основная модель (с одной или несколькими объясняющими переменными помимо константы) и вложенная в нее тривиальная модель (в правую часть в качестве объясняющей переменной включается только константа).

Кроме того, если две гнездовые модели сравниваются с использованием информационных критериев (Акаике, Шварца, ХеннанаЦКуинна), то такое сравнение опять сводится к сравнению максимумов функций правдоподобия в этих моделях.

В этом разделе мы сосредоточимся на некоторых статистических критериях проверки гипотез о выполнении стандартных предположений, но прежде чем перейти к рассмотрению и применению подобных критериев, мы рассмотрим процесс порождения данных, приводящий к пробит-модели.

Предположим, что переменная yi характеризует УполезностьФ наличия некоторого предмета длительного пользования для i -й семьи, и эта полезность определяется соотношением y = 1xi1 +L+ xip + i, i =1,K, n, p i где xi1,K, xip - значения p объясняющих переменных для i -й семьи, 1,K, - случайные ошибки, отражающие влияние на n полезность наличия указанного предмета для i -й семьи каких-то неучтенных дополнительных факторов. Пусть i -я семья приобретает этот предмет длительного пользования, если yi >, i Модели с дискретными объясняемыми переменнымиЕ где i - пороговое значение, и индикаторная переменная yi отмечает наличие ( yi =1) или отсутствие ( yi = 0 ) данного предмета у i -й семьи. Тогда P{yi =1 xi}= P{yi > i xi}= P{1xi1 +L+ xip + i > i xi}= p = P{i > - 1xi1 -L- xip xi}, i p и если xi1 1, то P{yi =1 xi}= P{ > ( - 1)- (2 xi 2 + L + xip ) xi}.

i i p Если предположить, что ошибки 1,K,n - независимые в совокупности (и независимые от xij, j =1,K, p ) случайные величины, имеющие одинаковое нормальное распределение i ~ N(0, ), то тогда (2xi2 +L+ xip) = - 1) ( p i P{yi = 1 xi}= 1- (2xi2 +L+ xip).

(- + 1) p i = + (Здесь мы использовали вытекающее из симметрии стандартного нормального распределения соотношение 1- (x) = (-x).) Обозначая (- i + 1), =, j 1 = j получаем:

T P{yi =1 xi}= (1xi1 + L + xip )= (xi ).

p Но именно таким образом и определяется пробит-модель.

Пусть мы имеем в наличии только значения yi, xi1,K, xip, а значения y не доступны наблюдению. В таком случае переменную i y называют латентной (скрытой) переменной. Применяя метод i 42 Глава максимального правдоподобия, мы получаем оценки параметров пробит-модели 1,K,p, но не можем однозначно восстановить по ним значения параметров 1,K,, если не известны значения и p 1 n p 1,K,. Действительно, если оценки,,K,, 1,K, n таковы, что i (- + 1), j =, j 1 = 1 n то к тем же значениям 1,K,p приводят и оценки k, k,K, k, k1,K, k, где k - произвольное число, - < k <.

p Таким образом, в рассмотренной ситуации для однозначной идентификации коэффициентов 1,K, необходима какая-то p нормализация функции полезности. В стандартной модели предполагается, что =1 и 1 = L = = 0, так что n 1 = 1,K, = p, p и именно такую модель мы будем теперь рассматривать.

Прежде всего заметим, что при получении оценок параметров 1,K, в такой модели методом максимального правдоподобия p мы принципиально опираемся на предположение о нормальности ошибок 1,K,n : i ~ N(0,1). Поэтому важной является задача проверки этого предположения, т.е. проверка гипотезы H0 : 1,K,n ~ i.i.d., i ~ N(0,1).

Наряду со стандартной моделью (модель 1) рассмотрим модель 2, отличающуюся от стандартной тем, что в ней P{i t}= (t + 1t2 + 2t3), так что 2 T T T P{yi =1 xi}= xi + 1(xi ) + 2(xi ).

Модели с дискретными объясняемыми переменнымиЕ При этом модель 1 является частным случаем модели 2 (при 1 = = 0 ), так что модель 1 и модель 2 - гнездовые модели, и в рамках более общей модели 2 гипотеза H0 принимает вид H0 :1 = = 0.

Класс распределений вида P{i t}= (t + 1t2 + 2t3) допускает асимметрию и положительный эксцесс (островершинность) распределения. Следующий график позволяет сравнить поведение функции стандартного нормального распределения (t)(толстая линия) и функции (t + 0.5t2 + 0.5t3) (тонкая линия).

1. 0. 0. 0. 0. 0. -6 -4 -2 0 2 4 Пусть Lj - максимум функции правдоподобия в модели j, j = 1, 2, и LR = 2(ln L2 - ln L1). Критерий отношения правдоподобий отвергает гипотезу H0, если наблюдаемое значение статистики LR превышает критическое значение LRcrit, соответствующее выбранному уровню значимости. Этот критерий асимптотический: критическое значение LRcrit вычисляется на основе распределения, к которому стремится при 44 Глава n распределение статистики LR, если гипотеза H0 верна.

Этим предельным распределением является распределение хиквадрат с двумя степенями свободы. Итак, в соответствии с критерием отношения правдоподобий, гипотеза H0 отвергается, если LR > 1- (2), где 1- (2) - квантиль уровня 1- распределения хи-квадрат с двумя степенями свободы.

Обратимся опять к смоделированным данным о наличии или отсутствии собственных автомобилей у 1000 домохозяйств.

Оценивая пробит-модель (модель 1) по этим данным, мы получили следующие результаты:

Коэффициент Оценка Std. Error z-Statistic Prob.

-3.503812 0.200637 -17.46343 0.0.003254 0.000178 18.25529 0. -275.7686 Akaike info criterion 0.ln L Schwarz criterion 0. Hannan-Quinn criter. 0.Оценивание модели 2 дает следующие результаты:

Коэффициент Оценка Std. Error z-Statistic Prob.

-3.851178 0.324895 -11.85359 0.0.003540 0.000292 12.11708 0. 0.022954 0.025086 0.915039 0. -0.017232 0.010178 -1.693097 0. -274.6286 Akaike info criterion 0.ln L Schwarz criterion 0. Hannan-Quinn criter. 0.Модели с дискретными объясняемыми переменнымиЕ Соответственно, здесь LR = 2(ln L2 - ln L1) = 2(275.7686 - 274.6286) = 2.28.

Поскольку же 0.95(2)= 5.99, то критерий отношения правдоподобий не отвергает гипотезу H0 при уровне значимости 0.05. Заметим еще, что значению LR = 2.28 соответствует (вычисляемое по асимптотическому распределению (2) ) P значение 0.6802. Таким образом, критерий отношения правдоподобий не отвергает гипотезу H0 при любом разумном уровне значимости.

Еще одним Устандартным предположениемФ является предположение об одинаковой распределенности случайных ошибок i в процессе порождения данных. В сочетании с предположением нормальности этих ошибок, данное условие сводится к совпадению дисперсий всех этих ошибок. Нарушение этого условия приводит к гетероскедастичной модели и к несостоятельности оценок максимального правдоподобия, получаемых на основании стандартной модели. Для проверки гипотезы совпадения дисперсий мы можем опять рассмотреть какую-нибудь более общую модель с наличием гетероскедастичности, частным случаем которой является стандартная пробит-модель.

В примере с автомобилями можно допустить, что дисперсии случайных ошибок в процессе порождения данных возрастают с возрастанием значений xi, например, как D(i xi)= exp(k xi ), k > 0, так что (модель 3) + xi P{yi =1 xi}=.

exp(k xi ) Здесь мы имеем две гнездовые модели - модель 3, допускающую гетероскедастичность в указанной форме, и модель 1 (стандартную 46 Глава пробит-модель) как ее частный случай. В рамках модели выполнение стандартных предположений соответствует гипотезе H : k = 0.

Оценивание модели 3 по смоделированным данным дает следующие результаты:

Coefficient Std. Error z-Statistic Prob.

-3.141966 0.317695 -9.889867 0.0.002883 0.000316 9.132687 0. k -0.000236 0.000186 -1.269192 0.Akaike info criterion 0.ln L3 -275. Schwarz criterion 0. Hannan-Quinn criter. 0.При сравнении с моделью 1 получаем:

LR = 2(ln L3 - ln L1) = 2(275.2619 - 274.6286) =1.27.

Это значение меньше критического значения 3.84, соответствующего уровню значимости 0.05 и вычисленного как квантиль уровня 0.95 асимптотического распределения хи-квадрат с одной степенью свободы. Следовательно, гипотеза H0 : k = 0 не отвергается.

Отметим, что решения, принятые нами на основании критерия отношения правдоподобий, согласуются с решениями, принимаемыми в рассматриваемом примере на основании информационных критериев:

AIC SC HQ Модель 1 0.555537 0.565353 0.(пробит) Модель 2 0.557257 0.576888 0.Модель 3 0.556524 0.571247 0.(гетеро) По всем трем критериям стандартная пробит-модель предпочтительнее альтернативных моделей.

Модели с дискретными объясняемыми переменнымиЕ 1.6. Модели, в которых объясняемая переменная принимает несколько различных значений 1.6.1. Порядковая пробит-модель В том же примере с наличием или отсутствием у семьи собственного автомобиля значение yi =1 говорило только о том, что i-я семья имеет собственный автомобиль, но не говорило о том, сколько в действительности автомобилей имеет семья - один, два или, быть может, еще больше. Обращаясь к процессу порождения данных, ориентирующемуся на значения функции полезности и сравнение ее с пороговыми значениями, можно предположить наличие не одного, а двух пороговых значений для каждой семьи, так что при превышении первого порога семья имеет в наличии один автомобиль, а при превышении второго (более высокого) порога - два или более автомобилей.

Обобщая эту ситуацию, рассмотрим процесс порождения данных, в котором имеется некоторая ненаблюдаемая (латентная) переменная y, значения которой связаны со значениями xi1,K, xip i объясняющих переменных для i -го субъекта исследования следующим образом:

y = 1xi1 +L+ xip + i, i =1,K, n.

Pages:     | 1 |   ...   | 2 | 3 | 4 | 5 | 6 |   ...   | 30 |    Книги по разным темам