Многомерные статистические методы и их применение в экономике

Курсовой проект - Компьютеры, программирование

Другие курсовые по предмету Компьютеры, программирование

>

Имеются функции плотности нормально распределённых классов. Задана точка х в пространстве k измерений. Предполагая, что имеет наибольшую плотность, отнесем точку x к мy классу. Существует доказательство, что если априорные вероятности для определяемых точек каждого класса одинаковы и потери при неправильной классификации i-й группы в качестве j-й не зависят от i и j, то решающая процедура минимизирует ожидаемые потери при неправильной классификации.

Приведем пример оценки параметра многомерного нормального распределения и.

и могут быть оценены по выборочным данным: и для классов. Задано выборок из некоторых классов. Математические ожидания могyт быть оценены средними значениями

 

(7)

 

Несмещенные оценки элементов ковариационной матрицы есть

(8)

 

Следовательно, можно определить и по выборкам в каждом классе при помощи (7), (8).

Получив оценки, точку x отнесем к классу, для которой функция максимальна.

Введем предположение, что все классы, среди которых должна проводиться дискриминация, имеют нормальное распределение с одной и той же ковариационной матрицей .

В результате существенно упрощается выражение для дискриминантной функции.

Класс, к которому должна принадлежать точка x, можно определить на основе неравенства

 

>. (9)

 

Воспользуемся формулой (6) для случая, когда их ковариационные матрицы равны:, а есть вектор математических ожиданий класса i. Тогда (9) можно представить неравенством их квадратичных форм

 

>

 

Раскроем скобки.

 

>

(10)

Вспомним, если имеем два вектора Z и W, то скалярное произведение можно записать . выражении (10) исключим справа и слева, поменяем у всех членов суммы знаки. Теперь преобразуем

 

 

Сократим правую и левую часть неравенства (10) на 2 и, используя запись квадратичных форм, получим

 

(11)

 

Введем обозначения в выражение (11):

 

 

Тогда выражение (11) примет вид

 

> (12)

 

Следствие: проверяемая точка x относится к классу i, для которого линейная функция

 

(13)

Преимущество метода линейной дискриминации Фишера заключается в линейности дискриминантной функции (13) и надежности оценок ковариационных матриц классов.

Пример

Имеются два класса с параметрами и . По выборкам из этих совокупностей объемом и получены оценки и .

Первоначально проверяется гипотеза о том, что ковариационные матрицы и . равны. В случае если оценки и. статистически неразличимы, то принимается, что и строится общая оценка , основанная на суммарной выборке объемом , после чего строится линейная дискриминантная функция Фишера.

Существуют и другие методы. Так, в математическом обеспечении пакета "Олимп" используется пошаговый дискриминантный анализ.

 

.2.3 Дискриминантный анализ при нормальном законе распределения показателей

Имеются две генеральные совокупности Х и У, имеющие трехмерный нормальный закон распределения с неизвестными, но равными ковариационными матрицами. Из них взяты обучающие выборки с объемами и

 

(14)

(15)

 

Целью дискриминантного анализа является отнесение нового наблюдения (строки матрицы Z) либо к X либо к У.

 

(16)

 

Для решения задачи по обучающим выборкам определим векторы средних

 

и

 

1.Определим оценки ковариационных матриц

 

и

 

Найдем элемент матрицы :

 

 

где и - средние значения.

. Рассчитаем несмещенную оценку суммарной ковариационной матрицы

 

. Определим матрицу , обратную к .

. Вычислим вектор оценок коэффициентов дискриминантной функции

. Рассчитаем оценки векторов значений дискриминантной функции для матриц исходных данных

. Вычислим средние значения оценок дискриминантной функции

 

 

. Определим константу

Дискриминантную функцию для v-ого наблюдения, подлежащего дискриминации, получим решив уравнение

 

 

Если , то v-е наблюдение надо отнести к совокупности х, если же <, то v-e наблюдение следует отнести к совокупности y.

Правило здесь такое: если параметры максимально удалены друг от друга и равноудалены от среднего их значения, искомые дискриминанты найдены с минимальными погрешностями, объекты разграничены и включены в соответствующие классы верно, задача решена правильно.

И напротив, в случае обнаружения больших уклонений и погрешностей наблюдаемые объекты разграничены неверно, задача должна решаться заново, с уточнением её общей постановки и возможным привлечением дополнительных эмпирических данных.

 

1.3 Применение СКМ Mathcad при решении задач дискриминантного анализа

 

Mathcad создавался как мощный микрокалькулятор, позволяющий легко справляться с рутинными задачами инженерной практики, ежедневно встречающимися в работе: решение алгебраических или дифференциальных уравнений с постоянными и переменными параметрами, анализ функций, поиск их экстремумов; численное и аналитическое дифференцирование и интегрирование; вывод таблиц и графиков при анализе найденных решений.

Главными достоинствами Mathcad и его колоссальным преимуществом перед другими расчётными средствами являются лёгкость и наглядность программирования задачи, простота использования , возможность создания средствами Mathcad высококачественных технических