Оценка и прогнозирование приформовываемости верха обуви к стопе

Дипломная работа - Разное

Другие дипломы по предмету Разное



сперсии исходных признаков.

Метод главных компонент позволяет решать следующие задачи:

понижение размерности анализируемого пространства признаков и описание исследуемого процесса числом главных компонент, значительно меньшим, чем число исходных признаков. При этом, выделенные главные компоненты содержат в среднем больше информации, чем отдельные непосредственно замеряемые признаки;

выявление скрытых, но объективно существующих закономерностей, определяемых воздействием внутренних и внешних причин;

классификация (группирование) объектов на основе сжатого признакового пространства, выявление исходных признаков, наиболее тесно связанных с найденными главными компонентами;

прогнозирование значений интересующих параметров на основе уравнения регрессии, построенного по выделенным главным компонентам.

Снижение размерности исходного признакового пространства методом главных компонент осуществляется в следующей последовательности:

Формируется матрица исходных данных размерностью m n, в которой каждая строка соответствует одному из объектов (i = 1,2,тАж, n), а каждый столбец - одному из признаков (j = 1,2,тАж, m).

Таблица 3.20 - Матрица исходных данных

Номер объектаНомер признака123тАжm1 2 3 ... тАж тАж nх11 х21 х31 тАж тАж тАж хn1х12 х22 х32 тАж тАж тАж хn2х13 х23 х33 тАж тАж тАж хn3тАж тАж тАж тАж тАж тАж тАжх1m х2m х3m тАж тАж тАж хnm

В случае, когда признаки, характеризующие объект наблюдения, имеют различную размерность, осуществляется стандартизация исходных значений переменных (z - преобразование) по формуле:

zij = (3.41)

обувь верх стопа приформовываемость

где - среднее арифметическое значение признака;

sхj - дисперсия признака.

; (3.42)

Стандартизированные переменные характеризуются следующими свойствами:

; sхj = 1 (3.43)

Основным объектом преобразований в методе главных компонент является корреляционная матрица из коэффициентов корреляции Пирсона, полученная путем обработки массива исходных данных Х. Выделение общих факторов и сжатие информации сводится к воспроизведению с той или иной степенью точности исходной корреляционной матрицы, т.е. предполагается, что редуцированная корреляционная матрица получена с использованием тех же объектов, но описанных меньшим числом переменных. Таким образом, фактически под сжатием информации понимается уменьшение размерности корреляционной матрицы, а не самих данных.

Коэффициенты корреляции между рассматриваемыми признаками расiитываются по формуле:

, j = 1,тАж..m, k = 1,тАж..m (3.44)

с учетом равенств (3.43) формула (3.44) примет вид:

= (3.45)

По коэффициентам корреляции составляется матрица R корреляции между признаками размером m m, которая является исходным элементом для дальнейших раiетов:

(3.46)

Для нахождения параметров модели (3.40) определяются собственные значения и соответствующие им собственные векторы построенной корреляционной матрицы.

Собственными значениями квадратной матрицы R порядка m называются такие значения ?j, при которых система следующих m уравнений имеет нетривиальное решение:

RLj = ?jLj (3.47)

где Lj -собственные векторы матрицы R, соответствующие ?j; j=1,тАж m.

Преобразуя равенство (3.47) получают уравнение вида:

(R - ?jI) Lj =0 (3.48)

где I - единичная матрица.

Уравнение (3.48) имеет нетривиальные решения при условии, что определитель матрицы (R - ?I )обращается в нуль, т.е.:

= 0 или = 0 (3.49)

Так как порядок матрицы R равен m, то ?(?) является многочленом m-ой степени относительно ?, т.е.

?(?) = ? m + а1 ? m-1+ тАж+ аm-1 ? + аm (3.50)

Корни уравнения ?(?) = 0 дадут собственные значения ?1, ?2, тАж , ?m, при которых исходная система уравнений имеет нетривиальные решения.

Собственные векторы Lj, соответствующие этим собственным значениям, образуют факторы Fj. Элементы собственных векторов lj1, lj2, тАж,ljm получили название факторных нагрузок, которые представляют собой значения коэффициентов корреляции между соответствующими признаками и факторами. Чем теснее связь данного признака с рассматриваемым фактором, тем выше значение факторной нагрузки. Положительный знак факторной нагрузки указывает на прямую (а отрицательный знак - на обратную) связь данного признака с фактором.

Данные о факторных нагрузках позволяют сформулировать выводы о наборе исходных признаков, отражающих тот или иной фактор, и об относительном весе отдельного признака в структуре каждого фактора.

В соответствии с определением главные компоненты занумерованы в порядке убывания их дисперсий, т.е. S (F1) > S (F2) > тАж > S (Fm), причем:

S (Fj) = ?( Lj? X)2 = Lj?RLj (3.51)

Умножив равенство (3.47) на Lj? и сопоставив его с (3.51) получим, что:

S (Fj)= ?j (3.52)

Таким образом, величина ?j представляет собой не что иное, как часть суммарной дисперсии совокупности преобразованных данных, объясненную главной компонентой Fj.

Если переменные стандартизированы, то ?1 > ?2 > тАж > ? m , т. е. первые несколько членов разложения дают основной вклад в объяснение вариации величин исходных данных. В этом случае компоненты с малыми величинами собственных значений могут при анализе не учитываться и совокупность будет адекватно представлена с помощью первых k компонент.

Решение о том, сколько последних главных компонент можно без особого ущерба изъять из рассмотрения, сократив тем самым размерность исследуемого пространства, выносится ?/p>