Основы построения систем распознавания образов

Методическое пособие - Компьютеры, программирование

Другие методички по предмету Компьютеры, программирование

?матривать существующую реализацию как модель.

Третья ситуация применения моделей систем распознавания представляется наиболее соответствующей конструирования систем распознавания. В том случае, когда целью моделирования алгоритма является выбор признаков распознавания и алфавита классов, состав модели оказывается наиболее полным по сравнению с другими и поэтому представляющим наибольший интерес.

Главное что отличает такую модель - это наличие модуля описания классов на языке признаков. Забегая вперед, можно заметить, что подобный модуль может быть и принадлежностью рабочего алгоритма СР. Наиболее это очевидно для обучающихся систем распознавания.

Алгоритм функционирования модуля описания классов на языке признаков в максимальной степени интересен для вероятностных систем распознавания. Другие системы имеют более простую и очевидную реализацию.

На начальной стадии модельной отработки вероятностной СР имеем дело с m классами и N признаками распознавания .В дальнейшем их число может быть изменено. Для этого и проводится моделирование.

, , :

_

Класс 1 : f(X/W1) и P(W1)

_

Класс 2 : f(X/W2) и P(W2)

_

Класс 3 : f(X/W3) и P(W3)

..............................

_

Класс m : f(X/Wm) и P(Wm)

При независимости всех N признаков обычно имеем:

_ _ _ _

f(X/W1) = f(X1/W1)*f(X2/W1)*....*f(XN/W1)

_ _ _ _

f(X/W2) = f(X1/W2)*f(X2/W2)*....*f(XN/W2)

.......................................

_ _ _ _

f(X/Wm) = f(X1/Wm)*f(X2/Wm)*....*f(XN/Wm)

Как видим, исходными данными для описания классов N признаками являются в этом случае частные описания каждого из классов по каждому признаку

f(Xj/Wi), где j = 1,N

Отсюда понятно, что если j-ый признак распознавания имитируется в модели объекта ( а у нас такая имитации будет предусмотрена), то при достаточном количестве запусков модели (числе испытаний) получим в каждом заранее известном классе ряд измерений

 

{Xjk} k = 1, Nисп

Отсюда статистической обработкой может быть получена сначала гистограмма плотности распределения вероятностей

f(Xj/Wi)

Затем аппроксимация этой плотности теоретическим непрерывным распределением (например нормальным) дает требуемое частное описание i-го класса по данному j-му признаку. Точно также получаются частные описания всех классов по каждому из признаков. Они и обеспечивают при указанной независимости признаков начальное описание всех классов.

Таким образом, отсюда понятно, что в составе модуля описания классов модели СР должен находиться субмодуль восстановления плотностей распределения вероятностей признаков в каждом из назначенных классов, реализующий рассмотренный алгоритм.

Обратим теперь внимание на то, что число классов и число признаков в соответствии с имеющимися представлениями о создании СР в исходном состоянии должно быть максимально возможным. Число классов - так как всегда есть стремление к максимальной детализации решений. Число признаков - так как их максимуму соответствует максимум вероятности правильной классификации.

В соответствии с этим модель СР может быть использована для оценки результативности увеличения числа признаков, введения новых. Здесь без дополнения ее путем доработок не обойтись. Ну, а все последующие шаги оптимизации СР, обеспечивающей максимум вероятности правильной классификации, связываются, во-первых, с выбором такого числа признаков, которое удовлетворяло бы имеющимся ограничениям на создание средств измерений и обработки информации. Таким образом, здесь уже имеем дело с противоположной тенденцией - ограничением числа признаков (исключением менее эффективных), но при стремлении сохранить достигнутую эффективность на полном их наборе.

Следовательно, во-вторых, в задачи оптимизации должны входить действия по компенсация потерь от уменьшения числа признаков, которые сопровождаются, как мы уже доказали, только уменьшением числа классов в исходном алфавите.

В результате сокращения числа признаков сокращенное описание будет иметь вид:

где k - число исключенных признаков распознавания из i-го класса

i = 1,(m-l)

l - число исключенных классов.

Причем здесь предполагается, что после отбора в состав вектора признаков тех, которые удовлетворяют предъявленным ограничениям, производится повторное описание классов .

Когда же есть необходимость уменьшить число классов, то исключаемые из алфавита классы вынужденно объединяются с теми оставшимися в его составе, для которых такое объединение не принесет увеличения числа ошибочных решений в системе. Тогда при объединении, например, двух классов (p-го и q-го) и тот и другой исчезают из алфавита и появляется один новый (m+1)-ый с описанием:

и

Естественно, что тогда (после исключения) последней алгоритмической функцией в модуле описания классов должна быть функция их перенумерации в новом составе.

Таким образом, последовательность алгоритмических действий модуля описания классов включает:

1)Расчет одномерных плотностей распределения вероятностей каждого из признаков по классам по репрезентатив