Основы построения систем распознавания образов
Методическое пособие - Компьютеры, программирование
Другие методички по предмету Компьютеры, программирование
?матривать существующую реализацию как модель.
Третья ситуация применения моделей систем распознавания представляется наиболее соответствующей конструирования систем распознавания. В том случае, когда целью моделирования алгоритма является выбор признаков распознавания и алфавита классов, состав модели оказывается наиболее полным по сравнению с другими и поэтому представляющим наибольший интерес.
Главное что отличает такую модель - это наличие модуля описания классов на языке признаков. Забегая вперед, можно заметить, что подобный модуль может быть и принадлежностью рабочего алгоритма СР. Наиболее это очевидно для обучающихся систем распознавания.
Алгоритм функционирования модуля описания классов на языке признаков в максимальной степени интересен для вероятностных систем распознавания. Другие системы имеют более простую и очевидную реализацию.
На начальной стадии модельной отработки вероятностной СР имеем дело с m классами и N признаками распознавания .В дальнейшем их число может быть изменено. Для этого и проводится моделирование.
, , :
_
Класс 1 : f(X/W1) и P(W1)
_
Класс 2 : f(X/W2) и P(W2)
_
Класс 3 : f(X/W3) и P(W3)
..............................
_
Класс m : f(X/Wm) и P(Wm)
При независимости всех N признаков обычно имеем:
_ _ _ _
f(X/W1) = f(X1/W1)*f(X2/W1)*....*f(XN/W1)
_ _ _ _
f(X/W2) = f(X1/W2)*f(X2/W2)*....*f(XN/W2)
.......................................
_ _ _ _
f(X/Wm) = f(X1/Wm)*f(X2/Wm)*....*f(XN/Wm)
Как видим, исходными данными для описания классов N признаками являются в этом случае частные описания каждого из классов по каждому признаку
f(Xj/Wi), где j = 1,N
Отсюда понятно, что если j-ый признак распознавания имитируется в модели объекта ( а у нас такая имитации будет предусмотрена), то при достаточном количестве запусков модели (числе испытаний) получим в каждом заранее известном классе ряд измерений
{Xjk} k = 1, Nисп
Отсюда статистической обработкой может быть получена сначала гистограмма плотности распределения вероятностей
f(Xj/Wi)
Затем аппроксимация этой плотности теоретическим непрерывным распределением (например нормальным) дает требуемое частное описание i-го класса по данному j-му признаку. Точно также получаются частные описания всех классов по каждому из признаков. Они и обеспечивают при указанной независимости признаков начальное описание всех классов.
Таким образом, отсюда понятно, что в составе модуля описания классов модели СР должен находиться субмодуль восстановления плотностей распределения вероятностей признаков в каждом из назначенных классов, реализующий рассмотренный алгоритм.
Обратим теперь внимание на то, что число классов и число признаков в соответствии с имеющимися представлениями о создании СР в исходном состоянии должно быть максимально возможным. Число классов - так как всегда есть стремление к максимальной детализации решений. Число признаков - так как их максимуму соответствует максимум вероятности правильной классификации.
В соответствии с этим модель СР может быть использована для оценки результативности увеличения числа признаков, введения новых. Здесь без дополнения ее путем доработок не обойтись. Ну, а все последующие шаги оптимизации СР, обеспечивающей максимум вероятности правильной классификации, связываются, во-первых, с выбором такого числа признаков, которое удовлетворяло бы имеющимся ограничениям на создание средств измерений и обработки информации. Таким образом, здесь уже имеем дело с противоположной тенденцией - ограничением числа признаков (исключением менее эффективных), но при стремлении сохранить достигнутую эффективность на полном их наборе.
Следовательно, во-вторых, в задачи оптимизации должны входить действия по компенсация потерь от уменьшения числа признаков, которые сопровождаются, как мы уже доказали, только уменьшением числа классов в исходном алфавите.
В результате сокращения числа признаков сокращенное описание будет иметь вид:
где k - число исключенных признаков распознавания из i-го класса
i = 1,(m-l)
l - число исключенных классов.
Причем здесь предполагается, что после отбора в состав вектора признаков тех, которые удовлетворяют предъявленным ограничениям, производится повторное описание классов .
Когда же есть необходимость уменьшить число классов, то исключаемые из алфавита классы вынужденно объединяются с теми оставшимися в его составе, для которых такое объединение не принесет увеличения числа ошибочных решений в системе. Тогда при объединении, например, двух классов (p-го и q-го) и тот и другой исчезают из алфавита и появляется один новый (m+1)-ый с описанием:
и
Естественно, что тогда (после исключения) последней алгоритмической функцией в модуле описания классов должна быть функция их перенумерации в новом составе.
Таким образом, последовательность алгоритмических действий модуля описания классов включает:
1)Расчет одномерных плотностей распределения вероятностей каждого из признаков по классам по репрезентатив