Основы построения систем распознавания образов
Методическое пособие - Компьютеры, программирование
Другие методички по предмету Компьютеры, программирование
»и это возможно по назначению системы).
Теперь постараемся понять имеющиеся связи, рассматривая отношения между числом классов и ошибками распознавания. Для удобства рассматриваем одномерный случай (вместо вектора признаков без ущерба для задачи, но для ясности физических представлений, имеем один признак.
Пусть заданы три класса объектов W1, W2, W3
- распределениями вероятностей f(x/W1), f(x/W2 ), f(x/W3 ), где x - вероятностный признак распознавания ;
- априорными вероятностями P(W1), P(W2), P(W3);
- матрицей потерь при решениях
Теперь поймем, что если априорная вероятность отнесения объекта к i-му классу, в то время как он принадлежит к j-му классу (то есть, априорная вероятность ошибки) равна
P(Wi /Wj ),
то среднее значение платы за ошибочную классификацию всех m объектов в системе распознавания определяется как условное МОЖ потерь (зависимость от Wj
В целом средние потери классификации (то есть, потери по всем классам) определяются как среднее
Остается определить вероятность P(Wi /Wj ), так как априорное описание классов напрямую не дает ее значений.
Изобразим ситуацию классификации в рассматриваемом нами примере в виде функций ПРВ параметра распознавания для трех классов (Рис 4.1.1)
f(x/Wi)
f(x/W1) f(x/W2) f(x/W3)
a b X
Рис. 4.1.1
Если теперь определить области возможного разброса параметра распознавания каждого класса как Gi ,то легко определить записанную нами вероятность ошибки так
Обозначим указанные области Gi на рисунке. Здесь эти области в силу одномерности случая должны представлять собой отрезки. Поэтому достаточно указать границы
а - граница между 1-ым и 2-ым классами;
b - граница между 2-ым и 3-им классами
Соответственно отрезки:
1-го класса ]- +a];
2-го класса ]+a +b];
3-го класса ]+b + [ .
Теперь можно записать в соответствии с приведенной формулой условные риски ошибочных решений
Отсюда средний риск ошибочных решений в системе распознавания (то есть, риск ошибочной классификации всех классов):
Для простоты рассмотрения принимаем Сii = 0, Cij = C, Pi = P и, пользуясь рисунком, получим
Здесь обозначен средний риск индексом "1", так как теперь рассмотрим вторую ситуацию, для которой постараемся уменьшить число классов, объединяя первый и второй классы в один - четвертый.
Определим по правилам теории вероятностей ПРВ четвертого класса по ПРВ первого и второго классов
До этого мы упрощали представление вероятностей и плат за ошибки для трех классов. Добавим к этому и четвертый класс
C44=0; C14 =C41 = C.
На рисунке ПРВ классов изобразим ПРВ четвертого класса (пунктир).
Теперь можно записать, как и в первом случае (три класса), условные риски ошибочных решений для оставшихся 3-го и 4-го классов
(Условные риски R1 и R2 здесь отсутствуют, так как произошло объединение 1-го и 2-го классов в 4-ый. Кроме того, матрица плат за ошибки с учетом четвертого класса приняла сначала следующий вид
а затем из нее за счет того же объединения исключили столбцы и строки, имевшие индексы "1" и "2". В результате получили:
Средний риск для случая двух оставшихся классов W3 и W4 обозначим индексом "2" и также, как для первого случая, после простых преобразований получим
.
Теперь, если подставим сюда вместо ПРВ f(x/W4) его выражение, определенное уже нами, то получим
Наконец мы можем сравнить средний риск R1 и R2
__ __
R1 > R2
Вывод:
При заданном признаковом пространстве и прочих равных условиях уменьшение числа классов приводит к меньшению ошибок распознавания.
Следствие:
При увеличении числа классов для уменьшения среднего риска (через уменьшение вероятности ошибочных решений) необходимо включать в состав словаря признаков такие, которые имеют меньший разброс.
Действительно, для рассмотренного нами одномерного случая по приведенному рисунку можно проследить, что вероятности ошибочных решений снижаются, если распределения имеют меньший разброс. То есть, при этом опять-таки уменьшается риск ошибочных решений в системе и тем самым достигается большая эффективность, но теперь уже без уменьшения числа классов.
Л е к ц и я 4.2
Оптимизация алфавита классов и словаря признаков
(продолжение)
4.2.1. Взаимосвязь размерности вектора признаков и эффективности СР
Из предположений, возникающих в связи с приведенным следствием изучения вопроса уменьшения числа классов, можно заключить, что увеличение числа признаков должно приводить к повышению эффективности СР, так как рано или поздно в составе вектора может появиться такой признак, разброс которого минимален. Это качественное утверждение является достаточно важным в построении систем распознавания и поэтому требует строгого доказательства.
Итак, докажем, что с увеличением числа признаков вероятность правильного распознавания неизвестных объектов также увеличивается.
Рассмотрим такое доказательст?/p>