Распознавание и прогнозирование лесных пожаров на базе ГИС-технологий

Дипломная работа - Экология

Другие дипломы по предмету Экология



ирования классификатора образов состоит вначале из разбиения пространства измерений (лесных горючих материалов) на области решения так, чтобы каждый тип ЛГМ относился к данному различному классу, который может отождествлять любой вектор измерений как принадлежащий к классу, соответствующему той области решения, в которую он попадает.

Пусть мы имеем m классов горючих материалов и определены соответствующие этим классам области решения. Пусть мы можем найти множество функции Х, называемых дискриминантными, которые обозначим , обладающими теми свойствами, что имеет большее значение, чем все стальные дискриминантные функции, всякий раз, когда Х - точка в i-ой области решения. Если мы хотим классифицировать любую точку Хи, то есть определить, к какой области решения она относится, то нам надо вычислить только .

Точка Хи принадлежит к классу имеющему наиболее значение . Правило классификации заключается в следующем:

пусть Wi обозначает i-ый класс; решаем, что , если и только если для всех j=1,2...m. Действительно две дискриминантные функции могут иметь равные значения только в точках, лежащих на границе раздела областей решения. Для этих случаев определяем правила разрешения неопределенности.

Дискриминантные функции вычисляют на основе информации, выделенной из набора обучающих образов, то есть векторов измерений с известной классификацией, которые считаются типичными представителями интересующих нас классов. обучающая процедура проста и выполняется автоматически, но сходимость к решению гарантирована только тогда, когда обучающиеся образы разделимы линейной границей. Но когда классы образов перекрываются, данный метод не подходит. Поэтому для этих случаев используется статистический подход для распознавания ЛГМ в силу ряда горючих материалов для классификации спектральных измерений с неизвестной идентификацией.

Если число возможных значений данных велико, для записи в память ЭВМ гистограммы может потребоваться очень много места. Число ячеек памяти, необходимых для записи n-мерной гистограммы, в которой каждое измерение может принимать Р значений, равно Рn. Один из способов разрешения этой трудности - предположить, что функция распределения вероятностей может быть адекватно аппроксимирована кривой, имеющей простую функциональную форму, например, нормальной функцией плотности вероятностей. Функция распределения вероятностей для класса i, оцененная по обучающим выборкам имеет вид:

2.5.2.

- оценка дисперсии;

- оценка математического ожидания.

Сделав такое параметрическое предположение о том, что функция вероятности любого класса может быть аппроксимирована нормальной функции плотности, мы должны хранить в ЭВМ вместо всей гистограммы только математическое ожидание и дисперсии каждого класса. Использование матричной записи [ ], позволяет получить очень компактное выражение формул двухмерной или n-мерной функции плотности вероятностей. Для общего случая n-мерных данных:

Тогда многомерная n-мерная функция плотности может быть записана так:

2.5.3.

гдеХ - вектор данных;

Ui - вектор математического ожидания;

- ковариационная матрица для класса i;

- определитель ковариационной матрицы ;

- траксионированный вектор (Х-Ui).

Предполагая, что n-мерная гистограмма частотного определения для каждого класса допускает аппроксимацию многомерной нормальной функцией плотности, мы получаем возможность описать классы ЛГМ с помощью их векторов математических ожиданий и ковариационных матриц. Однако при использовании этого предположения нужно уделить внимание двум вопросам.

Во-первых, при обучении образов должны быть адекватные обучающие выборки, позволяющие оценить математические ожидания и ковариационные матрицы каждого класса ЛГМ.

Во-вторых, имеются случаи, когда это предположение отвергается с полной очевидностью.

Пусть мы имеем m классов горючих материалов. Пусть Р(Х/Wi) - функция плотности вероятностей, зависящая от вектора Х, при условии, что Х принадлежит горючим материалам класса i. Пусть Р(Wi) - априорная вероятность класса i, то есть вероятность наблюдения образа из класса i, независимо от любой другой информации.

Решающее правило по максимуму правдоподобия. Примем решение , если и только для всех j=1,2...m 2.5.4.

Набор произведений , образует набор дискриминантные функций, а теперь определим эти функции. Для начала определим множество функций для m классов ; j=1,2...m, где - потери вызванные классификацией образов из класса j в классе i. Основная наша задача - минимизация средних потерь для всего набора предстоящих классификаций или байесовская оптимальная стратегия. Для данного типа горючих материалов Х средние потери при отнесении Х к классу i вычисляем по формуле:

2.5.5.

где - условная вероятность того, что Х принадлежит классу j.

Соотношение между совместными и условными вероятностями

2.5.6.

Подставив выражение 2.5.6. в 2.5.5., имеем

2.5.7.

Это выражение приводит к набору дискриминантные функций, если применить три правила:

1. Минимизация набора функций эквивалентна максимизации тех же функций с обратным знаком;

2.Подходящий набор функций потерь