2. Построение математических моделей по экспериментальным данным

Вид материалаЗадача

Содержание


2.2. Идентификация моделей с помощью регрессионного метода
Методы применяются для линейных по идентифицируемым параметрам моделям
Минимизируемой функцией ошибки (разности между прогнозируемой моделью и данными эксперимента) при регрессионном анализе является
2.2.1. Идентификация статических линейных систем
2.2.2. Идентификация нелинейных систем
2.2.3. Достоверность (адекватность) регрессионной модели
2.3. Построение моделей идентификации поисковыми методами
K – константа скорости. Решение этого уравнения при следующих начальных условиях: у=1
Подобный материал:
2. Построение математических моделей по экспериментальным данным


2.1. Постановка задачи идентификации


Задача идентификации формулируется следующим образом. Пусть в результате каких либо экспериментов над объектом замерены его входные X=(х1, х 2,…хn) и выходные переменные Y=(y1, y2,…ym) как функции времени. Требуется определить вид (структуру) и параметры некоторого оператора Â, ставящего в соответствие переменные X и Y.








В реальных условиях переменные и замеряются с погрешностьюи.Чаще всего эти погрешности считаются некоррелированными и аддитивными с полезной информацией, т.е. имеют вид


xi=xiист± (i=1,2…n)

yj=yjист± (j=1,2…m)


Различают задачи идентификации в широком (структурная идентификация) и узком смысле (параметрическая идентификация) соответственно. В первом случае неизвестна структура и параметры оператораÂ, во втором – лишь параметры этого оператора.

Таким образом, задача идентификации модели тесно связана с проведением эксперимента и обработкой экспериментальных зависимостей.

Задача параметрической идентификации сводится к отысканию таких оценок параметров математической модели Â, которые обеспечивают в каком либо смысле близость расчетных и экспериментальных значений выходных переменных при одинаковых входных . Отметим, что в общем случае необходимы измерения «m» компонент вектора , которые могут производиться при «к» повторениях эксперимента при «l» дискретных отметках времени (если идентифицируемый объект функционирует во времени). В качестве критериев количественной меры близости модели и оригинала чаще всего используются максимальные δу, средние mу и среднеквадратичные δу величины погрешностей рассогласования расчетных и экспериментальных значений урi и уэi, соответственно, т.е

d у = max | урi – уэi|

mу = 1/Nå ( урi – уэi ), (2.1)

,

где: i = 1, 2…, N = m + l + k - номер опыта по измерению компоненты уэi

Таким образом, задача параметрической идентификации сводится к минимизации одной из функций вида (2.1). Для минимизации могут быть использованы известные численные методы решения экстремальных задач.

Обилие существующих методов идентификации отражает разнообразие используемых математических моделей и методов их исследования. Очевидно, что идентифицировать модель детерминированного, линейного, стационарного процесса (модель считается стационарной, если её параметры либо постоянные, либо меняются медленно по сравнению со временем, необходимым для их идентификации) известной размерности, с одним входом – существенно проще, чем аналогичного стохастического процесса неизвестного порядка и степени стационарности.


^ 2.2. Идентификация моделей с помощью регрессионного метода


Регрессионный анализ представляет собой классический статистический метод. Благодаря своим широким возможностям регрессионные методы давно и успешно используются в инженерной практике. В последнее время в связи с развитием и внедрением быстродействующих ЭВМ они широко используются для идентификации моделей, в том числе для идентификации динамических, многомерных процессов, систем диагностики и управления в реальном масштабе времени. Регрессионный анализ основывается на двух главных принципах.

1. ^ Методы применяются для линейных по идентифицируемым параметрам моделям. Структура математической модели процесса представляется функцией вида:

, (2.2)


где аi i-тый оцениваемый параметр; fi- i-тая известная функция, - вектор входных воздействий, y – выходная переменная.

Возможно представление идентифицируемой модели в следующей форме:

(2.3)


где аi, bj – оцениваемые параметры; fiи - априори известные (заданные) функции. После несложных математических преобразований на основе этих функций можно формировать невязки, линейно зависящие от идентифицируемых параметров аi, bj.

На практике, чаще всего в качестве fiи выбираются степенные функции, а соответственно выражения (2.2) и (2.3) являются полиномиальными, либо дробно-рациональными зависимостями. При этом точность описания достигается увеличением числа членов полинома, обеспечивающих их сходимость к реальному процессу. Заметим, что получающаяся модель практически никогда не соответствует физической сущности моделируемого реального процесса, его истинному виду, однако инженерная простота вычислений, удобство практического использования модели, возможность получения результата без «особых размышлений» служит основной причиной широкого распространения на практике регрессионных методов.

Естественно, и в этом случае с помощью удачно выбранного вида полинома можно существенно сократить размер модели, а значит и трудоемкость вычислительного процесса, как при идентификации, так и при использовании модели.

2. ^ Минимизируемой функцией ошибки (разности между прогнозируемой моделью и данными эксперимента) при регрессионном анализе является сумма квадратов ошибок. Благодаря этому удается применить метод наименьших квадратов, математический аппарат которого предельно прост, а вычислительные методы сводятся к методам линейной алгебры.

Регрессионные модели могут быть как линейными, так и нелинейными с любым числом входов и выходов.


^ 2.2.1. Идентификация статических линейных систем

с несколькими входами


Пусть необходимо идентифицировать систему с «n» входами x1, x2,…xn и одним выходом y. Представим структуру модели в виде линейного алгебраического уравнения вида:

y=a0 + a1 x1+ a2 x2+…+ anxn , (2.4)

где a0, a1,..an - параметры модели, подлежащие идентификации. В результате идентификации мы должны получить вектор оценок истинного вектора . Этому вектору будет соответствовать оценка значения выходной величины .

Для определения значений произведем N последовательных измерений величины у, соответствующих в определенном смысле произвольным набором величин хi (i=1,2,…n). В результате получим вектор . По N наборам входных величин хi (i=1,2,…n) будет соответственно N оценок выходных величин




(2.5)



Разница характеризует погрешность каждой модели в каждом из N измерений. Суммарную погрешность будем характеризовать величиной:

(2.6)

Определение оценок производят из условия минимума величины суммарной погрешности J. Таким образом, основой идентификации регрессионными методами служит метод наименьших квадратов. Используя аппарат математического анализа, оценка вектора должна удовлетворять необходимому условию экстремума


(i=0,1,2,…n) (2.7)

Уравнения (2.7) позволяют построить вычислительный процесс идентификации вектора на основе N групп измерений y и . Для получения эффективных и несмещенных оценок * необходимо, чтобы N >> n. Если N= n+1, то в оценке шум измерений не будет сглажен, окажет негативное влияние и случайность наборов . Мерой ошибки регрессионной модели обычно служит величина среднеквадратичного отклонения . С увеличением N уменьшается флуктуация , ее величина и является определяющей для выбора N в рамках принятой структуры модели.

К обсуждаемому типу линейных моделей простым преобразованием сводятся применяемые на практике мультипликативные модели. Действительно, модель типа


(2.8)


с помощью логарифмирования и замены у=lnW, xi=lnZi (i = 1, 2, …m) приводится к виду y=. Зависимости (2.8) широко используются при построении моделей по эмпирическим данным в гидравлике, термодинамике, обработке металлов давлением и т.д. Можно сказать, что и другие типы нелинейных регрессионных моделей, в конечном итоге, сводятся к зависимостям (2.4).


^ 2.2.2. Идентификация нелинейных систем


Если величина среднеквадратичного отклонения идентифицируемой системы слишком велика, значит, структура модели неудовлетворительна и необходимо учитывать нелинейные члены алгебраического полинома. Рассмотрим порядок идентификации параметров нелинейной системы второго порядка с одним выходом у и входами Z1, Z2,… Zn.


(2.9)


Обозначим переменные Zi и произведения Zi Zj переменных в выражении (2.9) через новые переменные хi (i=1, 2,…m). С учетом этого, выражение (2.9) можно записать в виде:


, (2.10)

что совпадает с (2.4).

Для большинства систем 20% факторов определяют 80% свойств. Поэтому в процессе идентификации несущественные параметры, влияние которых на величину среднеквадратичного отклонения мало, отсеивают. Тем самым определение значений постоянных коэффициентов в (2.9) и в эквивалентном ему выражении (2.10) представляет собой процесс структурно-параметрической идентификации.


^ 2.2.3. Достоверность (адекватность) регрессионной модели

Обычно мерой ошибки регрессионной модели служит стандартное (среднеквадратичное) отклонение . Для процессов, подчиняющихся закону нормального распределения, приблизительно 66% точек находится в пределах одного стандартного отклонения от модели и 95% точек в пределах двух стандартных отклонений.


Стандартное отклонение – важный показатель для решения вопроса о достоверности модели. Большая ошибка может означать, что модель не соответствует процессу, который послужил источником экспериментальных данных. Однако большая ошибка модели может быть вызвана и другой причиной: большим разбросом данных измерений. В этом случае, возможно, потребуется взять большее количество выборок.

Для характеристики среднего разброса относительно линии регрессии применяют дисперсию адекватности:

; f – число степеней свободы.

Проверка значимости (качества предсказания) множественного уравнения регрессии можно осуществить на основе F-критерия Фишера. Вычисляют дисперсию среднего:

.


Вычисляют так называемую остаточную дисперсию (дисперсию адекватности):


.


Сравнивают с числом степеней свободы в числителе , в знаменателе . Считают, что уравнение регрессии предсказывает результаты опытов лучше среднего, если F достигает или превышает границу значимости при выбранном уровне значимости р (обычно принимают р = 1 – q = 5 %, q – вероятность предсказания). Другими словами, F – критерий Фишера показывает во сколько раз уравнение регрессии предсказывает результаты опытов лучше,чем среднее «у».

^ 2.3. Построение моделей идентификации поисковыми методами


При нелинейной параметризации дело обстоит сложнее. Приходится решать систему нелинейных уравнений. Для этого можно использовать методы последовательного приближения.

Предположим, что y (функция отклика) – доля химического вещества А, оставшаяся к моменту времени x1 в результате реакции типа А→В. Зависимая переменная y удовлетворяет дифференционному уравнению (известно из литературы): , где ^ K – константа скорости. Решение этого уравнения при следующих начальных условиях: у=1 при х=0 имеет вид: у= exp (-К х1); K зависит от абсолютной температуры х2 следующим образом:

К= b1 ехр (-b2 / х2) , b1 – предэкпоненциальный множитель, b2 – энергия активации. Модель процесса

(2.11)

нелинейна по параметрам b1, b2 .



Если ввести то





Начальные (нулевые) значения параметров b10,b20 могут быть получены методом линеаризации:

ln у = - b1х1 ехр ( -b2 / х2); ln у (- ln у) = ln b1 - b2 / х2 + ln х1 или

, где , , , .

Поисковые методы идентификации. В этих методах принятый критерий невязки (показатель качества идентификации) формируется из выходных характеристик объекта и его идентифицируемой модели и минимизируется с помощью численных методов. Итерационный процесс изменения вектора идентифицируемых параметров определяется используемым алгоритмом (методом) поиска и текущей ситуацией.