Книги по разным темам Pages:     | 1 |   ...   | 19 | 20 | 21 | 22 | 23 |   ...   | 32 |

aina* i, j = jn В скалярно-координатной форме уравнения (4.133) и (4.134) принимают вид * k Sn+1(an) * Dil,n [ yn+1 - Sn+1(an)] * aln * * l =1 * ai,n+1 = ain +, ai0 = ai (0), * * k Sn+1(an) Sn+1(an) Dlm,n + Q,n+ * * aln amn l,m=* * k Sn+1(an ) Sn+1(an) Dil,nDmj,n * * aln amn l,m=Dij,n+1 = Dij,n -, * * k Sn+1(an) Sn+1(an) Dlm,n + Q,n+ * * aln amn l,m=Dij,0 = Dij (0), i, j = 1, k.

4.8.2.3. АЛГОРИТМЫ СИНТЕЗА ДЛЯ НЕПРЕРЫВНОГО ВРЕМЕНИ Для многомерных процессов уравнения фильтрации в непрерывном времени при локальной гауссовской аппроксимации получают путем предельного перехода в уравнениях (4.125) и (4.126).

Подставим в эти уравнения значения экстраполированных параметров (4.127) и (4.128), а также учтем n=t(tn), Qn=Nn/t, Q,n+1=N,n+1/t. После предельного перехода t0 получим дифференциальные уравнения оценок и дисперсии ошибок оценок для расширенного фильтра Калмана T * dx*(t) St (xt ) * -1 * = ft (xt ) + D(t) N [y(t) - St (xt )], x*(t0) = x(0), t dt x* T * * dD(t) ft (xt ) ft (xt ) = D(t) + D(t) + tN tT t dt x* x* T * * St (xt ) St (xt ) - D(t), D(t0) = D(0).

- D(t) N t x* x* Приведем также полученные путем предельного перехода дифференциальные уравнения фильтрации в непрерывном времени квазидетерминированных процессов T * da*(t) St (at ) -1 * = D(t) N [ y(t) - St (at )], a*(t0) = a(0), t dt a* T * * dD(t) St (at ) St (at ) - D(t), D(t0) = D(0).

= -N D(t) t dt a* a* 4.8.3. МЕТОД СТАТИСТИЧЕСКОЙ ЛИНЕАРИЗАЦИИ В отличие от метода локальной гауссовской аппроксимации, пригодного для малых ошибок фильтрации в окрестности оценки x*, в методе статистической линеаризации оценка определяется в значительно более широкой области изменения случайных функций.

Как было показано в разд. 3.4.2, для многих нелинейных функций, в том числе и для существенно нелинейных, можно построить в вероятностном смысле приближенную относительно простую зависимость между входным и выходным сигналами. Это достигается заменой безынерционной нелинейной функции статистически эквивалентным линеаризированным преобразованием, учитывающим наиболее существенные свойства исходной нелинейной функции.

Метод статистической линеаризации, в основе которого также лежит гауссовское приближение апостериорной плотности вероятности, получил широкое распространение, так как позволяет построить сравнительно несложные алгоритмы синтеза для нелинейных систем с инерционными звеньями при гауссовском распределении ошибок измерения.

4.8.3.1. АЛГОРИТМЫ СИНТЕЗА ДЛЯ ОДНОМЕРНОГО МАРКОВСКОГО ПРОЦЕССА Согласно общей идеи статистической линеаризации безынерционные нелинейные функции f(x) и S(x) описываются линеаризированными зависимостями (3.69) f(x)f0+Kf(x-x*), (4.135) ~ S(x)S0+KS(x- x ), (4.136) где f0 и S0 - моментные функции, называемые статистическими характеристиками нелинейных функций (НФ), Kf и KS ~) статистические коэффициенты усиления, (x-x*) и (x- x центрированные составляющие случайных процессов.

Запишем линеаризированные выражения (4.135) и (4.136) с учетом зависимостей между статистическими характеристиками и коэффициентами усиления НФ (3.72) для дискретного времени * f0n(xn, Dn) * * fn (xn) f0n(xn, Dn ) + (xn - xn) = * xn (4.137) f0n = f0n + (xn - x*), x* ~ Sn+1(xn+1) S0,n+1(~n+1, Dn+1) + x ~ S0,n+1(~n+1, Dn+1) x ~ + (xn+1 - xn+1) = (4.138) ~n+x S0,n+~ = S0,n+1 + (xn+1 - xn+1).

~n+x Уравнения одномерного марковского процесса и скалярного наблюдаемого сигнала соответственно имеют вид (4.106) и (4.107).

Функция правдоподобия и плотность вероятностей в отсутствии полезного сигнала равны (4.108) и (4.109). После подстановки ~ выражения (4.138) в ФП первая и вторая производные по xn+1= xn +логарифма ФП соответственно равны S0,n+-(1)1(~n+1) = Q,n+1 [yn+1 - S0,n+1], (4.139) x n+ ~n+x S0,n+ - (2)1(~n+1) = -Q,n+1. (4.140) x n+ ~n+x Подставляя выражения (4.139) и (4.140) соответственно в уравнения (4.45) и (4.47) при K=2, получим с учетом соотношений (4.85) и (4.87) рекуррентный алгоритм фильтрации одномерного марковского процесса в дискретном времени - S0,n+1 ~ S0,n+ ~ * ~ xn+1 = xn+1 + Dn+1 Dn+1 + Q,n+~n+1 ~n+1 (4.141) x x * [yn+1 - S0,n+1], x0 = x(0), - S0,n+ ~ ~2 S0,n+1 ~ Dn+1 = Dn+1 - Dn+1 + Q,n+1, ~n+1 Dn+1 ~n+1 (4.142) x x D0 = D(0).

Используя в выражениях (4.53) и (4.54) представления нелинейной функции (4.135), после вычислений получим экстраполированные оценки и дисперсии ошибок оценок * ~ xn+1= xn+tf0n, (4.143) f0n ~ Dn+1 = Dn + 2t Dn + Qn. (4.144) n * xn Как следует из полученных выражений, в виду зависимости ~ ~ ~ S0,n+1 и S0,n+1/ xn+1 от экстраполированных параметров xn+1 и Dn+линеаризированные уравнения (4.141) и (4.142) следует решать совместно.

В связи с появлением дополнительной операции определения статистических характеристик НФ, рассмотрим порядок решений * этих уравнений. С помощью вычисленных на шаге n оценки xn и дисперсии Dn определяют по приведенной ниже методике * статистические характеристику fn0( xn,Dn) и коэффициент усиления * * f0n( xn,Dn)/ xn линеаризируемой НФ fn(xn), которые далее используются в выражениях (4.143) и (4.144) при вычислениях ~ ~ экстраполированных параметров xn+1 и Dn+1.

Применяя уже упомянутую методику на шаге n+1 определяют ~ ~ статистические характеристику So,n+1( xn+1, Dn+1) и коэффициент ~ ~ ~ усиления S0,n+1( xn+1, Dn+1)/ xn+1 линеаризируемой НФ Sn+1(xn+1).

~ ~ ~ Подставляя полученные значения xn+1, Dn+1, S0,n+1 и S0,n+1/ xn+1, а также результаты измерения yn+1 в уравнения (4.141) и (4.142), * рассчитываем новые значения оценки xn+1 и Dn+1. Затем цикл вычислений повторяется с определения на шаге n+2 значений f0,n+1 и * ~ f0,n+1/ xn+1, и соответственно, экстраполированных параметров xn+~ и Dn+2.

Рассмотрим методы получения статистических характеристик НФ экспоненциального типа Sn+1(xn+1)=An+1exp{-xn+1}, а также НФ, аппроксимируемых кусочно-линейной функцией.

Статистическую характеристику НФ экспоненциального типа можно определить в результате усреднения НФ относительно гауссовской экстраполированной плотности вероятностей n S0,n+1 = M{Sn+1(xn+1) | y1 } = ~ (4.145) (xn+1 - xn+1)~ = An+1(2Dn+1)-1/ 2 exp-xn+1 ~ dx.

2Dn+1 n+ ~-1/ ~~ Введем замену z = (xn+1 - xn+1)Dn+12 + Dn/ 2. После подстановки +z2 в выражение (4.145) и интегрирования получим ~ S0,n+1 = An+1 exp-~n+1 + Dn+1.

x Статистический коэффициент усиления вычисляется из соотношения ~ S0,n+ Dn+KS,n+1 = = -An+1 exp-~n+1 +.

x x ~n+1 При кусочно-линейной аппроксимации НФ воспользуемся изложенным в работе [29] методом. НФ y=S(x) (Рис. 4.2) по оси x разбивается на q участков, в пределах каждого из которых она полагается линейной. При x1= и xq=- можно записать значения кусочно-линейной функцией для первого участка S1(x)y2+1(x-x2) при >x>x2, для остальных участков Sk(x)yk+k(x-xk) при xk>x>xk+1, k=2,...,q-1, где k - значение крутизны k-го участка.

y yq- yq- yk yk- y y0 xq-1 xq-2 xk xk-1 x3 x2 x Рис. 4.2. Аппроксимация нелинейной характеристики кусочно-линейной функцией ~) ~ Заменив переменную x на = (x - x / D, получим для первого и остальных участков ~ ~ ~)=y2+1( ~-x2)+1 D при >>2, S1( D + x x ~ ~ ~)=yk+k( ~-xk)+k D при k>>k+1.

Sk( D + x x На основании принципа суперпозиции запишем для статических характеристик и коэффициентов усиления q q S = K0k, S, K0 = k k =1 k =k+1 k+1 ~ ~) Sk ( D + x ~ ~)( где Sk = Sk ( D + x )d, K0k = ( )d, ~ D k k ( ) = (2 )-1/ 2 exp- - функция плотности вероятностей.

После интегрирования получаем для первого участка (результаты приводятся для дискретного времени tn, n=1,2,...) ~ S1n = {y2 +1[~n - x2]}[(2) +1] -1(2) Dn, x K01,n = {y2 + 1[~n - x2]}[-(2)] + x ~ Dn ~ + 1 Dn [(2) +1] - 2(2);

для k-го участка (k=2,3,...q-1) Skn = {yk +k[~n - xk ]}[(k +1) - (k )] + x ~ + k Dn [(k ) -(k +1)], ~ K0k,n = {yk +k[~n - xk ]}[(k ) -(k +1) + k Dn x ~ Dn k(k ) -k +1(k +1) + [(k +1) - (k )];

для q-го участка ~ Sqn = {yq +q[~n - xq ]}[1- (k )] +q Dn(k ), x K0q,n = 1 ~ = + q (~n - xq )}(q ) + q Dn q(q ) + [1- (q )].

x ~ Dn {yq k Значения интеграла вероятностей (k ) = ( )d и функции плотности вероятностей (k) приведены в [29].

Рекуррентный алгоритм отношения правдоподобия можно получить если подставить представление НФ (4.38) в соотношение (4.119), а результат интегрирования в уравнение (4.118) -n+1 = n + n yn+1S0,n+1Q,n+1. (4.146) 4.8.3.2. АЛГОРИТМЫ СИНТЕЗА ДЛЯ МНОГОМЕРНОГО МАРКОВСКОГО ПРОЦЕССА При определении рекуррентных уравнений фильтрации и обнаружения используется многомерные уравнения марковских процессов (4.120), наблюдаемого сигнала (4.121) и функция правдоподобия (4.122).

После статистической линеаризации многомерных НФ последние принимают в дискретном времени форму * f0n(xn, Dn) * * fn (xn) f0n(xn, Dn ) + (xn - xn) = * xn (4.147) f0n * = f0n + (xn - xn ), * xn ~ Sn+1(xn+1) S0,n+1(~n+1, Dn+1) + x ~ S0,n+1(~n+1, Dn+1) x ~ + (xn+1 - xn+1) = (4.148) ~n+x S0,n+~ = S0,n+1 + (xn+1 - xn+1), ~n+x * * ~ где fn(xn), f0n, (xn- xn), (xn+1- xn+1) - вектора размера (r1), f0n/ xn - матрица Якоби размера (rr), (ij) - компонента которой f0i,n/ x* (i - jn номер строки, j - номер столбца); Sn+1(xn+1) и S0,n+1 - вектора размера ~ (q1), S0,n+1/ xn+1 - матрица Якоби размера (qr), (ij) компонента ~ которой S0i,n+1/ x (i - номер строки, j - номер столбца).

j,n+В результате подстановки соотношений (4.174) и (4.148) в выражения (4.120), (4.122) и (4.58), определения производных логарифма ФП-вектора (1)1(~n+1) и матрицы (2)1(~n+1), x x n+ n+ использования их в уравнениях (4.61) и (4.62) получаем рекуррентные уравнения оценки и дисперсии ошибки оценки при статистической линеаризации нелинейных функций T S0,n+ ~ * ~ xn+1 = xn+1 + Dn+~n+x - S0,n+1 ~ S0,n+1 T (4.149) Dn+1 x + Q,n+x ~n+1 ~ * [yn+1 - S0,n+1], x0 = x(0), T S0,n+ ~ ~ Dn+1 = Dn+1 - Dn+~n+x - S0,n+1 ~ S0,n+1 T + Q,n+1 (4.150) ~n+1 Dn+1 x x ~n+S0,n+1 ~, D0 = D(0), ~n+1 Dn+x где * ~ xn+1= xn+tf0n, (4.151) T f0n f0n ~ T Dn+1 = Dn + t * Dn + tDn * + nQnn. (4.152) xn xn Как следует из полученных результатов, уравнение оценки нелинейно относительно самого вектора оценки, а уравнение дисперсии зависит от вектора оценки и его необходимо решать совместно с уравнением оценки.

Используя уже известный подход для скалярных процессов, приходим к рекуррентному уравнению отношения правдоподобия q n+1 = n + n yi,n+1S0i,n+1Qi1n+1.

, i=При формировании рекуррентных алгоритмов фильтрации и обнаружения квазидетерминированных процессов (4.89) используется скалярное уравнение наблюдаемого сигнала (4.129) и функция правдоподобия (4.130). После статистической линеаризации скалярной функции Sn+1(a), последняя принимает в дискретном времени вид * S0,n+1(an, Dn ) * * Sn+1(a) S0,n+1(an, Dn) + (a - an) = * an (4.153) S0,n+* = S0,n+1 + (a - an), * an * где S0,n+1/an - вектор-строка размера (1k) из компонент * * * Sn+1(an )/anj, j=1,k; (a-an ) - вектор-столбец размера (k1).

В результате подстановки (4.153) в ФП (4.62), определения * * производных логарифма ФП-вектора (1)1)(an ) и матрицы (2)1(an ), n+ n+ использования их в уравнениях (4.61) и (4.62) при K=2 получаем рекуррентные уравнения оценки и дисперсии ошибки сигнала при статистической линеаризации нелинейных функций -T T S0,n+1 S0,n+1 S0,n+* * an+1 = an + Dn * + Q,n+ (4.154) an an Dn an * * * [ yn+1 - S0,n+1], a0 = a(0), T S0,n+1 S0,n+ Dn+1 = Dn - Dn * * Dn an an (4.155) - S0,n+1 S0,n+1 T Dn + Q,n+1, D0 = D(0), * * an an где выражения в квадратных скобках являются скалярными величинами.

К рекуррентному алгоритму отношения правдоподобия можно прийти после подстановки выражения (4.153) в интегральное соотношение (4.119) и последующего вычисления по формуле (4.118) -n+1 = n + n yn+1S0,n+1Q,n+1.

В скалярно-координатной форме уравнения (4.154) и (4.155) принимают вид k S0,n+Dil,n * [yn+1 - S0,n+1] aln * * l =1 * ai,n+1 = ain +, ai0 = ai (0), k S0,n+1 S0,n+Dlm,n * + Q,n+ * aln amn l,m=k S0,n+1 S0,n+Dil,nDmj,n * * aln amn l,m=Dij,n+1 = Dij,n -, Dij,0 = Dij (0).

k S0,n+1 S0,n+Dlm,n * + Q,n+ * aln amn l,m=4.8.3.3. АЛГОРИТМЫ СИНТЕЗА ДЛЯ НЕПРЕРЫВНОГО ВРЕМЕНИ Для многомерных процессов уравнения фильтрации в непрерывном времени при статистической линеаризации нелинейностей получают путем предельного перехода в уравнениях (4.149) и (4.150). Подставим в эти уравнения экстраполированные параметры (4.151) и (4.152), а также учтем n=t(tn), Qn=Nn/t, Q,n+1=N,n+1/t.

После предельного перехода t0 получаем дифференциальные уравнения оценок и дисперсии ошибок оценок T * dx*(t) S0t (xt, Dt ) * = f0t (xt, Dt ) + D(t) * dt xt -1 * N [y(t) - S0t (xt, Dt )], x*(t0) = x(0), t T * * dD(t) f0t (xt, Dt ) f0t (xt, Dt ) = D(t) + D(t) + tN tT t * * dt xt xt T * * S0t (xt, Dt ) S0t (xt, Dt ) - - D(t) N D(t0) = D(0).

* * xt t xt D(t), Для квазидетерминированных процессов после предельного перехода в уравнениях (4.154) и (4.155) соответствующие дифференциальные уравнения принимают вид T * da*(t) S0t (at, Dt ) = D(t) * dt at -1 * N [y(t) - S0t (at, Dt )], a*(t0) = a(0), t T * * dD(t) S0t (at, Dt ) S0t (at, Dt ) - = -N D(t) D(t0) = D(0).

t * * dt at at D(t), 4.9. ЭКСТРАПОЛЯЦИЯ И ИНТЕРПОЛЯЦИЯ 4.9.1. ОБЩИЕ ОПРЕДЕЛЕНИЯ Рассматриваемые задачи экстраполяции (прогнозирования) и интерполяции являются задачами оценивания, для которых оценки определяются соответственно в моменты времени t1>t или t0

Качество работы алгоритмов экстраполяции и интерполяции непрерывных динамических систем, как и для ранее рассмотренных > задач фильтрации, определяется решающим правилом t1 (ytt ), t1

Оптимальному решающему правилу при байесовском подходе соответствует t1, для которого относительно всех других решающих правил t1, обеспечивается минимум среднего риска R(t1 )R(t1 ) (см.раздел 4.1.2). При квадратичной функции потерь и апостериорном риске R(t1 | ytt ) = M{[xt1 - M{xt1 | ytt }]2 | ytt } 0 0 оптимальная оценка определяется как апостериорное среднее t t1 (ytt ) = x(t1) = M{xt1 | y0} = (4.156) = x(t1) p(xt1 | ytt )dxt1 = x(t1)wt (xt1 )dxt1.

o - Дисперсия ошибки оценки принимает вид D(t1) = (4.157) [x(t ) - x(t1)]2 wt (xt1 )dxt1.

Поэтому для рассматриваемых алгоритмов, как и для алгоритмов фильтрации, основополагающая роль в получении оценки > принадлежит апостериорной плотности вероятностей wt( xt1 ),t1

Ограничимся обсуждением алгоритмов в дискретном времени.

Pages:     | 1 |   ...   | 19 | 20 | 21 | 22 | 23 |   ...   | 32 |    Книги по разным темам