Книги по разным темам Pages:     | 1 |   ...   | 17 | 18 | 19 | 20 | 21 |   ...   | 32 |

x x x Преобразуем полученные уравнения в удобную для дальнейшего использования форму. Умножим соотношение (4.59) -1 -слева на обратную матрицу Hn+1. Учитывая, что Hn+1 Hn+1=I (I - единичная матрица), получим рекуррентное уравнение оценок в векторной форме.

* * ~ xn+1 = xn+1 + Dn+1(1)1(~n+1), x0 = x(0). (4.61) x n+ -где Dn+1= Hn+1 - матрица дисперсии ошибок, (i,j)-компонента которой Dij,n+1=Hij,n+1/|Hn+1|, Hij - алгебраическое дополнение компоненты hij определителя |Hn+1|.

Для определения матрицы дисперсий ошибок умножим справа (4.60) на [Gn+1-(2)1(~n+1)]-1, а затем полученное выражение слева на x n+ ~-1 ~--Dn+1. УчитываемDn+1= Hn+1, а также Dn+1 = Gn+1, где Dn+1 - матрица экстраполированных дисперсий ошибок, (ij)-компонента которой ~ Dij,n+1 = Gij,n+1 / | Gn+1 |, Gji,n+1 - алгебраическое дополнение элемента gij определителя |Gn+1|. В результате получим рекуррентное уравнение дисперсий ошибок в векторной форме ~-Dn+1 = [Dn+1 - (2)1(~n+1)]-1, D0 = D(0). (4.62) x n+ Необходимые для решения уравнений фильтрации и ~ обнаружения экстраполированные вектор xn+1 и матрица дисперсий определяются из выражений ~ ~ xn+1 = xn+1wn(xn+1)dxn+1, (4.63)...

- ~ ~ ~ Dn+1 = xn+1)(xn+1 - xn+1)T wn(xn+1)dxn+1. (4.64) n+... (x - ~ - Используя методику получения этих статистических характеристик для одномерных процессов, приходят к следующим соотношениям в векторной форме * n ~ xn+1 = xn + tM{ fn(xn+1) | y1 }, (4.65) ~ * n Dn+1 = Dn + tM{ fn(xn+1)(xn+1 - xn+1)T | y1 }+ (4.66) * T n T + tM{(xn+1 - xn+1) fn (xn+1) | y1 }+ nQnn.

4.7. ЛИНЕЙНЫЕ АЛГОРИТМЫ ОБНАРУЖЕНИЯ И ФИЛЬТРАЦИИ 4.7.1. АЛГОРИТМЫ СИНТЕЗА ДЛЯ ОДНОМЕРНОГО МАРКОВСКОГО ПРОЦЕССА Точное решение задачи синтеза для одномерного (скалярного) марковского процесса можно получить если наблюдаемый yn и полезный Sn(x) сигналы линейны относительно оцениваемого гауссовского марковского процесса xn, начальное значение этого процесса x0 также имеет гауссовское распределение. Кроме того, дискретный белый шум n входит в уравнение наблюдения аддитивно (в виде слагаемой составляющей) и является гауссовским процессом с независимыми значениями.

При выводе уравнений фильтрации и обнаружения, исходными являются уравнения марковского процесса (2.54) xn+1=nxn+nn, x0=x(0) (4.67) и наблюдаемого сигнала (4.25) yn+1=Cn+1xn+1+n+1, Sn+1(xn+1)=Cn+1xn+1 (4.68) в дискретном времени, где n=1+tfn, дискретные белые шумы n+1 и n+1 некоррелированы*).

Функция правдоподобия на основании (4.68) и плотность вероятностей наблюдаемого сигнала в отсутствии полезного сигнала соответственно равны (yn+1 - Cn+1xn+1)p(yn+1 | xn+1) = (2Q,n+1)-1/ 2 exp- (4.69) 2Q,n+ yn+p(yn+1) = (2Q,n+1)-1/ 2 exp- (4.70), 2Q,n+ где Q,n+1=N,n+1/t - дисперсия дискретного белого шума, N - спектральная плотность белого шума.

*) В дальнейшем обозначение не используется, так как предполагается, что полезный сигнал присутствует в наблюдении.

Ввиду того, что все процессы в рассматриваемой задаче синтеза являются гауссовскими, АПВ (4.42) также описывается гауссовским распределением с параметрами xn+1 и h2,n+1. Таким образом, указанная задача сводится к вычислению этих параметров на основании дискретных отсчетов наблюдаемого сигнала {yn+1} с помощью рекуррентных алгоритмов (4.45) и (4.46), которые при K=принимают форму ~ x xn+1 = xn+1 + Dn+1(1)1(~n+1), x0 = x(0), (4.71) n+ Dn+1 = (h2,n+1)-1 = (4.72) ~-= [g2,n+1 + (2)1(~n+1)]-1 = [Dn+1 + (2)1(~n+1)]-1, x x D0 = D(0) n+ n+ Так как fn(xn)=fnxn, то на основании формул (4.54) и (4.55) получим экстраполированные параметры ~ xn+1 = nxn, ~ Dn+1 = Dn + 2tfnDn + Qn.

n В результате вычислений (1)1(~n+1) и (2)1(~n+1) на основании x x n+ n+ (4.69) имеем ln p( yn+1 | xn+1) (1)1(~n+1) = = x n+ ~ xn+1 xn+1 = xn+(4.73) -= Cn+1Q,n+1( yn+1 - Cn+1~n+1), x 2 ln p( yn+1 | xn+1) (2)1(~n+1) = = x n+ 2 ~ xn+1 = xn+xn+(4.74) 2 -= -Cn+1Q,n+Подставляя соотношения (4.73) и (4.74) соответственно в выражения (4.71) и (4.72), получаем рекуррентные уравнения фильтрации одномерного гауссовского марковского процесса в дискретном времени -~ x xn+1 = xn+1 + Dn+1Cn+1Q,n+1(yn+1 - Cn+1~n+1), x0 = x(0), (4.75) ~-1 2 -Dn+1 = [Dn+1 + Cn+1Q,n+1]-1 = ~2 (4.76) Dn+1Cn+~ = Dn+1 -, ~ Dn+1Cn+1 + Q,n+1 D0 = D(0).

инейное уравнение (4.75) называется уравнением оценки, а нелинейное уравнение (4.76) - уравнением дисперсии ошибки оценки.

Как следует из приведенных уравнений фильтрации, при линейном преобразовании гауссовского марковского процесса и аддитивной независимой помехе уравнение оценки линейно относительно самой оценки, а нелинейное уравнение дисперсии не зависит от наблюдаемого сигнала, оценки и решается независимо от уравнения оценки.

Перейдем к определению рекуррентного алгоритма обнаружения для рассматриваемой задачи. После подстановки в выражение (4.36) плотностей вероятностей (4.69) и (4.70) и сокращения общих сомножителей в числителе и знаменателе ОП получаем n+1 = ~ (4.77) t 2 = n exp [2Cn+1yn+1xn+1 - Cn+1xn+1]wn(xn+1)dxn+1.

,n+- 2N Разложим экспоненциальный член выражения (4.77) в ряд по степеням t, имеем t 2 n+1 = n + n [2Cn+1yn+1xn+1 - Cn+1xn+1] +,n+- 2N (4.78) (tyn+1)2 2 2 ~ + Cn+1xn+1wn(xn+1)dxn+1 + 0(t), 2N,n+ где 0(t) - члены порядка малости (t)2 и выше.

В фигурных скобках выражения (4.78) содержится слагаемое, зависящее от (t)2. Это связано с тем, что сомножитель (tyn+1)2(tn+1)2, а (tn+1)2~(B)2, где B - приращение винеровского процесса. При малом t этот сомножитель на основании данных раздела 2.2.1 может быть заменен на математическое ожидание квадрата этого приращения Nt.

Таким образом в выражение (4.78) указанное слагаемое входит 2 зависящим от первой степени приращения t: tCn+1xn+1 / 2N.

,n+В результате получаем искомый рекуррентный алгоритм ОП в форме -n+1 = n + nCn+1yn+1~n+1Q,n+1, 0 = (0). (4.79) x Полученные в данном разделе значения xn+1 и n+1 являются достаточными статистиками линейной задачи обнаружения и фильтрации.

4.7.2. АЛГОРИТМЫ СИНТЕЗА ДЛЯ МНОГОМЕРНОГО МАРКОВСКОГО ПРОЦЕССА Векторно-матричное уравнение марковского процесса (4.55) и наблюдаемого сигнала (4.56) записывается в форме xn+1 = nxn + nn, x0 = x(0), (4.80) yn+1 = Cn+1xn+1 + n+1, Sn+1(xn+1) = Cn+1xn+1, (4.81) где Cn+1 - матрица коэффициентов размера (qr). Остальные вектора и матрицы рассматривались в разделе 4.6.4. Вектора дискретных шумов n и n полагают независимыми, а начальные условия x0 принадлежащими гауссовскому распределению.

Многомерная функция правдоподобия с учетом вида наблюдаемого сигнала (4.81) описывается гауссовским распределением p(yn+1 | xn+1) = (2 )-q / 2 | Q,n+1 |-1/ (4.82) - exp- ( yn+1 - Cn+1xn+1)T Q,n+1(yn+1 - Cn+1xn+1), где Q,n+1=N,n+1/t - положительная диагональная матрица дисперсий вектора дискретных белых шумов n+1.

АПВ и ЭПВ также описывается гауссовскими распределениями (4.59) и (4.60). Воспользуемся полученным ранее выражениями (4.61), (4.62) и (4.58) для определения векторно-матричных уравнений оценки, дисперсий ошибки оценки, а также уравнения отношения правдоподобия.

Вектор (1)1(~n+1) и матрица (2)1(~n+1) определяются на x x n+ n+ основании ФП (4.82) и принимают форму T -(1)1(~n+1) = Cn+1Q,n+1( yn+1 - Cn+1~n+1), x x n+ T -(2)1(~n+1) = -Cn+1Q,n+1Cn+1.

x n+ В результате рекуррентные уравнения оценок и дисперсией ошибок оценок с учетом fn(xn)=Fnxn принимают вид T -~ x xn+1 = xn+1 + Dn+1Cn+1Q,n+1( yn+1 - Cn+1~n+1), x0 = x(0), (4.83) ~-1 T Dn+1 = [Dn+1 + Cn+1Q,n+1Cn+1]-1, D0 = D(0), (4.84) ~ T T ~ где xn+1 = nxn, Dn+1= Dn + tFnDn + tDnFn + nQnn или ~ T Dn+1 = nDnT + nQnn, n=I+tFn.

n Решение уравнения (4.84) численными методами при высокой размерности вызывает большие трудности из-за необходимости обращения матрицы в квадратных скобках. Если число наблюдаемых сигналов q меньше размера вектора марковского процесса r то решение задачи можно упростить с помощью матричного тождества ~-1 T [Dn+1 + Cn+1Q,n+1Cn+1]-1 = (4.85) ~ ~ ~ ~ T T = Dn+1 - Dn+1Cn+1(Cn+1Dn+1Cn+1 + Q,n+1)-1Cn+1Dn+1.

~ Указанная формула справедлива, если матрицы Dn+1, Q,n+1 и Cn+1 имеют размерность соответственно (rr), (qq) и (qr). Отметим, что при скалярном наблюдаемом сигнале (4.81) необходимость в обращении матрицы вообще отпадает, так как выражение в круглых скобках (4.85) оказывается скалярной величиной.

После подстановки выражения (4.85) в уравнении (4.84) получаем уравнение дисперсии ошибки оценки ~ ~ ~ ~ T T Dn+1= Dn+1- Dn+1 Cn+1[Cn+1 Dn+1 Cn+1+Q,n+1]-1Cn+1 Dn+1. (4.86) В некоторых задачах для упрощения расчетов уравнение оценки можно представить в иной форме за счет преобразования одного из сомножителей (4.83) с помощью выражения (4.86) ~ T -1 T -Dn+1Cn+1Q,n+1 = Dn+1Cn+1Q,n+1 ~ ~ ~ T T T -- Dn+1Cn+1[Cn+1Dn+1Cn+1 + Q,n+1]-1Cn+1Dn+1Cn+1Q,n+1 = (4.87) ~ ~ ~ T T T = Dn+1Cn+1(Cn+1Dn+1Cn+1 + Q,n+1)-1[(Cn+1Dn+1Cn+1 + ~ -1 T -+ Q,n+1)Q,n+1 - Cn+1Dn+1Cn+1Q,n+1].

Принимая во внимание, что выражение в квадратных скобках -ввиду Q,n+1 Q,n+1=I равно единичной матрице, рекуррентное уравнение оценки при фильтрации многомерного марковского процесса принимает окончательный вид ~ ~ T T xn+1), xn+1= xn+1 + Dn+1 Cn+1[Cn+1 Dn+1 Cn+1+ Q,n+1]-1(yn+1-Cn+1 ~ x0 =x(0).

Как и для ранее рассмотренных одномерных процессов, можно сделать вывод, что для линейной задачи, гауссовских процессов и аддитивной независимой помехи уравнение оценки (4.88) линейно, а нелинейное уравнение дисперсии (4.86) не зависит от векторов оценки и наблюдаемых сигналов и может быть решено предварительно до решения уравнения оценки, т.е. независимо от процесса обработки наблюдаемого сигнала.

Приведем также уравнение фильтрации для распространенной в практических приложениях задачи оценивания одной из компонент многомерного марковского процесса и скалярном наблюдаемом сигнале, зависящим от этой компоненты. Обозначим указанную компоненту x1n. В матрице Cn+1 все компоненты за исключением C11,n+1 равны нулю и наблюдаемый сигнал принимает вид yn+1=C11,n+1x1,n+1+n+~ ~ ~ xn+1 = xn+1 + Rn+1C11,n+1[D11,n+1C11,n+1 + + N / t]-1( yn+1 - C11,n+1~1,n+1), x0 = x(0), x,n+~ ~ ~ 2 Dn+1 = Dn+1 - Tn+1C11,n+1[D11,n+1C11,n+1 + N / t]-1, D0 = D(0),,n+~ ~ ~ где Rn+1 =|| D11,n+1...Dr1,n+1 ||T, Tn+1 - матрица размера (rr), ~ ~ компонента которой Di1,n+1 Dj1,n+1, i, j = 1, r.

Рекуррентный алгоритм обнаружения для рассматриваемой линейной задачи может быть получен на основании выражения для многомерной ФП (4.82). Используя рассмотренный в разделе 4.7.подход для одномерных процессов, приходим к рекуррентному уравнению обнаружения q r n+1 = n + n C yi,n+1x Qi,n+1, (t0) = (0).

ij,n+1 j,n+i=1 j =В заключение рассмотрим линейные рекуррентные алгоритмы фильтрации и обнаружения рассмотренного в разделе 2.3.k квазидетерминированного процесса вида x(t) = ti-1, где a i i=подлежащие оценке параметры ai - случайные величины, компоненты вектора a=||a1...ak||T. В дискретном времени квазидетерминированный процесс и скалярный наблюдаемый сигнал описываются соответственно соотношениями k i xn+1 = tn-1, a i +(4.89) i=yn+1 = Cn+1Tn+1a + n+1, k -где Tn+1 =||1 tn+1...tn+1 ||, Cn+1 и n+1 скалярные величины.

Функция правдоподобия имеет вид p( yn+1 | a) = T (4.90) (yn+1 - Cn+1aTTn+1)(yn+1 - Cn+1Tn+1a) = (2Q,n+1)-1/ 2 exp 2Q,n+ где Q,n+1=N,n+1/t.

Переходная плотность вероятностей, как было показано ранее, принимает дельтаобразный вид и в параметрическом представлении оказывается равной (an+1|an)=(an+1-an). Вследствие этого оператор ФПК приравнивается к нулю, экстраполированная плотность вероятностей заменяется согласно соотношению (4.35) апостериорной плотностью вероятностей wn (an+1) = (an+1 - an )wn(an )dan.

С учетом высказанных замечаний рекуррентные уравнения АПВ и ОП принимают вид wn+1(an+1)=cn+1p(yn+1|an+1)wn(an+1), (4.91) n n+1 =... p( yn+1 | an+1)wn(an+1)dan+1, (4.92) p( yn+1) - - где cn+1 =... p( yn+1 | an+1)wn (an+1)dan+1.

- - Первая и вторая производные логарифмы ФП (4.90) по a=n принимает соответственно форму вектора и матрицы T -(1)1(n ) = Cn+1Tn+1Q,n+1[ yn+1 - Cn+1Tn+1n], (4.93) n+ 2 T -(2)1(n ) = -Cn+1Tn+1Tn+1Q,n+1. (4.94) n+ Рекуррентные уравнения оценки и дисперсии ошибки оценки на основании формул (4.61) и (4.62) n+1 = n + Dn+1(1)1(n), 0 = a(0), n+ -Dn+1 = [Dn + (2)1(n)]-1, D0 = D(0).

n+ или, учитывая соотношения (4.93) и (4.94), а также матричное тождество (4.85), T 2 T n+1 = n + Cn+1DnTn+1[Cn+1Tn+1Dn+1Tn+1 + Q,n+1]- (4.95) (yn+1 - Cn+1Tn+1n), 0 = a(0), 2 T 2 T Dn+1 = Dn - Cn+1DnTn+1[Cn+1Tn+1Dn+1Tn+1 + Q,n+1]-1Tn+1Dn, (4.96) D0 = D(0).

Рекуррентный алгоритм отношения правдоподобия квазидетерминированного процесса может быть получен из ~ выражения (4.79) путем замены xn+1 на Tn+1n -n+1 = n + nCn+1yn+1Tn+1nQ,n+1, 0 = (0).

В скалярно-координатном виде уравнения (4.95) и (4.96) принимают форму k k Cn+1 ij,ntnj -1 yn+1 - Cn+1 jntnj -D +1 + j =1 j = i,n+1 = in +, ai0 = ai (0), k Cn+1 lj,ntnj +l -2 + Q,n+D +l, j =k Cn+1 Dij,nDlq,ntnj +l - +l, j =Diq,n+1 = Diq,n -, Diq,0 = Diq (0), i, q = 1, k.

k Cn+1 Dlj,ntnj +l -2 + Q,n+ +l, j В случае фильтрации не зависящего от времени одного параметра a1 соответствующие уравнения 1,n+1 = 1n + Cn+1Dn[C2Dn + Q,n+1]-1( yn - Cn+11n ), a10 = a1(0), 2 2 Dn+1 = Dn - Cn+1Dn [Cn+1Dn + Q,n+1]-1, D0 = D(0), -n+1 = n + nCn+1yn+11nQ,n+1, 0 = (0).

4.7.3. АЛГОРИТМЫ СИНТЕЗА ДЛЯ НЕПРЕРЫВНОГО ВРЕМЕНИ Перейдем к рассмотрению уравнений линейной фильтрации для непрерывного времени, совершив предельный переход t0 в соответствующих уравнениях с дискретным временем Рассмотрение начнем с одномерного марковского процесса. Уравнение оценки и дисперсии ошибки оценки при наблюдаемом сигнале (4.68) соответственно имеют вид (4.75) и (4.76). Подставив в эти уравнения ~ ~ функции xn+1 = nxn, Dn+1 = Dn + 2tfnDn + Qn, где n=1+tfn, n n=(tn)t, Qn=Nn/t, Q,n+1=N,n+1/t, после предельного перехода получим дифференциальные уравнения оценки и дисперсии ошибки оценки dx(t) = ft x(t) + DtCt Nt1[ y(t) - Ct x(t)], x(t0) = x(0), (4.97) dt dDt -= 2 ftDt + t2Nt - Ct2Dt2N, Dt0 = D(0). (4.98) t dt Нелинейное уравнение дисперсии (4.98) является частным случаем уравнения Риккати dDt/dt=a(t)+b(t)Dt+c(t)D2. Решение этого t уравнения получают численными методами с помощью ЭВМ.

Уравнение Риккати можно свести к двум линейным нестационарным уравнениям путем подстановки Dt=R(t)/P(t) dR(t) = b(t)R(t) + a(t)P(t), P(t0) = P(0),, (4.99) dt dP(t) = - b(t)P(t) + c(t)R(t), R(t0) = R(0).. (4.100) dt Если коэффициенты уравнений (4.99) и (4.100) имеют постоянные значения, то эти уравнения позволяют получить аналитическое решение задачи [45].

Pages:     | 1 |   ...   | 17 | 18 | 19 | 20 | 21 |   ...   | 32 |    Книги по разным темам