Книги по разным темам Pages:     | 1 |   ...   | 16 | 17 | 18 | 19 | 20 |   ...   | 32 |

Учитывая, что отношение апостериорных вероятностей в момент времени tn+ n+P(xn+1, = 1| y1 )dxn+ ln+1 =, n+P(xn+1, = 0 | y1 )dxn+ на основании выражения (4.34) получаем рекуррентный алгоритм отношения апостериорных вероятностей ln ~ ln+1 = p( yn+1 | xn+1)wn(xn+1)dxn+1, p( yn+1) где ~ wn(xn+1) = (xn+1 | xn)wn(xn)dxn (4.35) - экстраполированная плотность вероятностей в момент времени tn+1. Так как отношения правдоподобия (ОП) и апостериорных pвероятностей связаны между собой соотношением n+1 = ln+1, pприходим к рекуррентному алгоритму ОП n ~ n+1 = p(yn+1 | xn+1)wn(xn+1)dxn+1. (4.36) p(yn+1) Плотность вероятностей p(yn+1) соответствует состоянию при отсутствии полезного сигнала (=0). ОП является положительной величиной и поэтому в расчетах вместо (4.36) используют логарифм ОП.

Для получения рекуррентного алгоритма фильтрации воспользуемся соотношением для условных плотностей вероятностей (1.4) n+P(xn+1, =1| y1 ) n+wn+1(xn+1) = p(xn+1 | = 1, y1 ) =. (4.37) n+P(xn+1, = 1| y1 )dxn+ После подстановки в (4.37) выражения (4.34) с учетом (4.35) получим рекуррентное уравнение АПВ ~ wn+1(xn+1)=cn+1p(yn+1|xn+1) wn (xn+1). (4.38) Входящая в уравнение (4.38) экстраполированная плотность ~ вероятностей wn (xn+1) для момента времени tn+1 зависит от значения АПВ wn(xn), взятого на предыдущем моменте времени tn.

- ~ Нормировочная постоянная cn+1 = p(yn+1 | xn+1)wn(xn+1)dxn+1 не - зависит от состояния xn+1. Значение ОП и АПВ на первом шаге обнаружения и фильтрации зависят от начальных условий ~ 1 = p(y1 | x1)w0(x1)dx1, p(y1) ~ w1(x1) = c1p(y1 | x1)w0(x1), ~ где w0(x1) = (x1 | x0) p(x0)dx0.

Полученные рекуррентные алгоритмы позволяют поэтапно шаг за шагом формировать, начиная с априорных данных (начальных условий), оценки марковского процесса xn и статистики оптимального обнаружения lnn. При этом, если алгоритм оценивания оптимальный фильтрации (4.38) можно применять независимо от алгоритма оптимального обнаружения (4.36), то последний невозможно использовать без алгоритма (4.38). Таким образом, система, реализующая рекуррентные алгоритмы (4.36) и (4.38) в принципе решают задачу совместного обнаружения и фильтрации случайных процессов. Суть метода решения этой задачи заключается в разбиении области возможных значений оцениваемого сигнала xn на действительной оси на некоторое количество интервалов или каналов, вычисления значений АПВ для каждого из них и выбора такого канала (и соответственно значения xn), в котором АПВ имеет максимальное значение. Реализация этой процедуры для задаваемых в обобщенном виде наблюдаемого сигнала (4.25) и функции правдоподобия p(yn|xn) вызывает значительные трудности. В дальнейшем при конкретизации измерительной процедуры, уточнении функциональных зависимостей входящих в наблюдаемый процесс сигналов и помех и их статистических характеристик удается сложную задачу свести к ряду более простых задач. В частности, если сигналы и помехи можно аппроксимировать гауссовскими распределениями, наблюдаемый процесс и оцениваемый сигнал связаны линейной зависимостью, а помеха входит в уравнение наблюдения аддитивно, то можно достаточно просто получить точные решения задач обнаружения и фильтрации. Кроме того, в отличие от рассматриваемого в разд. 4.3 и 4.4 задач обнаружения здесь отсутствует требование некоррелированности (независимости) отсчетов наблюдаемого сигнала: статистика ОП определяется рекуррентным алгоритмом (4.36).

Обратим внимание на то, что, во-первых, наблюдаемый сигнал в рекуррентные выражения входит через ФП p(yn|xn). При конкретизации задач синтеза задание типа ФП определяется измерительной процедурой, которая в свою очередь, задается уравнением наблюдения. Во-вторых, ввиду того, что вероятность правильного обнаружения меньше единицы возникает возможность получать так называемые псевдооценки в отсутствие полезного сигнала.

Структурная схема оптимальной системы совместного обнаружения и фильтрации, описываемая алгоритмами (4.36) и (4.38), представлена на Рис. 4.1. В связи с рекуррентным характером этих алгоритмов ряд блоков схемы охвачен обратной связью с задержкой на интервал дискретизации (БЗ). Устройство включения (УВ) в конечный момент времени tm, определяемый алгоритмом обнаружения, пропускает вычисленную в блоке формирования отношения правдоподобия (БФОП) статистику lnm на пороговое устройство (ПУ). В нем в результате сравнения lnm с порогом в соответствии с алгоритмом (4.16) выносится решение о наличии или отсутствии полезного сигнала. Величина порога, как отмечалось в разделе 4.4.3, зависит от типа оптимального обнаружителя. После превышения порога в ПУ (решение 1) с выхода ключевого устройства (КУ) поступает из блока фильтрации (БФ) оценка (если верно) или псевдооценка (если 1 ложно).

оценка xn+~ wn БФ КУ wn yn+БЗ wn+1(=1) lnm lnn+БФОП УВ ПУ 0(=0) БЗ Рис. 4.1. Структурная схема системы совместного обнаружения и фильтрации.

4.6.3. УРАВНЕНИЕ ДЛЯ АПОСТЕРИОРНЫХ ПАРАМЕТРОВ В рамках дальнейшей конкретизации методов фильтрации одномерного марковского сигнала в дискретном времени перейдем к отысканию рекуррентных уравнений для апостериорных параметров.

Эти параметры представляют, как было отмечено в разделе 4.2, логарифм АПВ с определенной степенью точности (до K-го члена аппроксимирующего ряда). Отыскиваются следующие апостериорные параметры xn+1 = xn+1wn+1(xn+1)dxn+1 (4.39) - оценка марковского процесса (апостериорное среднее), Dn+1 = (h2,n+1)-1 = (4.40) n+(x - xn+1)2 wn+1(xn+1)dxn+- апостериорная дисперсия ошибки оценки, (hi,n+1)-1 = (4.41) n+(x - xn+1)i wn+1(xn+1)dxn+1, i - апостериорные центральные моменты третьего и более высокого порядка.

Полагаем, что апостериорная плотность вероятностей АПВ (4.38) и экстраполированная плотность вероятностей ЭПВ (4.35) соответственно аппроксимируется выражениями K hi,n+ wn+1(xn+1) = A1 exp- (xn+1 - xn+1)i, (4.42) i! i=K gi,n+ ~ ~ wn(xn+1) = A2 exp- (xn+1 - xn+1)i, (4.43) i! i=где A1 и A2 - постоянные; K - заданный порядок аппроксимации;

~n+ x и x - оптимальные оценки одномерного марковского n+процесса, соответствующие максимумам АПВ и ЭВП на шаге n+1.

Коэффициенты разложений (4.42) и (4.43) вычисляются из соотношений:

i ln wn+1(xn+1) hi,n+1 = -, i xn+1 = xn+xn+~ i ln wn+1(xn+1) gi,n+1 = -.

i ~ xn+1 = xn+xn+Прологарифмируем, а затем продифференцируем выражения ~n+1 получаем (4.38) по xn+1 K раз. После замены xn+1= x i ln wn+1(xn+1) = i ~ xn+1 = xn+xn+~ i ln wn(xn+1) in+1(xn+1) = +, (4.44) i ~ i ~ xn+1 = xn+1 xn+1 = xn+xn+1 xn+ i =1, K где n+1(xn+1)=lnp(yn+1|xn+1) - логарифм ФП.

В результате подстановки (4.42) и (4.43) в выражение (4.44) приходим к усеченной до K порядка включительно системе уравнений относительно апостериорных параметров (обратных апостериорных центральных моментов) разного порядка K hi,n+- (~n+1 - xn+1)i-1 = (1)1(~n+1) (4.45) x x n+ (i -1)! i=после первого дифференцирования, hi,n+1 = gi,n+1 - (i)1(~n+1) x n+ j K -i (4.46) (~n+1 - xn+1) x - [gi+ j,n+1 - (i+ j)(~n+1)], i = 2, K x j! j =после второго и всех последующих дифференцирований, где введено обозначение in+1(xn+1) = (i)1(~n+1).

x i ~ xn+1 = xn+1 n+ xn+После K-ого дифференцирования параметр hK,n+1 принимает вид ) hK,n+1 = gK,n+1 - (K1(~n+1). (4.47) x n+ По определению параметр h1,n+1 равен нулю и полученная оценка (апостериорное среднее), как показано в разделе 4.2, соответствует максимуму апостериорной плотности вероятности.

Система уравнений (4.45) и (4.46) является рекуррентной, так как позволяет определить x,h2,n+1,..,hK,n+1 по значениям n+~n+1,g2,n+1,...,gK,n+1 зависящим от апостериорных центральных x моментов на предыдущем шаге (моменте времени tn). Обратим также внимание на то, что в уравнение (4.46) для параметра i-го порядка входят экстраполированные параметры более высоких (K-i) порядков.

В представленных моделирующих задачу фильтрации ~ уравнениях присутствуют экстраполированные оценка x и параметры gi. Для решения уравнений (4.45) и (4.46) необходимо получить явную зависимость апостериорных значений оценки x и центральных моментов разного порядка hi-1 от указанных экстраполированных параметров. Для решения этой задачи в качестве исходных соотношений используются ~ ~ xn+1 = xn+1wn(xn+1)dxn+1 (4.48) - экстраполированная оценка, ~ Dn+1 = (g2,n+1)-1 = xn+1)2 ~ n+(x - ~ wn(xn+1)dxn+1 (4.49) - экстраполированная дисперсия, (gi,n+1)-1 = xn+1)i ~ n+(x - ~ wn(xn+1)dxn+1, i 3 (4.50) - экстраполированные центральные моменты третьего и более высокого порядка.

Ввиду того, что далее задачи синтеза решаются в рамках корреляционной теории, ограничимся определением экстраполированных значений оценки и дисперсии ошибки оценки.

Входящая в выражения (4.48), (4.49) и (4.50) ~ экстраполированная плотность wn (xn+1) была получена (4.35) и зависит от переходных вероятностей (xn+1|xn) и АПВ на шаге n.

Воспользуемся соотношением (2.40), которое для дискретного времени и при пренебрежении членами порядка 0(t) имеет вид (xn+1|xn)=(xn+1-xn)+tL{(xn+1-xn)}. (4.51) Рассматриваемый подлежащий оценке одномерный марковский процесс описывается в дискретном времени уравнением в конечных разностях (2.53) xn+1=xn+fn(xn)t+nn, x0=x(0).

С учетом выражения для оператора ФПК (2.37) запишем соотношение (4.51) в развернутом виде (xn+1 | xn) = (xn+1 - xn) - t [ fn(xn) (xn+1 - xn)] + xn+ n + Qn 2 (xn+1 - xn).

xn+После подстановки этого соотношения в выражение (4.35), последующих вычислений с учетом фильтрующих свойств дельтафункции получаем ~ wn(xn+1) = wn(xn+1) - t [ fn(xn+1)wn(xn+1)]+ xn+(4.52) 2wn(xn+1) n + Qn.

dxn+Экстраполированная оценка вычисляется в результате подстановки выражения (4.52) в формулу (4.48) и интегрирования по частям n ~ ~ xn+1 = xn+1wn(xn+1)dxn+1 = xn + tM{ fn(xn+1) | y1 }, (4.53) где введено обозначение n fn(xn+1)wn(xn+1)dxn+1 = M{ fn(xn+1) | y1 }, а промежуточный член xn+1 fn(xn+1)wn(xn+1) приравнен нулю при неограниченном - изменении аргумента.

Для определения экстраполированной дисперсии используется формула (4.49). После подстановки в нее соотношения (4.52), интегрирования по частям и приравнивания нулю промежуточных wn(xn+1) членов вида xn+1 fn(xn+1), xn+1 fn(xn+1)wn(xn+1), с xn+1 - - учетом выражения (4.53) имеем ~ Dn+1 = xn+1)2 ~ n+(x - ~ wn(xn+1)dxn+1 = n ~ = n+[(x - xn) - tM{ fn(xn+1) | y1 }]2 wn(xn+1)dxn+1 = (4.54) n = Dn + 2tM{(xn+1 - xn) fn(xn+1) | y1 }+ Qn, n ^ 2 n n где Dn = M{xn | y1 }-[M{xn | y1 }]2 = xn - (xn)2 - дисперсия ошибки оценки на шаге n.

Выражения (4.53) и (4.54) можно рассматривать как результат экстраполяции (эволюции априорных данных согласно уравнению ФПК) на один шаг полученных на предыдущем шаге оценки марковского процесса и дисперсии ошибки оценки в отсутствие наблюдения.

Задача обнаружения одномерного марковского процесса ~ решается после подстановки плотности вероятностей wn (xn+1) в выражение (4.36) и конкретизации вида ФП.

Решение в общем виде уравнений фильтрации и обнаружения представляют собой, как правило, чрезвычайно сложную задачу и определяется видом ФП и входящими в эти уравнения нелинейными функциями. В дальнейшем за счет некоторой потери оптимальности в результате упрощений полученных алгоритмов приходят к более простым приближенным методам решения задач синтеза.

4.6.4. ОБЩИЕ АЛГОРИТМЫ СИНТЕЗА ДЛЯ МНОГОМЕРНОГО МАРКОВСКОГО ПРОЦЕССА При выводе уравнений фильтрации и обнаружения для многомерного марковского процесса используются векторноматричные уравнения оцениваемого процесса xn+1=xn+tfn(xn)+nn (4.55) и наблюдаемого сигнала yn+1=n+1(Sn+1(xn+1),n+1,), (4.56) где xn и fn() соответственно вектор и вектор-функция оцениваемого процесса размера (r1); n - диагональная матрица размера (rr), yn+1 - вектор-столбец наблюдаемых сигналов размера (q1) ; Sn() - детерминированная вектор-функция размера (q1), описывающая нелинейное преобразование вектора x; n и n - векторстолбцы дискретных белых шумов размеров соответственно (r1) и (p1); - вектор размера (r1) с компонентами i=1 или i=0, характеризующими наличие или отсутствие соответствующих компонент полезного сигнала. Кроме того, имеют место следующие соотношения qr и pq. Первое неравенство отражает тот факт, что не все фазовые координаты доступны для наблюдений (измерений), второе учитывает, что не каждое измерение засорено помехами.

Рассматривается на временном интервале (t0,t) последовательность отсчетов векторов оцениваемых процессов и наблюдаемых сигналов n+x1 = {x1,..., x,...xn+1}, j n+y1 = {y1,..., y,..., yn+1}, j где xj=||x1j...xrj||T, yj=||y1j...yqj||T, j = 1, n +Используя методику, аналогичную при выводе уравнений АПВ и ОП для одномерного процесса, можно показать, что указанные статистические характеристики определяются рекуррентными соотношениями ~ wn+1(xn+1) = cn+1p(yn+1 | xn+1)wn(xn+1) (4.57) n ~ n+1 = = p(yn+1 | xn+1)wn(xn+1)dxn+1, (4.58)...

p(yn+1) - - ~ где cn+1 = p(yn+1 | xn+1)wn(xn+1)dxn+1,...

- - ~ wn(xn+1) =... (xn+1 | xn)wn(xn)dxn.

- Как и в случае одномерных процессов, апостериорные параметры вычисляют на основании представления логарифмов многомерных АПВ и ЭПВ в виде конечной суммы разложения в ряд Тейлора относительно параметров h и g. В рамках корреляционной теории рассматривается разложение в ряд с порядком аппроксимации K=2, что соответствует получению приближенных оценок x*. Имеем * * wn+1(xn+1) = A1 exp- (xn+1 - xn+1)T Hn+1(xn+1 - xn+1) = r r * = A1 exp h (xi,n+1 - xi,n+1)(x - x*,n+1), ij,n+1 j,n+1 j i=1 j = ~ ~ ~ wn+1(xn+1) = A2 exp- (xn+1 - xn+1)T Gn+1(xn+1 - xn+1) = r r ~ ~ = A2 exp gij,n+1(xi,n+1 - xi,n+1)(x - x ), j,n+1 j,n+ i=1 j= 2 ln wn+1(xn+1) где hij,n+1 = - * xi,n+1 = xi,n+1, xi,n+1x j,n+x = x*,n+j,n+1 j ~ 2 ln wn+1(xn+1) gij,n+1 = ~ xi,n+1 = xi,n+xi,n+1x j,n+~ x = x j,n+1 j,n+Hn+1 и Gn+1 - положительно определенные матрицы размера * (rr), компоненты которых соответственно равны hij,n+1 и gij,n+1; xi и ~ xi - компоненты векторов апостериорных и экстраполированных оценок, соответствующих максимумам АПВ и ЭПВ.

Прологарифмируем соотношение (4.57), а затем дважды продифференцируем по xn+1. В результате первого ~ дифференцирования после подстановки xn+1= xn+1 получаем * ~ Hn+1(xn+1 - xn+1) = (1)1(~n+1). (4.59) x n+ ~ После второго дифференцирования и подстановки xn+1= xn+имеем Hn+1 = Gn+1 - (2)1(~n+1), (4.60) x n+ где (1)1(~n+1) - r-мерный вектор - столбец, i - компонента x n+ x x x которого n+1(~n+1) / d~i,n+1; (2)1(~n+1) - матрица размера (rr), (i,j)n+ компонента которой 2n+1(~n+1) / d~i,n+1~j,n+1.

Pages:     | 1 |   ...   | 16 | 17 | 18 | 19 | 20 |   ...   | 32 |    Книги по разным темам