Книги по разным темам Pages:     | 1 | 2 | 3 | 4 | 5 |   ...   | 32 |

Корреляционные функции и центральные моменты второго и третьего порядков совпадают. Для функций четвертого порядка соотношение, связывающее корреляционную функцию и центральный момент, имеет вид 2 2 k4(t1,t2,t3,t4) = 4(t1,t2,t3,t4) - 2 (t1,t2) - 2 (t2,t3) - 2 (t1,t3).

Функции mn и kn при t1=...=tn=t называются соответственно моментами и кумулянтами (семиинвариантами) n-ого порядка.

Играющая важную роль в задачах анализа и синтеза функция k2(t,t)=D(t) получила название дисперсия. В инженерной практике довольно часто корреляционные функции первого и второго порядка достаточно полно характеризуют случайный процесс. Раздел теории случайных процессов, ограничивающийся изучением только этих функций получил название корреляционной теории. Изложим основные свойства корреляционной функции второго порядка, являющейся в рассматриваемом случае действительной функцией от действительных аргументов (подстрочный индекс два опускаем) - корреляционная функция симметрична, т.е.

k(t1,t2)=k(t2,t1);

- корреляционная функция удовлетворяет соотношению k(t1,t2) D(t1)D(t2) = k(t1,t1)k(t2,t2) ;

- если (t) - неслучайная функция, то ее корреляционная функция тождественно равна нулю;

- корреляционная функция произведения (t)=(t)(t), где (t) - неслучайная, а (t) - случайная функция, определяется соотношением k (t1,t2) = (t1)(t2)k (t1,t2);

k - если (t) = (t)i (t), где i(t) - неслучайная, а i(t) - i i=случайная функция, то k k k (t1,t2) = (t1) (t2)kij (t1,t2).

i j i=1 j=Взаимная корреляционная функция k(t1,t2) случайных функций (t) и (t) имеет свойства в принципе аналогичные свойствам обычной корреляционной функции. Однако, некоторые отличия в свойствах этих функций имеются. Взаимная корреляционная функция не является симметричной функцией относительно аргументов. Но можно установить соотношение k(t1,t2)=k(t2,t1), означающее, что при одновременной перестановке аргументов и порядка следования случайных функций значение взаимной корреляционной функции не изменяется. Если процессы (t) и (t) статистически независимы, то взаимная корреляционная функция равна нулю. В отличие от условия стационарности (1.3), характеризующего случайные процессы стационарные в строгом смысле, случайные процессы в рамках корреляционной теории оказываются стационарными в широком смысле. Для этих процессов математическое ожидание и дисперсия не зависят от времени, а корреляционная функция зависит от разности аргументов t2-t1=:

k(t1,t2) = k(t1,t1 + ) = k( ), D = k( 0 ).

Случайные процессы стационарные строго (в узком смысле) всегда стационарны в широком смысле, но не наоборот. Очевидно, что в рамках корреляционной теории достаточно знать плотности или функции распределения вероятностей не выше второго порядка.

Отметим, что корреляционная теория дает полное описание важного класса случайных процессов - гауссовских процессов.

В технических приложениях корреляционной теории для стационарных процессов нередко вместо корреляционной функции ограничиваются указанием интервала корреляции k. При >k значения (t) и (t+) для любого момента времени t можно считать практически некоррелированными. Обычно интервал корреляции определяют как половину ширины основания прямоугольника с высотой равной дисперсии k(0)=D, площадь которого равняется площади под кривой модуля корреляционной функции k = k( ) d. (1.12) D На практике обычно не представляется возможным использовать формулы (1.9), (1.10) и (1.11) для точного определения статистических характеристик, так как функции распределения или плотностей вероятностей часто оказываются неизвестными. Поэтому прибегают к определению оценок (статистик) этих характеристик путем обработки экспериментально полученных n реализаций случайного процесса (t) на основании следующих формул n m(t) = (1.13) (t) i n i=- оценка математического ожидания случайного процесса;

n D(t) = [i (t) - m(t)] (1.14) n i=- оценка дисперсии случайного процесса;

n k(t1,t2) = [i(t1) - m(t1)][i(t2) - m(t2)] (1.15) n i=- оценка корреляционной функции случайного процесса;

n k (t1,t2) = [i (t1) - m (t1)][i (t2) - m (t2)] (1.16) n i=- оценка взаимной корреляционной функции случайного процесса.

Согласно этим формулам оценки представляют собой приближенные значения статистических характеристик. При n указанные оценки с вероятностью единицы сходятся к соответствующим статистическим характеристикам.

1.3. ЭРГОДИЧЕСКИЕ ПРОЦЕССЫ Определение статистических характеристик на основании формул (1.13), (1.14), (1.15) и (1.16) предполагает достаточно большое число реализации случайного процесса. Если случайный процесс стационарен в строгом смысле, то представляется допустимым получения этих реализаций путем разделения результата одного опыта на необходимое число частей. Однако эта возможность в действительности имеет место не во всех случаях существования стационарного процесса, а лишь тогда, когда этот процесс эргодичен.

Случайный стационарный процесс считается эргодическим, если любая статистическая характеристика, полученная усреднением по множеству возможных реализаций равна временному среднему, полученному усреднением за достаточно большой промежуток времени Т по одной единственной реализации случайного процесса.

В работе [3] показано, что необходимым и достаточным условием эргодичности стационарного случайного процесса является T k lim 1- ( )d = 0, T T T где k() - корреляционная функция процесса.

В результате в случае эргодичности стационарного процесса при вычислении оценок статистических характеристик вместо формул (1.13), (1.14), (1.15) и (1.16) могут использоваться более простые формулы T T 1 m = lim 1 (t)dt T (t)dt, T T 0 T T 2 1 D = lim [1(t) - m] dt [1(t) - m] dt T T T 0 T k( ) = lim [1(t) - m][1(t + ) - m]dt T T T [1(t) - m] [1(t + ) - m]dt, T T k ( ) = lim [1(t) - m][1(t) - m ]dt T T T [1(t) - m] [1(t) - m ]dt, T при T>>, где 1(t) и 1(t) - одна реализация соответственно случайных процессов (t) и (t).

1.4. СПЕКТРАЛЬНЫЕ ХАРАКТЕРИСТИКИ В теории случайных процессов наряду с описанием сигналов во временной области используют частотные представления сигналов.

Пусть для любой реализации случайного процесса на интервале (0, Т) выполняется условие T (t) dt <.

T Это условие означает ограничение мощности сигнала. В этом случае спектральная функция конкретной реализации (t) может быть определена с помощью прямого преобразования Фурье ( j) = (t) exp{- jt}dt.

В спектральной функции содержится вся информация о реализации (t). Последняя может быть восстановлена по спектральной функции путем применения обратного преобразования Фурье (t) = ( j) exp{ jt}d.

Из-за случайного характера непосредственное использование спектральной функции вызывает неудобства. В связи с этим целесообразно перейти к другому виду спектрального представления - спектральной плотности, полученной в результате усреднения квадрата модуля спектральной функции по всем реализациям. Для стационарного в широком смысле с нулевым математическим ожиданием процесса эта функция равняется F() = lim M T ( j), T T T где T ( j) = (t)exp{- jt)dt, T (t) - усеченная реализация, T равная нулю вне интервала (0,Т).

Спектральная плотность или энергетический спектр дает только усредненную картину распределения энергии по частотам гармонических составляющих, не учитывает их фазовую структуру.

Поэтому по ней нельзя восстановить реализации случайного процесса. Спектральная плотность и корреляционная функция для стационарного процесса связаны между собой парой взаимного преобразования Фурье, называемых формулами Хинчина-Винера.

F() = k( ) exp{- j}d, (1.17) k( ) = F() exp{ j}d. (1.18) Учитывая четность спектральной плотности, формулы ВинераХинчина можно также записать в виде F() = 2 k( ) cosd, k( ) = F() cosd.

Если случайный процесс имеет отличное от нуля математическое ожидание M{(t)}=m, то в выражении спектральной плотности появляется дополнительное дельтаобразное слагаемое 2m (), что соответствует появлению в спектре дискретной линии на нулевой частоте. Спектральная плотность является неотрицательной F()0 и четной F()=F(-) функцией своего аргумента.

На практике протяженность спектральной плотности стационарного случайного процесса характеризуется шириной полосы спектра Ц. Ее определяют как величину площади под кривой спектральной плотности, отнесенной к спектральной плотности на характерной частоте 0:

= F()d. (1.19) 2F(0) В качестве F(0) принимают максимум спектральной плотности или координату, соответствующую точке симметрии. Обычно при широкополосном спектре ею является спектральная плотность на нулевой частоте F(0). Отметим также, что произведение интервала корреляции на ширину полосы k - величина постоянная для семейства спектральных плотностей заданной формы. Таким образом, можно сформулировать следующее утверждение: чем уже корреляционная функция, тем протяженнее спектр, и наоборот, чем протяженнее корреляционная функция, тем уже спектр.

2. МОДЕЛИ ПРОЦЕССОВ В ИНФОРМАЦИОННЫХ СИСТЕМАХ При аналитическом исследовании поведения реальных динамических систем важным является обоснование математических моделей процессов, протекающих в этих системах. В ходе формирования методов анализа и синтеза эти модели, с одной стороны, должны наиболее адекватно отражать свойства реальных сигналов, с другой - допускать исследования этих процессов известными теоретическими методами. Выход, видимо, следует искать на основе компромиссных решений в части выбора наиболее простых и в то же время содержательных (продуктивных) моделей при решении интересующих задач. Рассматриваемые в данном разделе модели случайных процессов являются наиболее типичными в практике исследований динамических систем с учетом реальных режимов, возмущений и помех и во многих случаях могут служить базовыми при формировании более сложных процессов.

2.1. ГАУССОВСКИЙ ПРОЦЕСС В инженерной практике особую роль играют гауссовские случайные процессы благодаря возможности аппроксимации ими многих реальных процессов. К числу таких процессов, например, относятся собственные шумы электронных устройств, тепловые флуктуации, космические излучения и т.д. Они представляют собой суммарный эффект большого числа сравнительно малых элементарных импульсов, возникающих в случайные моменты времени. На основании центральной предельной теоремы теории вероятностей [4] плотность вероятности этой суммы неограниченно приближается к гауссовской с увеличением числа слагаемых, независимо от того, какие плотности вероятности имеют отдельные слагаемые.

Случайный процесс, у которой корреляционные функции третьего и более высоких порядков для любых t равняются нулю, называются гауссовским kn(t1,...,tn)=0, n3:

Характеристическая функция на основании (1.7) n n n(v1,..., vn) = exp j (ti )vi k k (ti,tk )vivk.

1 i=1 i,k = В результате обратного Фурье-преобразования найдем n-мерную плотность вероятностей гауссовского процесса p(xn,tn;...; x1, x1) = -= (2 )-n / 2 k2 -1/ 2 exp- (x - m )T k2 (x - m ) = (2.1) n = (2 )-n / 2 k2 -1/ 2 exp- [xi h - m (ti )] [xk - m (tk )] ik i,k = где |k2| - определитель корреляционной матрицы k2=||k2(ti,tk)|| размера (nn); hik - компоненты матрицы ||h(ti,tk)||, обратной корреляционной матрице ||k2(ti,tk)||, x и k1=m - векторы-столбцы размера (n1).

Для стационарного гауссовского процесса математическое ожидание m (ti ) = m, i = 1,n постоянно, а корреляционные функции зависят от разности моментов времени ti-tk. Для гауссовских процессов стационарность в строгом и широком смысле совпадают.

В случае одномерного гауссовского процесса плотность вероятности имеет вид p(x,t) = (2 )-1Dt-1/ 2 exp- Dt-1[x - m (t)], (2.2) где k2(t,t)=Dt.

Гауссовский процесс, у которого взаимные корреляционные функции равны нулю k2(ti,tk)=0, ik, является процессом с независимыми значениями с плотностью вероятностей равной произведению n одномерных гауссовских плотностей n -1/ 2 p(xn,tn;...; x1,t1) = (2 )-n / 2(Dt1...Dtn ) exp- Dti [xi - m (ti )], i=где k2(ti,ti ) = Dti.

Условные плотности вероятностей совместно гауссовских процессов являются гауссовскими. Этот результат следует из формулы условной вероятности (1.4) p(x2,t2; x1,t1) p(x2,t2| x1,t1) =. (2.3) p(x1,t1) Действительно, на основании (2.1) двумерная плотность вероятностей нестационарного гауссовского процесса p(x2,t2; x1,t1) = -1/ = (2 )-1{Dt1 Dt2[1- r2(t1,t2)] } exp- = h(t,tk )[xi - m (ti )] [xk - m (tk )] i i,k = -1/ 2 [x1 - m (t1)] = (2 )-1{Dt1 Dt2[1- r2(t1,t2)] } exp- Dt2[1- r2(t1,t2)] [x1 - m (t1)][x2 - m (t2)]+ [x2 - m (t2)], - 2r(t1,t2) Dt1 Dt2 Dt k2(t1,t2) где коэффициент корреляции r(t1,t2) =, Dt1 = k2(t1,t1), Dt1 DtDt2 = k2(t2,t2).

Используя формулу (2.3), с учетом (2.2) получим условную плотность вероятностей -1/ p(x2,t2 | x1,t1) ={2Dt2[1- r2(t1,t2)] } [x2 Dt1 - x1 Dt2 r(t1,t2)]. (2.4) exp 2Dt1 Dt2 [1- r(t1,t2)] При выводе формулы (2.4) математические ожидания приравнивались нулю m(t1)=m(t2)=0.

Сумма гауссовских случайных процессов также имеет гауссовское распределение. Отсюда следует, что линейная комбинация гауссовских случайных процессов n (t) = C (t)i (t) + Si (t), где Ci(t) и Si(t) - заданные функции времени, i i=также представляет гауссовский случайный процесс. Например, сумма двух гауссовских процессов, имеющих математическое ожидание и корреляционные функции равные соответственно m1, m2 и k1, k2 представляет собой гауссовский процесс с математическим ожиданием m = m1 + m2 и корреляционной функцией k = k1 + k12 + k21 + k2, где k12 и k21 - взаимные корреляционные функции.

2.2. ВИНЕРОВСКИЙ ПРОЦЕСС. БЕЛЫЙ ШУМ 2.2.1. ОБЩИЕ ОПРЕДЕЛЕНИЯ Винеровский процесс играет важную роль при формировании более сложных сигналов, в том числе марковских и фрактальных процессов. К понятию винеровского процесса можно прийти при рассмотрении следующей физической задачи. Частицы жидкости или газа в отсутствии внешних воздействий из-за столкновений с молекулами находятся в постоянном хаотическом движении (броуновском движении), интенсивность которого зависит от температуры и плотности среды. При этих столкновениях частицы изменяют свою скорость и направление движения. Если масса частицы равна m, то, пренебрегая силами трения, скорость движения частицы B(t) по какой-либо координате на основании закона Ньютона определяется из соотношения dB(t) m =(t), dt где функция (t) является составляющей по этой координате случайной последовательности силовых толчков. Из условия симметрии направления этих толчков равновероятны и поэтому математическое ожидание этой функции равно нулю: M{(t)}=0.

Pages:     | 1 | 2 | 3 | 4 | 5 |   ...   | 32 |    Книги по разным темам