Для любой функции от матрицы f (A), которую можно представить в виде конечного или бесконечного степенного полинома, справедливо аналогичное выражение f (1) 0 K 0 f (2 ) K f (A) = V DT, (2.4-26) M M M 0 0 K f (n ) или эквивалентное ему n r r f (A) = (i )vidiT. (2.4-27) f i =Отсюда вытекает, например, один из способов определения матричной экспоненты или соответствующей переходной матрицы:
r n r t T i (t) = eAt = (2.4-28) e v d.
i i i =ПРИМЕР 2.4-2. Для объекта, представленного на рис.2.8. в примере 2.41, найдём левые собственные векторы. Если обозначить присоединённую матрицу к матрице A как I{A}, то очевидно равенство I{AT } = IT {A}.
Поэтому 2 +3 + 2 0 d I () = I{AT } = +1 2 + 4 +3 0.
1 +3 2 +5 + Учитывая, что 1 = -1; 2 = -2; 3 = -3, имеем:
0 0 0 0 0 Id (1) = 0 0; Id (2 ) = 1 - 1 0;
- 1 2 2 1 1 2 0 Id (3 ) = 2 0 0;
- 1 0 Рассчитаем левые собственные векторы. Учтем при этом (2.4-14). Таким r образом, для первого собственного вектора d1 должны выполняться условия rT rT r d1 =1[0 0 1], d1 v1 = 21 =1, откуда rT 1 = и d1 = [0 0 0.5].
Аналогично получим 0 r ; r d2 = 1 d3 = - 1.
- 1 0. Теперь можно записать выражение для переходной матрицы. Из (2.4-28) имеем 0 0 0.5 0 1 -1 1 -1 0. 0 e-t 0 1 -1e-2t 0 0 0 e-3t eAt = 0 1 + + 0 0 1 0 0 0 0 0 и окончательно e-3t e-2t - e-3t 0.5e-t - e-2t + 0.5e-3t eAt = 0 e-2t e-t - e-2t.
0 0 e-t Рассмотрим ещё несколько примеров.
Для - 3 1 ; 1 = -1; 2 = -2; 3 = -3;
A = 0 - 2 0 0 - имеем 0 0 1 - 1 - 1 0. A = j 0 1 + j 20 1 - 1 + j 30 0 0 = 0 0 0 0 0 0 0 1 3 2 - 3 - 2 + 2 = j 0 2 1-.
0 0 Проведём проверку:
1 3 1 3 2 - 3 - 2 + 3 2 - 3 - 2 + 2 2 2 j 0 2 1- 2 0 2 1- 2 = 0 0 1 0 0 - 3 1.
= 0 - 2 0 0 - Для той же матрицы найдём A :
5 5 = -1, = -32, = -243 и 1 2 1 0 0 1 - 2 0 1 - 1 A = -0 0 1 - 320 1 - 1 - 2430 0 0 = 0 0 1 0 0 0 0 0 - 243 211 -.
= 0 - 32 0 0 - 2.5. Свойства движений линейных систем 2.5.1. Матричная весовая и переходная функции Пусть заданы уравнения некоторого динамического объекта r r r & x(t) = A(t)x + B(t)u(t); (2.5-1) r r y(t) = C(t)x(t). (2.5-2) В соответствии с формулой Коши выражение для вектора выхода t r r r y(t) = C(t)(t,t )x(t ) + (2.5-3) 0 C(t)(t, )B( )u( )d.
tАнализируя качество работы объекта, удобно рассматривать движение r y(t) как сумму свободной составляющей, обусловленной, в основном, свойствами самого объекта, и вынужденной составляющей, несущей отпечаток входного сигнала - вектора управления. Строго говоря, это разделение условно, но очевидно, что свободную составляющую целесообразно отождествить с первым слагаемым правой части равенства (2.5-3). Отсюда следует вывод, что основные свойства объекта определяются его переходной матрицей (t,t ), в то время как степень их проявления зависит от вектора начальных условий.
Отметим, однако, что первопричиной всякого движения объекта является вектор управления. Это означает, что даже при анализе собственных движений объекта следует учитывать и матрицу управления B(t).
Обозначим w (t, ) = C(t)(t, )B( ). (2.5-4) y Очевидно, что для i -й координаты вектора выхода при нулевых начальных условиях справедливо выражение t nu yi (t)= w (t, )uj ( )d.
ij t0 j=Если положить uk ( ) = ( - ) и uj ( ) = 0 при j k, то в соответствии со свойствами -функции получим yi (t) = wik (t, ).
Таким образом, элемент, стоящий в i -ой строке и в k -м столбце матрицы wy (t, ), можно интерпретировать как реакцию i -ой коордиr наты вектора y(t) на дельта-функцию (t - ) в k -ой координате r вектора управления u(t).
Матрица wy (t, ) называется матричной весовой или матричной импульсной переходной функцией объекта по вектору выхода. Аналогичным образом определяется матричная весовая функция объекта по вектору состояния w (t, ) = (t, )B( ). (2.5-5) x u u x k x 1 p 2p + Рис. 2.11. К примеру на определение матричной весовой функции Интеграл от матричной весовой функции t H(t,t ) = (t, )d (2.5-6) 0 w tназывают матричной переходной функцией объекта. Элементы этой матрицы могут рассматриваться как реакции координат вектора выхода (вектора состояния) на единичные функции по соответствующим координатам вектора управления. Если на вход объекта поступает постоянr ный во времени вектор управления u 1(t - t ), то при нулевых на0 чальных условиях r r y(t) = H(t,t )u. (2.5-7) 0 В качестве примера на рис. 2.12 изображены элементы матричной переходной функции по вектору состояния для системы, представленной на рис. 2.11.
Рис.2.12. Элементы матричной переходной функции для системы, представленной на рис. 2.В стационарном случае рассмотренные матрицы являются функцией одного аргумента:
wy (t,t ) = wy (t - t ) = wy ( ) = CeA B = C( )B (2.5-8) 0 и t Hy (t) = (t - )Bd. (2.5-9) C Это выражение для переходной функции можно упростить. Производя замену аргумента = t -, получим Hy (t)= C( )Bd =t и окончательно t Hy (t) = - ( )Bd. (2.5-10) C Используя представление переходной матрицы через матричную экспоненту, можно получить 2 3 t t t 2 Hy (t) = CEt + A + A + A + KB. (2.5-11) 2 3! 4! Один из наиболее употребимых способов вычисления (t) и H(t) состоит в определении (расчете) соответствующих окаймленных матричных рядов.
ПРИМЕР 2.5-1. Объект управления задан системой дифференциальных уравнений, которым соответствует схема в переменных состояния, приведенная на рис. 2.13.
x2(0) x1(0) u xy x1 Рис.2.13. Структурная схема к примеру 2.5-Этой схеме соответствуют уравнения & x = x, 1 x = -2x + u, & 2 y = 2x + x 1 2.
Требуется найти переходную матрицу, матричные весовую и переходную функции, реакцию объекта на постоянный входной сигнал.
Прежде всего, найдем переходную матрицу. Элемент первой строки и первого столбца этой матрицы можно определить как реакцию координаты x на начальные условия x (0)=1, x (0)= 0 при u = 0. Решение 1 1 первого дифференциального уравнения дает (t) = x (t) = 1.
11 Аналогично (t) = x (t) при x (0) = 1, x (0) = u = 0.
22 2 2 Решая при этих условиях второе дифференциальное уравнение, получим 2t (t) = e-.
Очевидно (t) = 0, так как координата x не зависит от x. Для того, 21 2 чтобы определить (t), следует взять интеграл t -2 2t (t) = ).
12 e d = 0.5(1- eТаким образом, 2t 1 0.5(1- e- ) (t) =.
2t e В соответствии с уравнениями объекта 0 1 A = [0 - 2; B = 1; C = 1], поэтому w (t) = C(t)B = y и t Hy (t) = ( )Bd = t.
C При нулевых начальных условиях и u = u = const y(t) = u t.
Если начальные условия ненулевые, то r y(t) = C(t)x(0)+ u (t) = 2x (0) + x (0) + u t.
0 1 2 При этом t r r r x(t) = (t)x(0)+ Hx(t)u = (t)x(0)+ ( )Bd u = 0 1 -2t x (e -2t (0)+ (1- e )x (0) t + 4 - 1) 1 = + 2 u.
-2t -2t e x (0) (1- e ) Видно, что в выходной координате участвуют не все составляющие движения, присутствующие в векторе состояния. Еще более характерная ситуация возникнет, если изменить исходные данные. Если положить & x = x 1 x = 2x + u, & 2 y = -2x + x 1 то поведение выходной координаты принципиально не изменится y(t) = -2x (0) + x (0) + u t, 1 2 но процесс по координатам состояния будет неограниченно расти:
x - 1 1 -2t 2t (0) (1- e )x (0) + (e - 1)- tu 1 2 r 2 4 x(t) =.
2t -2t e x (0) + (e - 1)u 2 Такие случаи, когда вектор выхода не отражает характерные свойства объекта, могущие привести к катастрофическим результатам, будут подробно обсуждаться в последующих разделах.
2.5.2. Модальная (спектральная) интерпретация решения векторноматричных дифференциальных линейных стационарных уравнений Рассмотрим сначала движение автономной системы r r r r & x(t) = Ax(t), x(t) = x. (2.5-12) Пусть все собственные числа матрицы A различны. Тогда ее собственr ные векторы vi, i =1,2,...,n образуют базис в пространстве Rn, то есть являются линейно независимыми. В соответствии с (2.3-5) и (2.4-28) решение уравнения (2.5-12) можно записать в виде n r r r r it T x(t) = e v d x(0).
i i i =Обозначим скаляр r r T = d x(0), (2.5-13) i i тогда n r r i t (2.5-14) x(t ) = e v.
i i i =Очевидно, что свободное движение вектора состояния объекта является комбинацией движений по собственным векторам матрицы A. Такие движения называют модами системы, а матрицу собственных векторов V - модальной матрицей. Коэффициент i соответствует величине возбуждения i - ой моды системы, обусловленной начальными условиями. Иначе говоря, каждая мода возбуждается соответствующим выбором начального состояния.
Согласно (2.5-13), x (0) x (0) i = [di di... din] = di x (0) + di x (0) +... + dinxn(0).
1 2 1 1 2...
x (0) n r Если вектор начальных условий x(0) совпадает по направлению с i - м собственным вектором, то есть r r x(0) = vi, r r T то, учитывая, что согласно (2.4-13) и (2.4-14), d v = 0 при i j и i j r r T d v = 1, получаем i i r r r r i = diT x(0) =i и = dT x(0) = 0 при j i.
j j Таким образом, при указанном выборе начальных условий, возбуждается только i-ая мода, или частота.
Рассмотрим с этих же позиций движение неавтономного объекта r r r & x(t) = Ax(t) + Bu(t).
Изложенный подход можно использовать и в этом случае, если вектор r Bu(t) разложить по собственным векторам матрицы A :
n r r Bu(t) = i (t)vi.. (2.5-15) i =Для того, чтобы определить скалярные функции i (t), умножим обе r части этого равенства слева на dT :
j r n r r r dTBu(t) = i (t)dTvi, j j i =откуда, учитывая (2.4-13) и (2.4-14), получаем r r i (t) = diTBu(t). (2.5-16) Таким образом, в соответствии с формулой Коши (2.3-18) и выражением для переходной матрицы (2.4-28) имеем t n r r r x(t) = eAt x(0)+ eA(t ) i ( )vid = i =t n n r r r r j i ( )v dTvid = (2.5-17) = eAt x(0)+ e (t ) j j j =1 i =t n r r r t (t - ) j j = )d v.
e + e dTBu( i j j j = r Если вынуждающая функция u(t)выбирается таким образом, чтобы r вектор Bu(t) совпадал с направлением одного из собственных векторов матрицы A, то она будет возбуждать только одну соответствующую моду частоту.
2.6. Модели стационарных линейных систем в комплексной плоскости на основе преобразования Лапласа 2.6.1. Матрица передаточных функций Известно, что преобразование Лапласа определяется парой преобразований r r r -pt X(p) = L{x(t)}= x(t)e dt, (2.6-1) C+ j r r r -x(t)= L {X(p)}= X(p)eptdp.
2 j C- j Первое из них называется прямым, а второе - обратным. Векторная r r функция x(t) называется оригиналом, а X(p) - изображением этого оригинала по Лапласу; p- комплексная переменная преобразования Лапласа. Преобразование Лапласа можно осуществить, если p = + j и >, где - абсцисса абсолютной сходимости. Веc c r -t личина C выбирается исходя из требования, чтобы функция x(t)e при > C была абсолютно интегрируемой.
При вычислении обратного преобразования Лапласа интегрирование ведется на плоскости комплексной переменной p по прямой, параллельной мнимой оси, rлежащей на прямой с, причем с выбирается так, чтобы все полюсы X(p) оказались слева от прямой интегрирования (рис. 2.14). На этом рисунке показано расположение полюсов некоторой r функции X(p).
+j Плоскость p с + c Рис.2.14. К вычислению обратного преобразования Лапласа Пусть, как обычно, уравнения объекта имеют вид r r r & x(t) = A(t)x(t)+B(t)u(t);
r r y(t) =C(t)x(t).
Перейдем к изображениям по Лапласу r r r r pX(p) - x(0) = AX(p) + BU(p);
r Y(p) =CX(p).
r Перенесем AX(p) в левую часть равенства, а x(0) - в правую:
r r r (pE - A)X(p) = x(0) + BU(p).
Отсюда получаем выражение для изображения вектора состояния r r r -1 -X(p) = (pE - A) x(0) + (pE - A) BU(p).
Сравнивая это равенство с формулой Коши t r r r (t - ) x(t) = eAt x(0) + eA Bu( )d, отмечаем, что резольвента матрицы A может рассматриваться как изображение по Лапласу от переходной матрицы (матричной экспоненты):
-1 At (pE - A) = L{e }.
Справедливо равенство I(p) - (pE - A) =, (2.6-2) A(p) где I ( p)- присоединенная матрица для матрицы А, и A(p)- характеристический полином матрицы A. I ( p) и A(p) могут быть определены по методу Фаддеева - Леверье.
При нулевых начальных условиях r r - X(p) = (pE - A) BU(p), (2.6-3) где функция - Wux (p) =(pE - A) B (2.6-4) называется матричной передаточной функцией от вектора управления до вектора выхода или передаточной функцией по каналу u-x.
Аналогично, при нулевых начальных условиях r r - Y(p) = C(pE - A) BU(p), (2.6-5) где функция - Wuy (p) =C(pE - A) B (2.6-6) называется матричной передаточной функцией от вектора управления до вектора выхода или передаточной функцией по каналу u-y. Функ-цию (pE - A) называют резольвентой матрицы A.
С использованием передаточной функции можно записать:
r r X(p) =Wux (p)U(p). (2.6-7) r r Y(p) =Wuy (p)U(p) Принимая во внимание, что изображение по Лапласу - функции равно единице, можно представить передаточную функцию как изображение от весовой функции W (p) = L{w(t)}. (2.6-8) Передаточная функция является функцией от матрицы A, поэтому в соответствии с (2.4-27) можно записать r r n C vi diTB Wuy (p) = (2.6-9) i =1 (p -i ) и r r n r C vi diTB Y(p) = U(p). (2.6-10) i =1 (p - i ) Графическое изображение последней формулы представлено в виде структурной схемы, изображённой на рис. 2.15.
r r dT B C v p - r r r Y(p) U(p) r dT B C v p - rT r dn B Cvn p - n Рис. 2.15. Структурная схема системы на базе представления передаточной функции через собственные числа и собственные векторы матрицы динамики ПРИМЕР 2.6-1. Для объекта, схема в переменных состояния которого приведена на рис.2.16, уравнения состояния имеют вид & x = x - u ;
1 2 y = x ;
1 & x = x + u ;
2 3 y = x.
2 & x = x + u ;
3 2 Им соответствует матрицы 0 1 0 -1 1 0 A = 0 1; B = 1 0; C = 0 0 1.
0 1 0 0 Характеристический полином имеет вид A() = -.
Собственные числа = 0; = 1; = -1.
1 2 uxx1 yx3 yuРис.2.16. Структурная схема к примеру 2.6-Присоединенная матрица -1.
I() = Резольвента 1 1 2 -1 ( -1) I() -(E - A) = =.
2 A() -1 - 2 -1 - В соответствии с (2.6-4) передаточная функция по вектору состояния - p + p +1 2 p(p -1) p(p -1) p - Wux (p) = (pE - A) B = 2 p -1 p - 1 p 2 p -1 p - и по вектору выхода - p + p +1 2 -1 p(p -1) p -W (p) =C(pE - A) B =.
uy 1 p 2 p -1 p - Используя присоединенную матрицу, можно найти матрицу правых собственных векторов 1 1 V = 1 -1.
0 1 T Присоединенная матрица для A -1 0 d I ()=.
1 Левые собственные векторы 1 0 r r r ; 0.5; d = d = 0 d =.
Pages: | 1 | ... | 3 | 4 | 5 | 6 | 7 | ... | 18 | Книги по разным темам