Если положить начальные условия по всем координатам вектора стояния, кроме j-й, нулевыми, а по j-й - единичными, то есть xk (t0 ) = 0, при k = 1,2,K,n k j и xj = 1, (2.3-6) то элемент i-й строки и j-го столбца матрицы (t,t0 ) можно определить как процесс по i-й координате вектора состояния i, j (t,t0 ) = xi (t). (2.3-7) 7) К переходной функции применимо правило композиции:
(t2,t0 ) = (t2,t1) (t1,t0 ). (2.3-8) Действительно, решение уравнения (2.3-1) в момент t1 при начальr ных условиях x(t0 ) имеет вид:
r r x(t1) = Ф(t1,t0 )x(t0 ).
Если теперь этот результат принять за новые начальные условия, то к моменту времени t2 будем иметь:
r r r x(t2 ) = Ф(t2,t1)x(t1) = Ф(t2,t1) Ф(t1,t0 )x(t0 ).
8) Переходная матрица может быть вычислена с помощью ряда Пеано, или матрицианта матрицы A :
(t,t0 ) = M(A) = E + Q(A) + Q(A Q(A)) + Q(A Q(A Q(A))) + K, где t Q(A) = A( )d.
tДля того, чтобы получить этот результат, проинтегрируем дифференциальное уравнение (2.3-1):
t r r r x(t) = x(t0 ) + A(1)x(1)d1.
tТеперь повторим эту процедуру многократно, учитывая что:
r r r x(1) = x(t0 ) + A(2 )x(2 )d2.
tТогда получим:
t t r r r r x(t) = x(t ) + A( )d x(t ) + A( ) A( )d d x(t ) + 0 1 1 0 1 2 2 1 t0 t0 t1 t r + A( ) A( ) A( )d( )d( )d( )x(t ) +... = 1 2 3 3 2 1 t0 t0 tt t r = {E + A( )d + A( ) A( )d d +...}x(t ) 1 1 1 2 2 1 t0 t0 tЕсли объект - стационарный и матрица А состоит из постоянных и независящих от времени элементов, то матрициант матрицы А (или ряд Пеано) превращается в выражение для матричной экспоненты:
2 2 3 A (t - t ) A (t - t ) 0 Ф(t,t ) = E + A(t - t ) + + +... = 0 (2.3-9) 2! 3! A(t -t0 ) = exp(A(t - t )) = e.
Очевидно, что в стационарном случае переходная матрица является уже функцией только одного аргумента, равного разности начального и текущего (конечного) времени:
At (t,t ) = (t - t ) = e. (2.3-10) 0 Переходная матрица для стационарного объекта обладает рядом дополнительных замечательных свойств, трансформирующихся из соответствующих свойств переходной матрицы для нестационарного объекта :
из 1) - Ф(0) = E ; (2.3-11) -1 - At из 3) - Ф (t) = Ф(-t) = e ; (2.3-12) 2 3 dФ(t - t ) 2A (t - t ) 3A (t - t ) 0 0 из 4) - = 0 + A + + +... = dt 2! 3! A(t -t0 ) A(t -t0 ) = AФ(t -t ) = Ae = e A ; (2.3-13) из 5) - решение однородного дифференциального уравнения имеет вид:
r r A(t -t0 ) x(t) = e x(t ); (2.3-14) k из 7) - Ф(k t) = Ф (t). (2.3-15) 2.3.2. Решение неоднородных векторно-матричных дифференциальных уравнений Ранее были получены выражения для определения решений однородного дифференциального уравнения нестационарной:
r r x(t ) = Ф(t,t ) x(t ) (2.3-5) 0 и стационарной r r A(t -t0 ) x(t) = e x(t ) (2.3-14) систем. Используем эти результаты для определения решения неоднородного линейного векторно-матричного уравнения, соответствующего (2.2-7):
r r r & x = A(t) x(t) + B(t) u(t). (2.3-16) Произведем замену:
r r x(t) = Ф(t,t ) z(t) (2.3-17) и продифференцируем это выражение:
r r r & & & x(t) = Ф(t,t ) z(t) + Ф(t,t ) z(t) = 0 r r & = A(t) Ф(t,t ) z(t) + Ф(t,t ) z(t).
0 Сопоставляя это выражение с предыдущим, получим r r & Ф(t,t ) z(t) = B(t) u(t ), откуда r r & z(t) = Ф(t,t) B(t) u(t ), или, интегрируя, t r r r z(t) = z(t ) +, )B( ) u( )d.
0 Ф(ttИз (2.3-17) видно, что r r z(t ) = x(t ).
0 В итоге получаем выражение для решения векторно-матричного линейного неоднородного дифференциального уравнения, известное под названием формулы Коши t r r r x(t) = Ф(t,t ) x(t ) + (2.3-18) 0 0 Ф(t, )B( )u( )d.
t2.4. Некоторые сведения из теории матриц 2.4.1. Собственные числа, характеристический полином, присоединенная матрица r Умножение квадратной матрицы A на некоторый вектор x дает новый r вектор z, который, в общем случае, иначе ориентирован в пространстве и имеет другую длину по сравнению с исходным вектором. Однако, существуют и такие векторы, которые при выполнении этой операции меняют только свою длину, но не меняют направления, то есть r r Av = v, (2.4-1) где - это вещественная или комплексная скалярная величина, называемая собственным значением (характеристическим числом) матрицы r A, а вектор v называется собственным вектором этой матрицы. В развёрнутом виде уравнение (2.4-1) имеет следующий вид:
a v + a v + K + a v = v 11 1 12 1 1n n a v + a v +K + a v = v 21 1 22 1 2n n.
KKKKKKKKKKKKK a v + a v + K + a v = v n1 1 n 2 1 nn n n Очевидно, что для существования ненулевых v необходимо выполнеi ние условия:
det(E - A) E - A = 0. (2.4-2) Это уравнение называют характеристическим, или вековым уравнением матрицы A. Левая часть этого уравнения называется характеристическим полиномом, которая является степенным полиномом от, и степень его равна размеру n матрицы A.
n n-1 n-2 () =| E - A|= + + +K+ +. (2.4-3) A 1 2 n-1 n Таким образом, каждая квадратная матрица A имеет n собственных значений K,, которые могут быть определены путём решения 1, 2, n, характеристического уравнения с использованием стандартного математического обеспечения на цифровых вычислительных машинах.
Алгебраическая кратность корня - это его кратность как корня характеристического уравнения.
Геометрическая кратность корня - это количество линейно независимых решений уравнения (2.4-2), или количество линейно независимых r векторов v, связанных с данным.
Если не является собственным значением матрицы A, то существует -матрица (E - A). По правилу определения обратных матриц I() - (E - A) =, (2.4-4) E - A где I() называется присоединённой матрицей для матрицы A. Ее элементы определяются как алгебраические дополнения элементов T матрицы (E - A). Здесь символ Т означает транспонирование. Присоединённая матрица - это матричный полином степени n-1:
n-1 n- I() = E + I + K + I + I, (2.4-5) 1 n-2 n-где E - единичная матрица [n n].
Если все собственные числа матрицы A различны, то собственные векторы матрицы A могут быть выбраны пропорциональными любым ненулевым столбцам матрицы I( ), i = 1, 2,..., n.
i ПРИМЕР 2.4-1. Пусть объект задан структурной схемой, приведённой на рис.2.8.
xu x3 x2 Рис.2.8. Структурная схема к примеру 2.4-Ему соответствует система уравнений & x = -3x + x ;
1 1 & x = -2x + x ;
2 2 & x = -x + u, 3 или в матричном виде r r & x(t) = Ax(t ) + Bu(t), где - 3 1 0 ; A = 0 - 2 1 B =.
0 0 -1 Для этих исходных данных получаем характеристический полином +3 -1 3 P() = 0 + 2 -1 = + 6 +11 + 6.
0 0 +Ему соответствуют собственные числа = -1, = -2, = -3.
1 2 Найдем присоединенную матрицу ( + 2)( + 1) + 1 I() = 0 ( + 3)( + 1) + 3 = 0 0 ( + 3)( + 2) 3 1 0 2 1 2 0 =E + 4 1 + 3 3.
0 0 5 0 0 Найдём собственные векторы матрицы A :
0 0 1 0 - 1 1 2 - 2 0 0 0 0 I( ) = 0 2; I( ) = - 1 1; I( ) = 1 2 0 0 2 0 0 0 0 0 и можно выбрать 1 1 r r r 2; v = 1; v = v =.
1 2 2 0 Полученный результат нетрудно проверить прямой подстановкой в (2.41).
Имеется ряд алгоритмов для определения коэффициентов характеристического полинома и присоединенной матрицы. Один из наиболее употребимых - это алгоритм Фаддеева - Леверье. Он состоит в следующей последовательности вычислений:
A1=A; 1=-SpA ; I1=A1+1E;
A2=AI1; = - SpA ; I2=A2+2 E;
2..........................................
An-1=AIn-2; = - SpA ; In-1=An-1+-1 E;
n-1 n-n - An=AIn-1; = - SpA ; In=An+ E=0;
n n n n Здесь через SpA обозначен след матрицы A, то есть сумма ее диагональных элементов:
n SpA = a.
ii i =Последнее равенство процедуры используется для контроля точности вычислений.
Для объекта, приведенного в примере 2.4-1, - 9 1 1 - 6 0 ;
A2 = 0 - 8 3 A3 = 0 - 6 0.
0 0 - 5 0 0 - Если матрица A не вырожденна, то из промежуточных результатов алгоритма Фаддеева - Леверье, учитывая, что An = -nE, получаем A-1 = - In-1. (2.4-6) n Для рассматриваемого примера 2 1 0 3 3.
A-1 = 0 0 В вырожденном случае n = 0. Иллюстрацией этого может служить объект, структурная схема которого приведена на рис.2.9.
u x3 xxРис.2.9. Структурная схема. Вариант с n = 2.4.2. Собственные значения и собственные векторы транспонированной матрицы Собственные значения транспонированной матрицы, это такие, для которых система уравнений r r T A d = d (2.4-7) имеет нетривиальные решения, т.е. когда E - AT = 0. (2.4-8) Решение этого алгебраического уравнения дает n значений собственных чисел 1, 2,..., n. Так как определитель квадратной матрицы и её транспонированной матрицы равны, то собственные числа матриц A и AT также равны.
Таким образом, собственному числу i соответствует собственный векr r тор v матрицы A и собственный вектор di матрицы AT.
i Если транспонировать обе части уравнения (2.4-7), то получим:
r r (2.4-9) dT A = dT.
r В связи с этим вектор d называют левым собственным вектором матриr цы A, в отличие от v, который, в таком случае, называют правым собственным вектором. Для i -го собственного числа и i -го левого собственного вектора соответственно r rT diT A = idi.
r Умножим обе части этого равенства справа на вектор v :
j r r r r diT Av = idiTv. (2.4-10) j j Учитывая свойства собственных векторов, в результате получаем уравнение r r r r diTjv = idiTv, j j которое преобразуется к виду r r diTv (j -i ) = 0. (2.4-11) j Полагаем, что все собственные числа матрицы A различны. Тогда для r i j имеем i j и из равенства (2.4-11) следует, что векторы diT и r v взаимно ортогональны:
j r r diTv = 0, i j. (2.4-12) j r Это означает то, что di ортогонален (n - 1) - мерной гиперплоскости, с r базисом, образованным векторами v для всех j i.
j В качестве примера на рисунке 2.10 показан один из вариантов взаимного расположения правых и левых собственных векторов некоторой матрицы A для случая n = 3. Здесь хорошо видно, что каждый из векr r торов di ортогонален всем векторам vi при j i.
r dr vr dr vr dr vРис. 2.10. Пример взаимного расположения правых и левых собственных векторов Теперь рассмотрим случай, когда i = j. При этом скалярные произведеr r ния векторов d и vi не должны быть равны нулю.
i rЕсли предположить, rT r что di vi = 0, то придется утверждать, что вектор d ортогонален всему i r r r n - мерному пространству с базисом v1,v2, K,vn. Но этого не может r быть, так как вектор d сам принадлежит этому пространству. Таким обi разом, rT r di vi 0 для i = 1, 2,..., n. (2.4-13) В связи с тем, что собственные векторы можно выбирать с точностью до постоянного (в том числе комплексного) сомножителя, то наборы, иначе r r говоря, базисы {v} и {d} формируют так, чтобы для i = 1, 2,..., n выполнялось условие rT r di vi = 1 для i = 1, 2,..., n. (2.4-14) Отметим ещё одно важное свойство собственных векторов:
Если матрица A не имеет кратных собственных чисел, то все её собственные векторы линейно независимы, то есть образуют базис в пространстве Rn. Это нетрудно доказать.
Действительно, предположим сначала, что среди собственных векторов матрицы A первые два являются линейно зависимыми, то есть r (2.4-15) vi = 0, i i =где ни один из коэффициентов 1 и не равен нулю. Умножив это уравнение слева на A, получим r (2.4-16) ivi = 0.
i i =Теперь умножим (2.4-15) на 2 :
r (2.4-17) 2vi = 0.
i i =Вычтем (2.4-17) из (2.4-16) и в результате получим r 1(1 - 2 )v1 = 0.
r Из того, что 1 2 и 1 0 следует v1 = 0, чего не может быть, следовательно, первые два собственных вектора не могут быть линейно зависимыми.
Теперь предположим, что число линейно зависимых векторов равно r > 2, то есть r r vi = 0, 0: i = 1, 2,..., r.
i i i=Умножив это уравнение слева на A, получим r r (2.4-18) ivi = 0.
i i =Умножим (2.4-18) на r :
r r (2.4-19) rvi = 0.
i i =Вычтем (2.4-19) из (2.4-18) и в результате будем иметь r -r (i - r )vi = 0.
i i =Получается, что число линейно зависимых векторов r - 1< r. Если согласиться с этим, то дойдём до r = 2, и круг замкнулся.
Таким образом, действительно, все собственные векторы матрицы A являются линейно независимыми, поэтому матрица r r r r V = [v1, v2,..., vn], построенная из векторов базиса {v}, т.е. из правых собственных векторов матрицы A, является невырожденной. Эта матрица называется модальной матрицей. Из перечисленных выше свойств для правых и левых собственных векторов следует равенство:
- DTV = E, или DT = V. (2.4-20) DT - матрица, строки которой, являются транспонированными векторами r двойственного базиса {d}, т.е. левыми собственными векторами матрицы A :
rT drT d DT =. (2.4-21) r T dn 2.4.3. Определение функции от матрицы через её левые и правые собственные векторы Все n систем уравнений r r Avi = ivi, i = 1,2,...,n могут быть записаны с использованием блочных матриц:
r r r r r r [Av1 Av2... Avn ] = [1v1 2v2... nvn ].
Учтем, что r r r [Av1 Av2... Avn ] = AV, и r r r [1v1 2v2 L nvn ]= v v12 L v1n 0 L 11 v v22 L v2n 0 2 L = =V, L L L L L L L L v vn2 L vnn 0 0 L n nгде - диагональная матрица собственных чисел.
Таким образом, получено равенство AV = V, или A = VDT. (2.4-22) -Преобразование A = TCT, где T - произвольная невырожденная матрица, называется преобразованием подобия. Одно из основных свойств этого преобразования заключается в том, что собственные числа подобных матриц (здесь - A и C ) совпадают. Действительно, -1 -1 -A() = E - A = TT -TCT = T E -C T =C ().
Говорят, что матрица A приводится к диагональному виду преобразованием - = V AV = DT AV. (2.4-23) Более высокие степени A приводятся к диагональному виду таким же способом:
-1 -1 - 2 = V AVV AV = V A2V.....................................................
-1 - l = V AlV или Al = VlV.
Таким образом, если рассмотреть матричный многочлен - N(A) = Al + C1Al + K + Cl A + ClE, -то -1 -N(A) = V{l + C1l + K + Cl + ClE}V, -или.
N( ) 0 0 N(2 ) - V.
N(A) =V (2.4-24) 0 0 N(l ) Если применить этот результат к характеристическому полиному, то получим (A) = 0, (2.4-25) то есть каждая квадратная матрица удовлетворяет своему характеристическому полиному. Это утверждение известно в теории матриц как теорема Кэли-Гамильтона.
Pages: | 1 | ... | 2 | 3 | 4 | 5 | 6 | ... | 18 | Книги по разным темам