Sistemas de EDOs lineales Preliminares Definiciones b´ asicas. Un sistema de EDOs lineales de primer orden (en forma normal) es de la forma x0 = A(t)x + b(t) donde A : I → Mn (R) y b : I → Rn son funciones continuas definidas en un intervalo abierto I. Por analog´ıa al caso de las EDOLs, diremos que este sistema lineal (SL) es: homog´eneo, cuando b(t) = 0; a coeficientes constantes, cuando la matriz A(t) no depende del tiempo; y a coeficientes peri´ odicos, cuando la matriz A(t) es peri´odica. Teorema de existencia y unicidad. Si A = A(t) y b = b(t) son continuas en un intervalo abierto I ⊂ R, t0 ∈ I y x0 ∈ Rn , entonces el PVI lineal x0 = A(t)x + b(t),

x(t0 ) = x0 ,

tiene exactamente una soluci´ on global; es decir, una u ´nica soluci´on definida en todo el intervalo I. Derivadas de funciones matriciales. Veamos como derivar las combinaciones lineales, productos, inversas y determinantes de funciones matriciales derivables. Una funci´on matricial es derivable cuando todos sus elementos son funciones derivables. 1. Cualquer combinaci´ on lineal de matrices derivables tambi´en es derivable: 0 αA(t) + βB(t) = αA0 (t) + βB 0 (t), ∀α, β ∈ R. 0 2. El producto de matrices derivables es derivable: A(t)B(t) = A0 (t)B(t) + A(t)B 0 (t). 0 3. La inversa de una matriz invertible derivable es derivable: A−1 (t) = −A−1 (t)A0 (t)A−1 (t). 4. El determinante de una matriz derivable es una funci´on derivable: n 0 X det[A(t)] = det[a1 (t), . . . , a0j (t), . . . , an (t)], j=1

donde a1 (t), . . . , an (t) son las n columnas de la matriz A(t). Conviene recordar al operar con matrices que el producto de matrices no es conmutativo. ´neos a coeficientes variables Sistemas lineales homoge A lo largo de esta secci´ on supondremos que A(t) es una funci´on matricial n × n continua definida sobre un intervalo arbitrario I ⊂ R. Estructura de las soluciones. Las soluciones del sistema lineal homog´eneo x0 = A(t)x forman un subespacio vectorial de dimensi´ on n que podemos parametrizar, una vez fijado un instante t0 ∈ I arbitrario, mediante la condici´ on inicial x0 ∈ Rn . Ve´amoslo. Lema. Si x(t) es una soluci´ on de x0 = A(t)x, entonces o bi´en x(t) ≡ 0, o bi´en x(t) 6= 0 para todo t. Demostraci´ on. Si existe un instante t0 ∈ I tal que x(t0 ) = 0, entonces x(t) y la funci´on id´enticamente nula son soluciones del PVI x0 = A(t)x, x(t0 ) = 0. Por tanto, x(t) ≡ 0 por unicidad de soluciones.  Definici´ on. La soluci´ on x(t) ≡ 0 se denomina soluci´ on trivial. Lema (Principio de superposici´ on). Si x1 (t) y x2 (t) son dos soluciones arbitrarias de x0 = A(t)x, entonces cualquier combinaci´ on lineal de la forma x(t) = c1 x1 (t) + c1 x2 (t), 0

tambi´en es soluci´ on de x = A(t)x. 1

c1 , c2 ∈ R,

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

2

Demostraci´ on. x0 = (c1 x1 + c2 x2 )0 = c1 x01 + c2 x02 = c1 A(t)x1 + c2 A(t)x2 = A(t)(c1 x1 + c2 x2 ) = A(t)x.  Proposici´ on. Sea F el conjunto formado por todas las soluciones del sistema homog´eneo x0 = A(t)x. Sea x(t) = φ(t; t0 , x0 ) la soluci´ on del PVI x0 = A(t)x,

x(t0 ) = x0 .

Entonces: 1. La aplicaci´ on Rn 3 x0 7→ φ(t; t0 , x0 ) ∈ Rn es un isomorfismo lineal para todo t, t0 ∈ I. 2. F es un subespacio vectorial de C 1 (I; Rn ) de dimensi´ on n. Demostraci´ on. Sean t, t0 ∈ I instantes fijados pero arbitrarios. Entonces la aplicaci´on φ(t; t0 , ·) : Rn 3 x0 7→ φ(t; t0 , x0 ) ∈ Rn es lineal (como consecuencia del principio de superposici´on), inyectiva (como consecuencia del primer lema) y exhaustiva (pues Rn es un espacio vectorial de dimensi´on finita). Sabemos que cualquier soluci´ on x(t) est´ a definida y es continua en I, luego x0 (t) = A(t)x(t) tambi´en 1 es continua en I. Esto prueba que F ⊂ C (I; Rn ). El principio de superposici´on implica que F es un subespacio vectorial. Finalmente, como las soluciones del sistema est´an en correspondencia biyectiva con las condiciones iniciales, tenemos que dim F = dim Rn = n.  Observaci´ on. Complexificar la matriz del sistema no produce ning´ un cambio apreciable. Por ejemplo, si A : I → Mn (C) es continua en un intervalo I ⊂ R, entonces las soluciones de x0 = A(t)x forman un C-espacio vectorial de dimensi´ on compleja n. En cambio, complexificar la variable independiente t nos meter´ıa de lleno en la variable compleja. Lo evitaremos por falta de tiempo. Escribiremos Mn para denotar indistintamente el conjunto de matrices n × n a coeficientes reales o complejas. Observaci´ on. Sean x1 (t), . . . , xn (t) soluciones del sistema x0 = A(t)x y sea w(t) = det[x1 (t), . . . , xn (t)] su determinante, que recibe el nombre de Wronskiano. Como la aplicaci´on φ(t; t0 , ·) es un isomorfirmo de Rn para todo t, t0 ∈ I, deducimos que o bi´en w(t) ≡ 0 o bi´en w(t) 6= 0 para todo t ∈ I. Definici´ on. Cualquier base {x1 (t), . . . , xn (t)} del subespacio vectorial F es un conjunto fundamental (de soluciones) del sistema x0 = A(t)x. Definici´ on. Decimos que la matriz X : I ⊂ R → Mn es: Una soluci´ on matricial del sistema x0 = A(t)x cuando sus columnas son soluciones del sistema; es decir, cuando X 0 (t) = A(t)X(t); Una matriz fundamental del sistema x0 = A(t)x cuando sus columnas son soluciones linealmente independientes del sistema; es decir, cuando X 0 (t) = A(t)X(t) y det[X(t)] 6= 0 para todo t ∈ I; La matriz principal en el instante t0 del sistema x0 = A(t)x cuando sus columnas son soluciones del sistema y X(t0 ) = Id. La proposici´ on y las definiciones anteriores permiten hacer los siguientes comentarios. Dado cualquier instante t0 ∈ I y cualquier base {v 1 , . . . , v n } de Rn , las soluciones xj (t) = φ(t; t0 , v j ),

j = 1, . . . , n,

forman un conjunto fundamental de soluciones del sistema, luego su soluci´on general es xh (t) = c1 x1 (t) + · · · + cn xn (t),

c1 , · · · , cn ∈ R.

Si X(t) es una matriz fundamental arbitraria del sistema, entonces su soluci´on general es xh (t) = X(t)c,

c ∈ Rn .

En el caso complejo deberiamos escribir c1 , . . . , cn ∈ C y c ∈ Cn , respectivamente.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

3

Como φ(t; t0 , ·) es un isomorfismo de Rn , sabemos que φ(t; t0 , x0 ) = Φ(t; t0 )x0 para alguna una matriz invertible Φ(t; t0 ) ∈ Mn . Adem´as, Φ(t; t0 ) es la (´ unica) soluci´on del PVI matricial Dt Φ(t; t0 ) = A(t)Φ(t; t0 ),

Φ(t0 ; t0 ) = Id.

Es decir, Φ(·; t0 ) es la matriz principal en el instante t0 . Hay infinitas matrices fundamentales, pero una u ´nica matriz principal en cada instante t0 ∈ R. Ejemplo 1. Probaremos en el ejemplo 16 que las funciones !  t  2 et /2 2e x1 (t) = , x2 (t) = t2 /2 et e son soluciones del sistema lineal homog´eneo x0 = A(t)x,

 A(t) =

2 − t 2t − 2 1 − t 2t − 1

 ,

t ∈ R.

Adem´ as, la matriz obtenida al poner en columnas estas soluciones tiene determinante no nulo: ! 2 2 et /2 2et =⇒ det[X(t)] = −et /2+t 6= 0, ∀t ∈ R. X(t) = t2 /2 t e e Por tanto, {x1 (t), x2 (t)} es un conjunto fundamental, X(t) es una matriz fundamental y !   2 c1 et /2 + 2c2 et c1 , c = xh (t) = c1 x1 (t) + c2 x2 (t) = X(t)c = ∈ R2 2 c2 c1 et /2 + c2 et es la soluci´ on general del sistema. Proposici´ on (Relaci´ on entre matrices fundamentales). Dadas dos matrices fundamentales arbitrarias X(t) e Y (t) del sistema x0 = A(t)x, existe una u ´nica matriz invertible S ∈ Mn tal que Y (t) = X(t)S. En particular, Φ(t; t0 ) = X(t)X

−1

(t0 ) para toda matriz fundamental X(t).

Demostraci´ on. Empezamos comprobando que la derivada del producto X −1 Y es id´enticamente nula:  0 0 X −1 Y = X −1 Y + X −1 Y 0 = −X −1 X 0 X −1 Y + X −1 Y 0 = −X −1 A(t)XX −1 Y + X −1 A(t)Y = 0. Por tanto, existe una matriz constante S ∈ Mn tal que Y (t) = X(t)S. La unicidad est´a clara, pues S = X −1 (t0 )Y (t0 ). Adem´ as, det[S] = det[Y (t0 )]/ det[X(t0 )] 6= 0. Finalmente, si buscamos S tal que Φ(t; t0 ) = X(t)S y evaluamos en t = t0 , obtenemos que S = X −1 (t0 ).  La matriz S de la proposici´ on anterior se puede interpretar como la matriz del cambio de base entre las bases de F asociadas a las columnas de ambas matrices fundamentales. Proposici´ on (F´ ormula de Liouville). Si X(t) es una soluci´ on matricial de x0 = A(t)x, entonces Z t  det[X(t)] = det[X(t0 )] exp traza[A(s)] ds , ∀t, t0 ∈ I. t0

Demostraci´ on. Probamos un resultado equivalente. A saber, que el determinante de cualquier soluci´on matricial cumple la EDO lineal homog´enea de primer orden 0 det[X(t)] = traza[A(t)] · det[X(t)]. Distinguimos dos situaciones diferentes a la hora de probar la validez de la EDO anterior. En primer lugar, suponemos que X(t) no es una matriz fundamental, luego su determinante es id´enticamente nulo (sus columnas son linealmente dependientes) y es la soluci´on trivial de la EDO. En segundo lugar, suponemos que X(t) es una matriz fundamental. En tal caso, sus columnas x1 (t), . . . , xn (t) son una base de Rn para todo t ∈ I, luego existen unas funciones cij (t) tales que x0j (t) = A(t)xj (t) =

n X i=1

cij (t)xi (t),

∀j = 1, . . . , n,

∀t ∈ I.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

4

 Es decir, la matriz C(t) = cij (t) es la matriz del endomorfismo lineal A(t) : Rn 3 x 7→ A(t)x ∈ Rn en la base {x1 (t), . . . , xn (t)}. En otras palabras, C(t) = X −1 (t)A(t)X(t). Operando, vemos que " # n n n X X X 0 0 = det[X(t)] det[x1 (t), . . . , xj (t), . . . , xn (t)] = det x1 (t), . . . , cij (t)xi (t), . . . , xn (t) j=1

=

n X

j=1

i=1

! cii (t) det[x1 (t), . . . , xj (t), . . . , xn (t)] = traza[A(t)] · det[X(t)].

i=1

En la pen´ ultima igualdad hemos usado que el determinante es una aplicaci´on multilineal alternada. Y en la u ´ltima hemos usado que la traza de un endomorfismo no depende de la base escogida.  La f´ ormula de Liouville junto a las ecuaciones variacionales respecto la posici´on permiten estudiar como evoluciona el volumen de una regi´ on del espacio bajo la acci´on del flujo de un sistema de EDOs de primer orden. En el siguiente teorema, med(M ) denota la medida de Lebesgue de un conjunto medible M ⊂ Rn , mientras que div f (t, x) = traza[Dx f (t, x)] =

n X ∂fi (t, x) ∂xi i=1

denota la divergencia de un campo de vectores f = (f1 , . . . , fn ) respecto la posici´on x = (x1 , . . . , xn ). Teorema (Evoluci´ on de un volumen por un flujo general). Sea f : Ω → Rn una aplicaci´ on de clase 1 C en un abierto Ω ⊂ R × Rn . Sea φ(t; t0 , x0 ) el flujo del sistema x0 = f (t, x), que es de clase C 1 en un abierto D ⊂ R × R × Rn . Sea M0 un medible de Rn y sean t, t0 ∈ R tales que (t, t0 , x0 ) ∈ D para todo x0 ∈ M0 . Entonces M = {φ(t; t0 , x0 ) : x0 ∈ M0 } tambi´en es un medible de Rn y Z t  Z med[M ] = exp div f (s, φ(s; t0 , x0 ) ds dx0 . M0

t0

Demostraci´ on. El conjunto M = φ(t; t0 , M0 ) es la imagen de un medible por una aplicaci´on de clase C 1 , luego es medible. Consideramos las matrices A(t) = Dx f (t, φ(t; t0 , x0 )) e Y (t) = Dx0 φ(t; t0 , x0 ). La matriz Y (t) cumple la ecuaci´ on variacional y la condici´on inicial Y 0 (t) = A(t)Y (t),

Y (t0 ) = Id.

Es decir, Y (t) es la matriz principal en el instante t0 del sistema x0 = A(t)x. Por tanto, la f´ormula de Liouville implica que Z t  Z t    det Dx0 φ(t; t0 , x0 ) = det[Y (t)] = 1 · exp traza[A(s)] ds = exp div f (s, φ(s; t0 , x0 ) ds . t0

t0

Realizando el cambio de variables M0 3 x0 7→ x = φ(t; t0 , x0 ) ∈ M , resulta que Z t  Z Z Z   det Dx0 φ(t; t0 , x0 ) dx0 = exp div f (s, φ(s; t0 , x0 ) ds dx0 . med[M ] = dx = M

M0

M0

En la u ´ltima igualdad hemos usado la f´ ormula anterior.

t0



Observaci´ on. El flujo φ(t; t0 , x0 ) conserva el volumen de todos los conjuntos medibles si y s´olo si la divergencia del campo vectorial f (t, x) es id´enticamente nula. De hecho, el flujo expande, preserva o contrae volumen localmente (en tiempo y espacio) en funci´on del signo de la divergencia. Ejemplo 2. Consideramos el campo central aut´onomo 3D f (x) = −x/kxk3 . definido en el abierto Ω = R3 \ {0}, Se puede comprobar que div f (x) ≡ 0, luego el flujo del sistema x0 = f (x) preserva volumen. Sorprendentemente, el campo apunta siempre hacia el origen, lo cual podr´ıa hacernos pensar que contrae volumen.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

5

Corolario (Evoluci´ on de un volumen por un flujo lineal). Sea φ(t; t0 , x0 ) el flujo del sistema lineal x0 = A(t)x + b(t). Entonces la f´ ormula anterior se simplifica bastante. Concretamente,   Z t Z t Z traza[A(s)] ds , ∀t, t0 ∈ I. med[M ] = traza A(s) dx0 = med[M0 ] · exp exp M0

t0

t0

Si adem´ as el sistema lineal es a coeficientes constantes, entonces med[M ] = med[M0 ]e(t−t0 ) traza[A] ,

∀t, t0 ∈ I.

´neos a coeficientes constantes Sistemas lineales homoge Los sistemas a coeficientes constantes x0 = Ax, A ∈ Mn , son aut´onomos, luego sus flujos son de la forma φ(t; t0 , x0 ) = ϕ(t − t0 ; x0 ), con ϕ : R × Rn → Rn . Queremos encontrar una f´ormula expl´ıcita para el flujo ϕ(t; x0 ) en t´erminos de la matriz A. El m´etodo es muy simple cuando A es diagonalizable; basta calcular sus VAPs y una base de VEPs. El caso general requiere usar la forma de Jordan y una base de Jordan de la matriz. El caso diagonalizable (real o complejo). La idea b´asica para resolver el caso diagonalizable es que las funciones vectoriales que se obtienen al multiplicar un VEP por la funci´on exponencial que tiene el correspondiente VAP por exponente son soluciones. Proposici´ on. Si v es un VEP de VAP λ de una matriz A ∈ Mn , entonces x(t) = ϕ(t; v) = eλt v es la soluci´ on del PVI x0 = Ax, x(0) = v. Demostraci´ on. Como v es un VEP de VAP λ de la matriz A, sabemos que Av = λv. Por tanto, x0 (t) = λeλt v = eλt λv = eλt Av = Aeλt v = Ax(t), pues podemos escribir el escalar eλt en la posici´on que queramos. La propiedad x(0) = v es obvia.  Ejercicio. Probar que si v es un VEP constante de VAP λ(t) de una matriz cuadrada A(t), entonces Rt

x(t) = φ(t; t0 , v) = e

t0

λ(s) ds

·v

es una soluci´ on del PVI no aut´ onomo x0 = A(t)x, x(t0 ) = v. Cuando la matriz del sistema es diagonalizable podemos, a partir de una base de VEPs, encontrar un conjunto fundamental formado por soluciones de la forma anterior o dar una f´ormula para el flujo. Teorema. Supongamos que {v 1 , . . . , v n } es una base de VEPs de VAPs λ1 , . . . , λn de la matriz A. Entonces, la soluci´ on general del sistema x0 = Ax es xh (t) = c1 eλ1 t v 1 + · · · + cn eλn t v n ,

c1 , . . . , cn ∈ R.

Y su flujo viene dado por: x0 = c1 v 1 + · · · + cn v n ⇒ ϕ(t; x0 ) = c1 eλ1 t v 1 + · · · + cn eλn t v n . Demostraci´ on. Basta notar que las funciones vectoriales xj (t) = φ(t; 0, v j ) = ϕ(t; v j ) = eλj t v j , 1 ≤ j ≤ n, forman un conjunto fundamental de soluciones, pues {v 1 , . . . , v n } es una base. La f´ormula del flujo es una consecuencia de la linealidad de la aplicaci´on ϕ(t; ·) : Rn → Rn .  on general y una matriz fundamental del sistema Ejemplo 3. Calcular la soluci´   −3 1 0 x = Ax, A= . 1 −3 El polinomio caracter´ıstico de esta matriz es QA (λ) = det(A − λId) = λ2 − (traza A)λ + det A = λ2 + 6λ + 8 = (λ + 2)(λ + 4),

6

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

luego los VAPs son λ1 = −2 y λ2 = −4, ambos simples. Por tanto, la matriz A diagonaliza y resulta f´ acil calcular una base de VEPs. Una posible base es v 1 = (1, 1) y v 2 = (1, −1). As´ı pues,       1 1 c1 e−2t + c2 e−4t λ1 t λ2 t −2t −4t xh (t) = c1 e v 1 + c2 e v 2 = c1 e + c2 e = , c1 , c2 ∈ R 1 −1 c1 e−2t − c2 e−4t es la soluci´ on general del sistema. Adem´ as,    −2t λt e λ1 t 2 X(t) = e v 1 e v 2 = e−2t

e−4t −e−4t



es una matriz fundamental, probablemente la m´as simple de obtener. N Ejercicio. Sea x(t) una soluci´ on del sistema anterior. ¿Qu´e se puede decir sobre l´ımt→+∞ x(t)? El caso diagonalizable complejo. Cuando la matriz diagonaliza en los complejos; es decir, cuando diagonaliza pero tiene algunos VAPs complejos conjugados, el m´etodo anterior proporciona soluciones complejas que se pueden convertir f´ acilmente en soluciones reales (es decir, en soluciones que toman valores reales para todo t ∈ R). Basta substituir cada pareja de soluciones complejas conjugadas por sus partes real e imaginaria. Proposici´ on. Si v ± = u ± w i son VEPs de VAPs λ± = α ± β i de una matriz A ∈ Mn (R), entonces    y(t) = ϕ(t; u) = < eλ+ t v + = eαt u cos βt − w sin βt ,    z(t) = ϕ(t; w) = = eλ+ t v + = eαt u sin βt + w cos βt , son soluciones linealmente independientes del sistema x0 = Ax. Adem´ as, y(0) = u y z(0) = w. Demostraci´ on. En primer lugar, recordamos que las funciones x± (t) = ϕ(t; v ± ) = eλ± t v ± = eαt (cos βt ± i sin βt)(u ± iw) = y(t) ± z(t) i son soluciones complejas conjugadas. En la tercera igualdad hemos usado la f´ormula de Euler. Como el conjunto de soluciones es un subespacio vectorial sobre C, deducimos que las combinaciones lineales x+ (t) − x− (t) x+ (t) + x− (t) , z(t) = 2 2i tambi´en son soluciones. Para ver que son linealmente independientes, recordamos un resultado cl´asico de ´ algebra lineal: VEPs de VAPs diferentes siempre son linealmente independientes. En particular, los VEPs complejos conjugados v ± = u ± w i son independientes, luego sus partes reales e imaginarias u y w tambi´en lo son. En consecuencia, y(t) = ϕ(t; u) y z(t) = ϕ(t; w) tambi´en lo son, pues ϕ(t, ·) es un isomorfismo de Rn . Las propiedades y(0) = u y z(0) = w son triviales.  y(t) =

Ejemplo 4. Calcular la soluci´ on general y una matriz fundamental del sistema   1 −12 −14 2 −3  . x0 = Ax, A= 1 1 1 −2 Se puede comprobar (¡comprobadlo!) que el polinomio caracter´ıstico de esta matriz es QA (λ) = det(A − λId) = · · · = −λ3 + λ2 − 25λ + 25 = −(λ − 1)(λ2 + 25). Los VAPs son λ1 = 1 y λ2,3 = ±5 i, todos simples. Por tanto, la matriz diagonaliza en los complejos. Pasamos a calcular un conjunto fundamental de soluciones reales. Empezamos por el caso m´ as f´ acil, el VAP real λ1 = 1.         25z/6 25  x    −12y − 14z = 0 Nuc(A − Id) =  y  ∈ R3 : =  −7z/6  : z ∈ R =  −7  . x + y − 3z = 0     z z 6

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

7

Por tanto, v 1 = (25, −7, 6) es un VEP de VAP λ1 = 1, luego obtenemos la soluci´on   25et x1 (t) = eλ1 t v 1 =  −7et  . 6et El caso de los VAPs complejos conjugados es m´as complicado, aunque aprovecharemos que si dos VAPs son conjugados, sus VEPs tambi´en lo son. Es decir, basta realizar la mitad de los c´alculos. Por tanto, para calcular la parte de la base asociada a los VAPs λ2,3 = ±5 i, basta calcular el n´ ucleo      (1 − 5 i)x − 12y − 14z = 0  1 + 5i  x  . x + (2 − 5 i)y − 3z = 0 1 Nuc(A − 5 iId) =  y  ∈ R3 : =    z x + y − (2 + 5 i)z = 0 1 Por tanto, v 2,3 = u ± w i son VEPs complejos conjugados de VAPs λ2,3 = α ± β i, siendo α = 0, β = 5, u = (1, 1, 1) y w = (5, 0, 0). Usando la proposici´on anterior, obtenemos dos soluciones reales linealmente independientes:     cos 5t − 5 sin 5t sin 5t + 5 cos 5t  λ2 t   λ2 t  , . cos 5t sin 5t y(t) = < e v 2 =  z(t) = = e v 2 =  cos 5t sin 5t En particular, xh (t) = c1 x1 (t) + c2 y(t) + c3 z(t) = X(t)c es la soluci´on general real del sistema, donde el vector de constantes c = (c1 , c2 , c3 ) ∈ R3 queda libre y     25et cos 5t − 5 sin 5t sin 5t + 5 cos 5t      cos 5t sin 5t X(t) = eλ1 t v 1 < eλ2 t v 2 = eλ2 t v 2 =  −7et 6et cos 5t sin 5t es una matriz fundamental real. N El caso general: Exponencial de una matriz. Cuando la matriz del sistema no diagonaliza se necesitan algunos resultados m´ as elaborados del ´algebra lineal. A saber, la forma (reducida) de Jordan y las bases de Jordan. Damos un r´ apido repaso a las notaciones cl´asicas y los resultados b´asicos. Dado un escalar λ ∈ C y un natural r ∈ N, Jr (λ) denotar´a la matriz r×r cuyos elementos diagonales son igual al escalar λ, cuyos elementos subdiagonales son igual a uno y el resto son nulos. Por ejemplo,     λ 0 0 0   λ 0 0  1 λ 0 0  λ 0  J1 (λ) = (λ), J2 (λ) = , J3 (λ) =  1 λ 0  , J4 (λ) =   0 1 λ 0 . 1 λ 0 1 λ 0 0 1 λ Las matrices de la forma Jr (λ) son bloques de Jordan. Las matrices diagonales por bloques, cuyos bloques diagonales son bloques de Jordan, son matrices de Jordan. Teorema (Forma de Jordan). Dada cualquier matriz A ∈ Mn , existe una matriz de Jordan J = diag(J1 , . . . , Jl ) ∈ Mn , con bloques de Jordan Jk = Jrk (λk ), 1 ≤ k ≤ l, y una matriz invertible S ∈ Mn tales que J = S −1 AS. La matriz de Jordan es u ´nica salvo permutaciones de sus bloques. Definici´ on. La matriz J es la forma (reducida) de Jordan de A. Las columnas de la matriz S forman una base de Jordan de A. El conjunto formado por todos los VAPs de A se denomina espectro y se denota Spec(A). Un VAP es semi-simple cuando su bloque de Jordan es diagonal. Una matriz es diagonalizable si y s´ olo si su forma de Jordan es diagonal o, equivalentemente, cuando todos sus VAPs son semi-simples. Por tanto, es diagonalizable en los complejos si y s´olo si todos sus VAPs tienen multiplicidades algebraicas y geom´etricas iguales: mg(λ) = ma(λ) para todo λ ∈ Spec(A). Y diagonaliza en los reales cuando, adem´ as, todos sus VAPs son reales. Finalmente, recordamos que 1 ≤ mg(λ) ≤ ma(λ) para todo λ ∈ Spec(A). Fin del repaso.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

8

Ejemplo 5. Si λ ∈ Spec(A) no es semi-simple, en cada base de Jordan existen dos vectores consecutivos u y v tales que Au = λu + v y Av = λv. En la secci´on anterior vimos que ϕ(t; v) = eλt v. Ahora veremos que ϕ(t; u) = eλt (u + tv). Efectivamente, si notamos q(t) = eλt (u + tv), entonces q(0) = u y q 0 (t) = eλt λ(u + tv) + eλt v = eλt (λu + tλv + v) = eλt (Au + tAv) = Aeλt (u + tv) = Aq(t). Sabemos que dado cualquier escalar a ∈ R, x(t) = ϕ(t; x0 ) = eat x0 es el flujo de la EDO x0 = ax. Por analog´ıa, conjeturamos que dada cualquier matriz A ∈ Mn , x(t) = ϕ(t; x0 ) = eAt x0 es el flujo del sistema x0 = Ax. Sin embargo, necesitamos dar un significado preciso al s´ımbolo eAt . Ejercicio. Probar por inducci´ on que las iteraciones de Picard correspondientes al PVI x0 = Ax, x(0) = x0 vienen dadas por ! j X Ak t k x0 , ∀j ≥ 0. xj (t) = k! k=0

Definici´ on. El ejercicio anterior sugiere definir la matriz exponencial eAt como la serie de potencias ∞ X Ak t k eAt := . k! k=0

Ejemplo 6. La exponencial de una matriz diagonal es diagonal. Si D = diag(λ1 , . . . , λn ), entonces ! ∞ ∞ ∞ ∞ k X X X X  D k tk (λ1 t)k (λn t)k Dt k k t e = = diag(λ1 , . . . , λn ) = diag ,..., = diag eλ1 t , . . . , eλn t . k! k! k! k! k=0

k=0

k=0

k=0

En particular, esto prueba que la exponencial de una matriz no se obtiene calculando la exponencial elemento a elemento de la matriz inicial. N A continuaci´ on comprobamos que nuestras intuiciones son correctas y listamos las propiedades m´as importantes de la matriz exponencial eAt . Proposici´ on. Dada una matriz arbitraria A ∈ Mn , la funci´ on matricial eAt : R 3 t 7→ eAt ∈ Mn cumple las siguientes propiedades: 1. eAt es absolutamente convergente en R y uniformemente convergente sobre compactos de R;  2. eAt ∈ C ∞ (R; Mn ) y Dt eAt = AeAt ; 3. La matriz eAt es igual a la matriz identidad n × n cuando t = 0; 4. eA(t+s) = eAt eAs ; 5. Si A, B ∈ Mn conmutan (es decir, si AB = BA), entonces e(A+B)t = eAt eBt = eBt eAt ;  At 6. det e = etraza[A]t ; 7. La matriz eAt es invertible para todo t ∈ R y su inversa es la matriz e−At ; 8. El flujo del sistema x0 = Ax es φ(t; t0 , x0 ) = ϕ(t − t0 ; x0 ) = e(t−t0 )A x0 ; y 9. Si S es invertible y J = S −1 AS, entonces eJt = S −1 eAt S. 1. Sea k · k una norma matricial sub-multiplicativa arbitraria. Entonces, ∞ k k ∞ X

A t X kAkk tk

≤ = ekAkt < ∞, ∀t ∈ R.

k! k! k=0 k=0 P Por tanto, aplicando el criterio M de Weiertrass vemos que la serie de potencias k≥0 Ak tk /k! es absolutamente convergente en R y uniformemente convergente sobre compactos de R. 2. Toda serie de potencias uniformemente convergente sobre compactos es C ∞ y puede ser derivada t´ermino a t´ermino. Por tanto, eAt ∈ C ∞ (R; Mn ) y

Demostraci´ on.

∞ ∞ ∞ X X  X Ak tk−1 Ak−1 tk−1 Ak t k Dt eAt = =A =A = AeAt . (k − 1)! (k − 1)! k! k=1

k=1

k=0

3. El t´ermino A0 t0 /0! = Id es el u ´nico que no se anula al evaluar la serie de potencias en t = 0.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

9

4. Fijado s ∈ R, consideramos las funciones X1 (t) = eA(t+s) y X2 (t) = eAt eAs . Entonces X10 = AeA(t+s) = AX1 ,

X20 = AeAt eAs = AX2 ,

X1 (0) = eAs = X2 (0).

Por tanto, X1 (t) y X2 (t) son soluciones del mismo PVI matricial, luego X1 (t) = X2 (t) por unicidad de soluciones. 5. Consideramos las funciones matriciales Y1 (t) = e(A+B)t e Y2 (t) = eAt eBt . Entonces Y10 = (A + B)e(A+B)t = (A + B)Y1 ,

Y20 = AeAt eBt + eAt BeBt = (A + B)Y2 .

Las matrices eAt y B conmutan, pues A y B conmutan. Adem´as, Y1 (0) = Id = Y2 (0). Por tanto, Y1 (t) e Y2 (t) son soluciones del mismo PVI matricial, luego Y1 (t) = Y2 (t). 6. Es una consecuencia directa de la f´ ormula de Liouville, pues eAt es una soluci´on matricial del 0 sistema x = Ax. 7. El punto anterior implica que la matriz eAt es invertible para todo t ∈ R, pues su determinante no es nulo. Adem´ as, eAt e(−A)t = e(A+(−A))t = e0t = Id, pues las matrices A y B = −A conmutan. 8. Hemos visto que eAt es una matriz fundamental de x0 = Ax, luego φ(t; t0 , x0 ) = Φ(t; t0 )x0 con −1 Φ(t; t0 ) = eAt eAt0 = eAt e−At0 = eA(t−t0 ) . 9. Aplicamos la definici´ on de exponencial de una matriz: e

Jt

=

∞ X J k tk k=0

k!

−1

=

∞ X (S −1 AS)k tk

k!

k=0 k

−1

−1

=

∞ X S −1 Ak Stk k=0 −1

k! −1

=S

−1

∞ X Ak t k k=0

−1

!

k!

S = S −1 eAt S,

k

ya que (S AS) = S ASS AS · · · S ASS AS = S A S.  El c´ alculo de la matriz exponencial eAt se realiza mediante un cambio de base a forma de Jordan. Proposici´ on. Sea J = diag(J1 , . . . , Jl ) ∈ Mn , Jk = Jrk (λk ), 1 ≤ k ≤ l, la forma reducida de Jordan de A ∈ Mn y sea S ∈ Mn una matriz invertible tal que J = S −1 AS. Entonces: X(t) = eAt S = SeJt es una matriz fundamental del sistema x0 = Ax. 0 ) −1 Φ(t; t0 ) = eA(t−t0 ) = SeJ(t−t S es la matriz principal en el instante t0 del sistema x0 = Ax.  Jt J1 t Jl t e = diag e , . . . , e . Dado un bloque de Jordan Jr (λ) de orden r y VAP λ, se cumple que   1   t 1    λt  t2  t 1 e . 2 eJr (λ)t = exp Jr (λ)t =    .. .. .. ..   . . . .   r−1 2 t t ··· t 1 (r−1)! 2 rk Sea PA (λ) = Πm el polinomio m´ınimo de A. Entonces cada elemento de la matriz k=1 (λ − λk ) At e es una combinaci´ on lineal de las funciones

eλ1 t , teλ1 t , . . . , tr1 −1 eλ1 t , eλ2 t , teλ2 t , . . . , tr2 −1 eλ2 t , . . . , eλm t , teλm t , . . . , trm −1 eλm t . Para calcular la soluci´ on general de un sistema, basta tener una matriz fundamental arbitraria. Por tanto, como espabilados perezosos que somos, nos limitaremos a calcular la matriz fundamental dada por la f´ ormula X(t) = SeJt , evitando a toda costa invertir la matriz S. Ejemplo 7. Calcular la soluci´ on general y una matriz fundamental del sistema   0 −1 0 x = Ax, A= . 1 −2 El polinomio caracter´ıstico de esta matriz es QA (λ) = det(A − λId) = λ2 − (traza A)λ + det A = λ2 + 2λ + 1 = (λ + 1)2 ,

10

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

luego tiene un u ´nico VAP doble: λ1 = λ2 = −1. Adem´as, la matriz no diagonaliza, pues mg(−1) = dim[Nuc(A + Id)] = 1 < 2 = ma(−1). La forma de Jordan J y una matriz de cambio de base (de base de Jordan a base natural) S son     −1 0 1 1 J = J2 (−1) = , S= . 1 −1 0 1 Por tanto, podemos calcular una matriz fundamental con la f´ormula     1 1 1 0 1+t Jt −t X(t) = Se = e = 0 1 t 1 t Finalmente, la soluci´ on general del sistema es   c1 + c2 + c1 t xh (t) = X(t)c = e−t , c1 t + c2

1 1



e−t .

c1 , c2 ∈ R.

Ejercicio. Sea x(t) una soluci´ on del sistema anterior. ¿Qu´e se puede decir sobre l´ımt→+∞ x(t)? Ejercicio. ¿Cu´ ales de las siguientes funciones vectoriales son soluciones de un sistema lineal homog´eneo a coeficientes constantes x0 = Ax con A ∈ M2 ? Dar una matriz A cuando sea posible.  t   t   t     t  3e + e−t 3e + e−t 3e + e−t 3et e + 2e−2t , , , , . e2t et tet t2 et et + 2e−2t R  t Observaci´ on. Si la funci´ on a : I → R es continua, entonces φ(t; t0 , x0 ) = exp t0 a(s) ds x0 es el flujo de la EDO lineal homog´enea de primer orden x0 = a(t)x. Por  contra, si la funci´on matricial Rt A : I → Mn (R) es continua, entonces φ(t; t0 , x0 ) = exp t0 A(s) ds x0 no es, en general, el flujo del sistema a coeficientes variables x0 = A(t)x. Ejercicio. Probar que si la funci´ on matricial R A : I →Mn (R) es continua y A(t)A(s) = A(s)A(t) para t todo t, s ∈ I, entonces φ(t; t0 , x0 ) = exp t0 A(s) ds x0 es el flujo de x0 = A(t)x. Estabilidad. Queremos describir cualitativamente las soluciones del sistema x0 = Ax, con A ∈ Mn . Definici´ on. Diremos que un punto x0 ∈ Rn es un punto de equilibrio del sistema x0 = Ax cuando la velocidad del sistema en ese punto sea cero. Es decir, cuando x0 ∈ Nuc A. Diremos que el sistema x0 = Ax es degenerado cuando tenga infinitos puntos de equilibrio. Es decir, cuando det[A] = 0. Observaci´ on. Si x0 es un punto de equilibrio de x0 = Ax, entonces el cambio de variable dependiente y = x − x0 transforma el sistema original en el sistema y 0 = Ay (¡es el mismo!), pues y 0 = (x − x0 )0 = x0 = Ax = Ax − Ax0 = A(x − x0 ) = Ay. Por tanto, todos los puntos de equilibrio son “iguales” y basta estudiar el origen. Dado un sistema lineal homog´eneo a coeficientes constantes, la primera cuesti´on cualitativa que planteamos consiste en determinar si sus trayectorias escapan a infinito o tienden al origen cuando t → +∞. En realidad, estos dos comportamientos no cubren todas las posibilidades. Por ejemplo, existen sistemas cuyas trayectorias giran eternamente sin escapar a infinito ni tender al origen. Definici´ on. Diremos que el sistema x0 = Ax es: Repulsor cuando todas sus soluciones no triviales escapan a infinito; Inestable (I) cuando alguna de sus soluciones escapa a infinito; Estable (E) cuando todas sus soluciones son acotadas; y Atractor o asint´ oticamente estable (AE) cuando todas sus soluciones tienden al origen. Observaci´ on. Si x0 es un punto de equilibrio, entonces x(t) ≡ x0 es la u ´nica soluci´on que cumple x(t0 ) = x0 para alg´ un t0 ∈ R. Un sistema degenerado tiene soluciones no triviales que ni escapan a infinito ni tienden al origen al ser constantes, luego no es ni repulsor ni atractor,

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

11

Ejemplo 8. La aplicaci´ on ϕ(t; x0 ) = eλt x0 es el flujo de la EDO lineal homog´enea x0 = λx. Por tanto, esta EDO es: repulsora o I ⇔ λ > 0, atractora o AE ⇔ λ < 0 y E pero no AE ⇔ λ = 0. N Definici´ on. Sea v un VEP de VAP λ ∈ R de la matriz A. Sea r = [v] la recta que pasa por el origen con direcci´ on v. Entonces, diremos que r es una Recta invariante inestable del sistema x0 = Ax cuando λ > 0. Recta invariante estable del sistema x0 = Ax cuando λ < 0. Recta invariante de puntos de equilibrio del sistema x0 = Ax cuando λ = 0. An´ alogamente, sean v ± = u ± w i VEPs complejos conjugados de VAPs λ± = α ± β i de la matriz A. Sea Π = [u, w] el plano que pasa por el origen con direcciones u y w. Entonces, diremos que Π es un Plano invariante inestable del sistema x0 = Ax cuando α > 0. Plano invariante estable del sistema x0 = Ax cuando α < 0. Plano invariante de giros cerrados del sistema x0 = Ax cuando α = 0. Pasamos a interpretar estas definiciones. Sea x(t) = ϕ(t; x0 ) = eAt x0 el flujo del sistema x0 = Ax. Si x0 ∈ r, entonces Ax0 = λx0 , luego x(t) = eλt x0 . Por tanto, cualquier trayectoria que empieza en un punto de la recta r se mantiene dentro de la recta (por eso decimos que la recta es invariante) y para decidir si escapa hacia infinito, tiende al origen o se queda fija basta mirar el signo del VAP λ. Si x0 ∈ Π = [u, w], entonces existen unos coeficientes a0 , b0 ∈ R tales que x0 = a0 u + b0 w, luego x(t) = ϕ(t; x0 ) = ϕ(t; a0 u + b0 w) = a0 ϕ(t; u) + b0 ϕ(t; w) = a0 y(t) + b0 z(t) = a(t)u + b(t)w,   donde y(t) = ϕ(t; u) = eαt u cos βt − w sin βt , z(t) = ϕ(t; w) = eαt u sin βt + w cos βt y      a(t) cos βt sin βt a0 αt =e . b(t) − sin βt cos βt b0 Por tanto, cualquier trayectoria que empieza en un punto del plano Π se mantiene dentro del plano (por eso decimos que el plano es invariante) girando sin parar y para decidir si escapa hacia infinito, tiende al origen o los giros son cerrados basta mirar el signo de la parte real α. Si la parte real es igual a cero, entonces todas las trayectorias contenidas en el plano son peri´odicas de periodo T = 2π/β. Podemos escribir la f´ omula anterior en “polares”. Notando a0 + ib0 = r0 e iθ0 y a(t) + ib(t) = r(t)e iθ(t) , resulta que r(t) = r0 eαt y θ(t) = θ0 − βt, lo cual muestra que el ´angulo avanza a velocidad constante. Ejercicio. En una recta o plano invariante estable, ¿cu´anto tarda la trayectoria en llegar al origen? Hemos visto que los VAPs reales positivos y los VAPs complejos de parte real positiva se asocian a rectas y planos invariantes inestables, luego dan lugar a sistemas inestables. No son los u ´nicos VAPs con esta propiedad. Vimos en el ejemplo 5 que si λ es un VAP no semi-simple, existe una soluci´on de la forma q(t) = eλt (u + tv), con v 6= 0. Por tanto, si la parte real del VAP es igual a cero, resulta que l´ım |q(t)| = l´ım |eλt ||u + tv| = l´ım e 0.

Pn Demostraci´ on. Basta probarlo para la norma kAk∞ = m´ax1≤i≤n j=1 |aij |, pues todas las normas Qm de Mn son equivalentes. Sea PA (λ) = k=1 (λ − λk )rk el polinomio m´ınimo de A. Sabemos que cada elemento de la matriz exponencial eAt = (eij (t)) es una combinaci´on lineal de las funciones eλ1 t , teλ1 t , . . . , tr1 −1 eλ1 t , eλ2 t , teλ2 t , . . . , tr2 −1 eλ2 t , . . . , eλm t , teλm t , . . . , trm −1 eλm t .

12

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

Es un ejercicio de c´ alculo de una variable el comprobar que si 0, ∀s = 0, . . . , r − 1. |ts eλt | = ts e 0, ∀i, j = 1, . . . , n. Pn Pn At Finalmente, ke k∞ = m´ ax1≤i≤n j=1 |eij (t)| ≤ Ce−µt si tomamos C = m´ax1≤i≤n j=1 |cij |. Podemos cristalizar todos los argumentos anteriores en un teorema general.



Teorema (Estabilidad de SLs homog´eneos a coeficientes constantes). El sistema x0 = Ax es: Inestable si y s´ olo si tiene alg´ un VAP de parte real positiva o no semi-simple de parte real nula. Atractor/repulsor si y s´ olo si todos sus VAPs tienen parte real negativa/positiva. Demostraci´ on. S´ olo probaremos las implicaciones en el sentido “si”; es decir, en el sentido [⇐]. Si la matriz A tiene alg´ un VAP de parte real positiva, entonces existe una recta o plano invariante inestable, luego el sistema es inestable. Si la matriz A tiene alg´ un VAP no semi-simple de parte real nula, entonces existe una soluci´ on y(t) que escapa a infinito y el sistema es inestable. Si todos los VAPs de la matriz A tienen parte real negativa, entonces existe µ ∈ R tal que 0.

Por tanto, todas las soluciones tienden al origen y el sistema es asint´oticamente estable (o atractor). Finalmente, si todos los VAPs de la matriz A tienen parte real positiva, entonces todos los VAPs de la matriz −A tienen parte real negativa y el sistema x0 = −Ax es atractor. Pero las trayectorias del sistema x0 = −Ax son las trayectorias del sistema x0 = Ax recorridas en sentido contrario, luego x0 = Ax es un repulsor.    3 −1 Ejemplo 9. Estudiar la estabilidad del sistema x0 = Ax, donde A = . Este sistema, 14 −4 ¿expande, preserva o contrae ´ area? √ Las ra´ıces del polinomio caracter´ıstico QA (λ) = λ2 + λ + 2 son λ1,2 = (−1 ± 7 i)/2, luego este sistema lineal es atractor. La traza es T = −1 < 0, luego contrae ´area. N Ejercicio. Probar que si la traza de A es positiva, entonces el sistema x0 = Ax es inestable. Clasificaci´ on en el caso 2D. En esta secci´on nos limitamos a clasificar los sistemas lineales x0 = Ax con A ∈ M2 (R). Es decir, es una secci´ on de terminolog´ıa. Cuando el sistema no es degenerado, sus dos VAPS son no nulos y clasificaremos el sistema como: Una silla, si los VAPs son reales y de signos diferentes, Un nodo, si los VAPs son reales pero del mismo signo, en cuyo caso diremos que el nodo es: • atractor/repulsor cuando ambos VAPs sean negativos/positivos; y • propio/impropio si la matriz diagonaliza/no diagonaliza; Un centro, si los VAPs son imaginarios puros; y Un foco, si los VAPs son complejos conjugados de parte real no nula, en cuyo caso diremos que el foco es atractor/repulsor cuando la parte real sea negativa/positiva. S´ olo hay tres tipos de sistemas 2D a coeficientes constantes que preservan ´area: los centros, un tipo especial de sillas y los sistemas degenerados con VAP cero doble. Proposici´ on (Criterio traza-determinante para SLs 2D a coeficientes constantes). Sea A ∈ M2 (R). Notamos T = traza A, D = det A y ∆ = T 2 − 4D. Entonces el sistema x0 = Ax es: Una silla (I) si y s´ olo si D < 0. Un centro (E, pero no AE) si y s´ olo si T = 0 y D > 0. Un foco si y s´ olo si T 6= 0 y ∆ < 0. El foco es repulsor cuando T > 0 y atractor cuando T < 0.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

13

Un nodo si y s´ olo si D > 0 y ∆ ≥ 0. El nodo es repulsor cuando T > 0 y atractor cuando T < 0. Adem´ as, el nodo es impropio si y s´ olo si ∆ = 0 y la matriz A no es diagonal. Degenerado cuando D = 0. Un sistema degenerado es I cuando T > 0, E pero no AE cuando T < 0, y puede ser E o I cuando T = 0. Demostraci´ on. Sean λ+ y λ− las ra´ıces del polinomio caracter´ıstico QA (t) = t2 − T t + D. Entonces √ √ T ± T 2 − 4D T± ∆ λ± = = . 2 2 Adem´ as, T = λ+ + λ− y D = λ+ λ− . Ahora distinguimos cinco casos: D = λ+ λ− < 0 =⇒ ∆ = T 2√ − 4D ≥ 0 =⇒ λ+ , λ− ∈ R =⇒ signo λ+ 6= signo λ− =⇒ Silla (I). T = 0 y D > 0 =⇒ λ± = ± −D son imaginarios puros =⇒ Centro (E, pero no AE). √ T 6= 0 y ∆ < 0 =⇒ λ± = T2 ± −∆ 2 i son complejos conjugados y Re λ± = T /2 6= 0 =⇒ Foco. Adem´ as, el signo de la parte real de los VAPs coincide con el signo de la traza. D = λ+ λ− > 0 y ∆ ≥ 0 =⇒ VAPs reales del mismo signo =⇒ Nodo. Adem´ as, el signo de la traza T = λ+ + λ− coincide con el signo de ambos VAPs. Finalmente, el nodo es impropio, por definici´ on, si y s´olo si A no diagonaliza. Las u ´nicas matrices 2 × 2 no diagonalizables son las matrices no diagonales con un VAP doble. El sistema es degenerado, por definici´on, si y s´olo si D = 0. Las relaciones D = λ+ λ− = 0 y T = λ+ + λ− implican que uno de los VAPs es igual a cero y el otro es igual a la traza.  Este criterio simplifica la clasificaci´ on de sistemas 2D con par´ametros. Veamos un ejemplo. Ejemplo 10. Clasificar el sistema x0 = Ax, donde   −2µ 2µ − 1 A= , −1 0

µ ∈ R.

La traza T = −2µ s´ olo cambia de signo en µ = 0. El determinante D = 2µ − 1 s´olo cambia de signo en µ = 1/2. El discriminante ∆ = T 2 − 4D = 4µ2 − 8µ + 4 = 4(µ − 1)2 es positivo si µ 6= 1 y nulo si µ = 1. Adem´ as, la matriz A no es diagonal cuando µ = 1. Por tanto, aplicando el criterio traza-determinante vemos que el sistema es: Una silla (I) cuando µ < 1/2; Degenerado (E pero no AE) cuando µ = 1/2; y Un nodo atractor (AE) cuando µ > 1/2, siendo propio para µ 6= 1 e impropio para µ = 1. En particular, la u ´nica bifurcaci´ on 1 del sistema tiene lugar al cruzar el valor µ∗ = 1/2, momento en el cual el sistema pasa de inestable a asint´ oticamente estable. (Al cruzar el valor µ = 1 no se produce ning´ un cambio importante.) Es usual representar toda la informaci´on en un diagrama a color2 llamado diagrama de bifurcaci´ on, ver figura 1. N

Silla (I)

Degen. t (E) µ∗

Nodo (AE)

Figura 1. Diagrama de bifurcaci´ on del ejemplo 10 en la recta µ ∈ R. Aqu´ı, µ∗ = 1/2.

1Una bifurcaci´ on se define como un cambio en el aspecto cualitativo de las trayectorias de sistema. 2En esta asignatura seguimos la convenci´ on rojo para I, azul para AE y verde para E pero no AE.

14

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

Croquis. Una vez conocemos la estabilidad del sistema x0 = Ax, con A ∈ Mn (R), podemos dibujar una representaci´ on geom´etrica de sus ´ orbitas; es decir, de las curvas de Rn recorridas por sus soluciones. En esta representaci´ on, denominada croquis o retrato de fases del sistema, se resaltan las rectas y planos invariantes. Seguiremos un c´ odigo de colores para distinguir los objetos inestables (rojo), los estables (azul), los planos de giros cerrados (verde) y las rectas de puntos de equilibrio (amarillo). Y un c´ odigo de flechas para distinguir direcciones r´apidas y lentas o visualizar sentidos de giro. La interpretaci´ on geom´etrica de las rectas y los planos invariantes dada en la p´agina 11 nos ayuda a dibujar croquis precisos de cualquier sistema lineal homog´eneo a coeficientes contantes x0 = Ax cuando la matriz A diagonaliza. Por ejemplo, sean v 1 , . . . , v n los VEPs y supongamos que todos los VAPs λ1 , . . . , λn son reales. Los signos de los VAPs determinan el comportamiento de las trayectorias contenidas en las rectas invariantes rj = [v j ]. Luego la pregunta es: ¿Qu´e aspecto tienen las otras trayectorias? Para responder a esta pregunta basta recordar que el flujo ϕ(t; x0 ) = eAt x0 es lineal en la condici´on inicial x0 . Como los VEPs v 1 , . . . , v n forman una base de Rn , sabemos que cualquier punto x0 ∈ Rn tiene unas u ´nicas proyecciones x0j ∈ rj tales que x0 = x01 + · · · + x0n . Adem´as, ϕ(t, x0j ) = eλj t x0j . Por tanto, ϕ(t, x0 ) = ϕ(t, x01 + · · · + x0n ) = ϕ(t, x01 ) + · · · + ϕ(t, x0n ) = eλ1 t x01 + · · · + eλn t x0n . Esto permite describir la forma de cualquier ´orbita del sistema. Veamos un ejemplo 2D y otro 3D. Ejemplo 11. Sea A ∈ M2 (R) la matriz del ejemplo 3. Sabemos que tiene VEPs v 1 = (1, 1) y v 2 = (1, −1) de VAPs λ1 = −2 y λ2 = −4. Por tanto, hay dos rectas invariantes estables:   r1 = [v 1 ] = (x1 , x2 ) ∈ R2 : x1 − x2 = 0 , r2 = [v 2 ] = (x1 , x2 ) ∈ R2 : x1 + x2 = 0 . Adem´ as, r1 corresponde a la recta estable lenta y r2 a la r´apida, pues eλ1 t = e−2t tiende a cero m´as lentamente que eλ2 t = e−4t . El sistema es atractor. Concretamente, las soluciones situadas sobre una recta invariante no abandonan la recta, mientras que las dem´as soluciones trazan ´orbitas con aspecto de par´ abolas tangentes en el origen a la recta lenta y que lejos del origen tienden a adquirir la direcci´on de la recta r´ apida. Con esos datos ya podemos dibujar el croquis del sistema. N Ejemplo 12. Sea A ∈ M3 (R) la matriz del ejemplo 4. Sabemos que tiene VEPs v 1 = (25, −7, 6) y v 2,3 = u ± w i, con u = (1, 1, 1) y w = (5, 0, 0), de VAPs λ1 = 1 y λ2,3 = ±5 i. Por tanto,  r = [v 1 ] = (x1 , x2 , x3 ) ∈ R3 : x1 /25 = −x2 /7 = x3 /6 es una recta invariante inestable y  Π = [u, w] = (x1 , x2 , x3 ) ∈ R3 : x2 = x3 es un plano invariante de giros cerrados. Todas las trayectorias son peri´odicas de periodo T = 2π/5. El truco de proyectar una condici´ on inicial arbitraria sobre r y Π para ver la forma de su trayectoria funciona igual que antes. En este caso, obtenemos que todas las ´orbitas del sistema x0 = Ax no contenidas ni en r ni en Π son h´elices que escapan a infinito. N En estos apuntes, por pereza, no vamos a incluir dibujos. El lector interesado los puede realizar por su cuenta y compararlos despu´es con los dibujos de la referencia Notes on Differential Equations de Bob Terrell que se puede obtener del enlace http://www.math.cornell.edu/∼bterrell/dn.pdf. O mejor a´ un, puede realizar el siguiente ejercicio. Ejercicio. Conectarse al enlace http://www-math.mit.edu/daimp/ y entender los dos applets de JAVA sobre Linear Phase Portraits. Los siguentes comentarios proporcionan algunas claves para dibujar un croquis: Dos ´ orbitas diferentes no pueden tocarse, pues el sistema es aut´onomo; Los VAPs reales dan lugar a rectas invariantes estables, inestables o de puntos de equilibrio; Los VAPs complejos conjugados dan lugar a planos invariantes estables, inestables o de giros; Una silla tiene una recta invariante estable y otra inestable, el resto de sus ´orbitas tienen el aspecto de hip´erbolas cuyas as´ıntotas son las rectas invariantes;

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

15

Un nodo propio con VAPs simples tiene dos rectas invariantes (lenta y r´apida) y el resto de sus orbitas tienen el aspecto de par´ ´ abolas tangentes en el origen a la recta lenta; Un nodo impropio tiene una u ´nica recta invariante y todas sus otras ´orbitas son tangentes en el origen a esa recta; Todas las ´ orbitas de un nodo propio con un VAP doble son rectas que pasan por el origen; En un sistema degenerado 2D el campo de vectores f (x) = Ax apunta siempre en la misma direcci´ on, luego sus ´ orbitas forman un “haz” de rectas paralelas; Todas las ´ orbitas de un centro son elipses; Todas las ´ orbitas de un foco son espirales; y En estos dos u ´ltimos casos, que corresponden a VAPs complejos conjugados λ± = α ± β i, el sentido de giro se determina calculando la velocidad en algun punto del plano. La velocidad de giro depende de la parte imaginaria β y la expansi´on/contracci´on depende de la parte real α. Ejemplo 13. Sea A ∈ M3 (R) una matriz con VAPs λ1 , λ2 , λ3 ∈ R tales que λ3 < λ2 < 0 < λ1 y sea {v 1 , v 2 , v 3 } una base de VEPs. Entonces existen tres rectas invariantes: r1 = [v 1 ] (inestable), r2 = [v 2 ] (estable lenta) y r3 = [v 3 ] (estable r´apida). En el plano generado por los VEPs de VAPs negativos el sistema tiene el aspecto de un nodo propio atractor. En los planos generados por v 1 y un VEP de VAP negativo, el sistema es una silla. El resto del croquis 3D se deduce de ese “esqueleto”. Ejercicio. Dibujar el croquis en los casos: λ3 < λ2 = 0 < λ1 ; λ3 < λ2 < λ1 = 0 y λ3 < λ2 < λ1 < 0. Ejemplo 14. Sea A ∈ M3 (R) una matriz con VAPs λ1 ∈ R y λ2,3 = α ± β i tales que α < 0 < λ1 . Sea v 1 un VEP de VAP λ1 y sean v 2,3 = u ± w i VEPs de VAP λ2,3 . Entonces r1 = [v 1 ] es una recta invariante inestable y Π = [u, w] es un plano invariante estable. En el plano Π el sistema es un foco atractor. Las trayectorias 3D trazan espirales que se escapan al infinito en la direcci´on v 1 , pero cuyas amplitudes se hacen cada vez m´ as peque˜ nas. Ejercicio. Dibujar el croquis en los casos: α = 0 < λ1 ; 0 < α < λ1 ; 0 < α = λ1 y 0 < λ1 < α. ¿Qu´e diferencia hay entre los casos segundo y cuarto? Ejercicio. Dibujar los croquis de los sistemas degenerados x0 = A± x y x0 = A0 x dados por     ±1 0 0 0 A± = , A0 = . 0 0 1 0 ´neos a coeficientes perio ´ dicos Sistemas lineales homoge El objetivo de esta secci´ on es probar que los sistemas a coeficientes peri´odicos tienen, esencialmente, las mismas propiedades que los sistemas a coeficientes constantes. El resultado b´asico es que cualquier sistema x0 = A(t)x, con A : R → Mn funci´on matricial continua T -peri´odica, se puede transformar en un sistema a coeficientes constantes mediante un cambio de variables lineal en x y peri´odico en t. El logaritmo de una matriz. Empezamos por una cuesti´on t´ecnica. Definici´ on. Dada una matriz A ∈ Mn , diremos que una matriz B ∈ Mn es un logaritmo de A si y s´ olo si eB = A. Escribiremos B = ln A. Las matrices con determinante nulo no tienen logaritmos, pues sabemos que todas las matrices exponenciales son invertibles. Una matriz diagonal cuyos elementos diagonales son todos positivos tiene infinitos logaritmos diagonales, pero s´ olo uno de ellos es real. Efectivamente, si D = diag(λ1 , . . . , λn ) y L = diag(l1 , . . . , ln ), entonces eL = D ⇐⇒ elj = λj

∀j = 1, . . . , n ⇐⇒ lj ∈ {ln λj + 2πkj : kj ∈ Z}

∀j = 1, . . . , n.

16

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

El u ´nico logaritmo real se obtiene tomando k1 = · · · = kn = 0. Ninguno de estos logaritmos diagonales es real cuando alguno de los elementos diagonales es negativo. Efectivamente, pues el = λ < 0 ⇐⇒ l ∈ {ln |λ| + (2k + 1) i : k ∈ Z} . Y ninguna elecci´ on de k ∈ Z proporciona un valor l ∈ R. Sin embargo, si D es una matriz real diagonal invertible, entonces D2 es diagonal con elementos diagonales positivos, luego tiene un logaritmo real. Estos resultados son v´ alidos para matrices generales, aunque no lo probaremos. La demostraci´on m´as elegante usa variable compleja. Teorema (Logaritmo de una matriz). Toda matriz invertible compleja tiene logaritmo complejo. El cuadrado de toda matriz invertible real tiene logaritmo real. Ejercicio. Calcular un logaritmo (real o complejo) de las siguientes matrices reales:         1 0 1 0 1 0 α β , , , . 0 1 0 −1 1 1 −β α Cuando no es posible encontrar un logaritmo real, encontrar un logaritmo real de la matriz al cuadrado. Matrices de monodrom´ıa y teorema de Floquet. Definici´ on. Sea A : R → Mn una funci´on matricial continua y T -peri´odica. Dada una matriz fundamental X(t) del sistema x0 = A(t)x, diremos que MX := X −1 (t)X(t + T ) es la matriz de monodrom´ıa del sistema x0 = A(t)x asociada a X(t). Proposici´ on (Propiedades de la matriz de monodrom´ıa). La matriz de monodrom´ıa es invertible y constante. En particular, MX = X −1 (0)X(T ). Un sistema peri´ odico tiene infinitas matrices de monodrom´ıa, pero todas son conjugadas; es decir, est´ an relacionadas mediante cambios de base. e Demostraci´ on. La matriz X(t) = X(t + T ) tambi´en es una matriz fundamental de x0 = A(t)x, pues e 0 (t) = X 0 (t + T ) = A(t + T )X(t + T ) = A(t)X(t) e X e y det[X(t)] = det[X(t + T )] 6= 0 para todo t ∈ R. Por tanto, existe una matriz invertible MX ∈ Mn e tal que X(t + T ) = X(t) = X(t)MX para todo t ∈ R, luego MX = X −1 (t)X(t + T ) es constante. Supongamos que X(t) e Y (t) son dos matrices fundamentales del sistema x0 = A(t)x. Sabemos que existe una matriz invertible S ∈ Mn tal que Y (t) = X(t)S. Por tanto, MY = Y −1 (t)Y (t + T ) = S −1 X −1 (t)X(t + T )S = S −1 MX S, lo cual demuestra que las matrices de monodrom´ıa MX y MY son conjugadas.  El resultado m´ as importante de esta secci´on sirve para reducir el estudio de los sistemas a coeficientes peri´ odicos al estudio de los sistemas a coeficientes constantes. Teorema (Teorema de Floquet). Sea A : R → Mn una funci´ on matricial continua y T -peri´ odica. Sea M una matriz de monodrom´ıa del sistema x0 = A(t)x. Sea B ∈ Mn tal que eBT = M . Entonces el sistema a coeficientes T -periodicos x0 = A(t)x se puede transformar en el sistema a coeficientes constantes y 0 = By mediante un cambio de variables lineal x = P (t)y, siendo P (t) una matriz T -peri´ odica. Adem´ as, P (t) viene determinada por la ecuaci´ on diferencial P 0 (t) = A(t)P (t) − P (t)B. En general B y P (t) son complejas, aunque A(t) sea real. Pero si A(t) es real y escogemos M real, e e ∈ Mn (R) tal que e2BT entonces existe B = M 2 , en cuyo caso el sistema a coeficientes T -periodicos 0 e mediante un cambio x = A(t)x se puede transformar en el sistema a coeficientes constantes y 0 = By de variables lineal x = Pe(t)y, siendo Pe(t) una matriz 2T -peri´ odica. Adem´ as, Pe(t) viene determinada e por la ecuaci´ on diferencial Pe0 (t) = A(t)Pe(t) − Pe(t)B. e e Corolario. Con las notaciones anteriores resulta que X(t) = P (t)eBt y X(t) = Pe(t)eBt son matrices fundamentales del sistema x0 = A(t)x.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

17

Demostraci´ on. Sea X(t) una matriz fundamental del sistema x0 = A(t)x y sea M = MX su matriz de monodrom´ıa. Sabemos que existe B ∈ Mn (C) tal que eBT = M . Definimos P (t) = X(t)e−Bt (comparar con el corolario anterior) y comprobamos que el cambio de variables x = P (t)y se comporta con afirma el teorema. Ecuaci´ on diferencial del cambio: Basta derivar la definici´on de P (t) para obtener que 0 P 0 (t) = X(t)e−Bt = X 0 (t)e−Bt − X(t)Be−Bt = A(t)X(t)e−Bt − X(t)e−Bt B = A(t)P (t) − P (t)B; Es un cambio de variables: det[P (t)] = det[X(t)] det[e−Bt ] 6= 0 para todo t ∈ R; Periodicidad: P (t + T ) = X(t + T )e−B(t+T ) = X(t)M e−BT e−Bt = X(t)e−Bt = P (t); y Reducci´ on a coeficientes constantes: Vemos que P (t)y 0 = P (t)By, pues  0 A(t)P (t) − P (t)B y + P (t)y 0 = P 0 (t)y + P (t)y 0 = P (t)y = x0 = A(t)x = A(t)P (t)y. Pero la matriz P (t) es invertible, luego y 0 = By. La segunda parte del teorema se prueba de forma similar. Empezamos observando que, como la e e ∈ Mn (R) tal que e2BT matriz de monodrom´ıa es real, existe B = M 2 . A continuaci´on definimos e Pe(t) = X(t)e−Bt y comprobamos que el cambio de variables x = Pe(t)y se comporta con afirma el teorema. Dejamos los detalles para el lector, pero advertimos que para probar la 2T -periodicidad del cambio se debe usar que A(t + 2T ) = A(t + T ) = A(t) y X(t + 2T ) = X(t + T )M = X(t)M 2 .  No es verdad que cualquier sistema a coeficientes T -peri´odicos tiene alguna soluci´on peri´odica no trivial3 de periodo T . Ni siquiera es cierto que tenga soluciones peri´odicas no triviales de periodo nT para alg´ un n ∈ N. Pero no es d´ıficil caracterizar los sistemas que poseen tales soluciones. Proposici´ on (Existencia de soluciones peri´odicas en SLs a coeficientes peri´odicos). Fijado n ∈ N, el sistema x0 = A(t)x tiene alguna soluci´ on nT -peri´ odica no trivial si y s´ olo si existe k ∈ Z tal que 2πk i ∈ Spec(B). nT Demostraci´ on. [⇐] Si λ = 2πk i/nT ∈ Spec(B) y Bv = λv, entonces y(t) = eλt v es una soluci´on de 0 y = By, luego x(t) = P (t)y(t) = P (t)eλt v es una soluci´on de x0 = A(t)x. Adem´as, x(t + nT ) = P (t + nT )eλ(t+nT ) v = P (t)eλt enT λ v = P (t)eλt e2πk i v = P (t)eλt v = x(t), luego la soluci´ on x(t) es nT -peri´ odica. [⇒] Ejercicio para el lector.



Estabilidad. La estabilidad de un sistema a coeficientes peri´odicos viene dada por la estabilidad del sistema a coeficientes constantes en que se transforma. Eso nos lleva a introducir los siguientes conceptos. Seguimos suponiendo que A(t) es una funci´on matricial continua T -peri´odica. Definici´ on. Los multiplicadores caracter´ısticos (o de Floquet) de x0 = A(t)x son los VAPs de cualquier matriz de monodrom´ıa del sistema. Los exponentes caracter´ısticos (o de Floquet) de x0 = A(t)x son los VAPs de cualquier matriz B tal que eT B = M es una matriz de monodrom´ıa del sistema. Es importante entender que la definici´ on anterior es correcta pues todas las matrices de monodrom´ıa son conjugadas. La relaci´ on entre los multiplicadores m1 , . . . , mn y los exponentes λ1 , . . . , λn es mj = eλj T ,

∀j = 1, . . . , n.

En particular, los exponentes caracter´ısticos est´an determinados salvo m´ ultiplos enteros de 2π i/T . Corolario (Estabilidad de SLs homog´eneos a coeficientes peri´odicos). El sistema x0 = A(t)x es: Inestable si y s´ olo si tiene alg´ un exponente de Floquet de parte real positiva o no semi-simple de parte real nula. Atractor/repulsor si y s´ olo si todos sus exponentes de Floquet tienen parte real negativa/positiva. 3La soluci´ on trivial x(t) ≡ 0 es constante y, por tanto, peri´ odica de cualquier periodo.

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

18

Demostraci´ on. Sabemos que el sistema x0 = A(t)x se transforma en el sistema y 0 = By mediante un cambio de variables x = P (t)y peri´ odico en t. Por tanto, el sistema x0 = A(t)x hereda la estabilidad del sistema y 0 = By.  Proposici´ on (Multiplicadores, exponentes y traza). Con las notaciones anteriores, ! Z Z T n n Y X 1 T traza[A(s)] ds. traza[A(s)] ds , mj = exp λj = T 0 0 j=1 j=1 Demostraci´ on. Sea X(t) una matriz fundamental arbitraria del sistema x0 = A(t)x. Su matriz de monodrom´ıa es M = MX = X −1 (0)X(T ). Por tanto, aplicando la f´ormula de Liouville obtenemos que ! Z T n Y mj = det[M ] = det[X(T )]/ det[X(0)] = exp traza[A(s)] ds . 0

j=1

La segunda f´ ormula es una consecuencia de las relaciones mj = eλj T .



0

Ejemplo 15. Resolver el sistema a coeficientes 2π-peri´odicos x = A(t)x donde   −1 + cos t 0 A(t) = . cos t −1 Calcular sus multiplicadores y exponentes caracter´ısticos. Describir el comportamiento cualitativo de sus trayectorias: estabilidad y existencia de trayectorias peri´odicas. Finalmente, comprobar que se cumple la f´ ormula de la suma de los exponentes de Floquet. Los sistemas a coeficientes peri´ odicos son, en general, irresolubles. Sin embargo, este sistema es resoluble pues es triangular. Si notamos x = (x1 , x2 ), el sistema anterior es equivalente a las ecuaciones x01 = (−1 + cos t)x1 ,

x02 = (cos t)x1 − x2 .

La primera ecuaci´ on es una EDO lineal homog´enea de primer orden, cuya soluci´on general es R

x1 (t) = c1 e

(−1+cos t) dt

= c1 e−t+sin t ,

c1 ∈ R.

Una vez resuelta la primera ecuaci´ on, la segunda es una EDO lineal no homog´enea de primer orden, cuya soluci´ on general es   Z −t t x2 (t) = e c2 + e (cos t)x1 (t) dt = c1 e−t+sin t + c2 e−t , c1 , c2 ∈ R. Por tanto, la soluci´ on general del sistema original es  −t+sin t   sin t e 0 e x(t) = X(t)c, X(t) = = e−t+sin t e−t esin t

0 1



−t

e ,

 c=

c1 c2



∈ R2

y el sistema es asint´ oticamente estable pues todas sus soluciones tienden al origen cuando t → +∞. Adem´ as, la soluci´ on trivial x(t) ≡ 0 es la u ´nica soluci´on peri´odica. Queremos obtener estos resultados a partir de los exponentes (o multiplicadores) carater´ısticos. Empezamos notando que X(t) es una matriz fundamental, ya que sus columnas son soluciones del sistema y det[X(t)] = e−2t+sin t 6= 0 para todo t ∈ R. Su matriz de monodrom´ıa es   −1    −2π 1 0 1 0 e 0 −1 −2π −2π . M = MX = X (0)X(2π) = e =e Id = 1 1 1 1 0 e−2π A continuaci´ on, buscamos una matriz B ∈ M2 tal que e2πB = M . Recordando los comentarios sobre logaritmos de matrices diagonales obtenemos que B = −Id es un logaritmo real. Por tanto, la matriz del cambio de base es igual a  sin t   sin t  e 0 e 0 −t Idt P (t) = X(t)e−Bt = e e = , esin t 1 esin t 1 ya que eIdt = et Id. En particular, resulta que: Los multiplicadores caracter´ısticos del sistema son m1 = m2 = e−2π (multiplicador doble); y

Depositado en http://www.ma1.upc.edu/∼edos/sl.pdf

19

Los exponentes caracter´ısticos del sistema son λ1 = λ2 = −1 (exponente doble); luego El sistema es asint´ oticamente estable, pues