Aplicaciones lineales y matrices

Tema 2 Aplicaciones lineales y matrices. 2.1. Introducci´ on. Supondremos al alumno familiarizado con la idea de matriz o tabla de orden n, m con n,...
1 downloads 1 Views 159KB Size
Tema 2 Aplicaciones lineales y matrices. 2.1.

Introducci´ on.

Supondremos al alumno familiarizado con la idea de matriz o tabla de orden n, m con n, m n´ umeros naturales que denotan el n´ umero de filas y columnas, y con las operaciones b´asicas entre matrices: suma, producto, producto por escalares y sus propiedades m´as inmediatas. Del mismo modo son de suponer conocidos los conceptos de elemento, fila y columna de una matriz, tipos de matrices (cuadrada, diagonal triangulares superior e inferior, matriz traspuesta de una dada, matriz identidad de un cierto orden n, etc...). Tambi´en ha de conocerse el concepto de aplicaci´on entre dos conjuntos, combinaci´on lineal de filas y de columnas, rango de una matriz, matriz cuadrada regular (que tiene inversa). Recuerdese que una matriz es regular si y s´olo si tiene rango m´aximo. Finalmente, supondremos conocidos los determinantes y sus propiedades, los sistemas de ecuaciones lineales, su estudio y m´etodos de resoluci´on. Ser´an nuevos los conceptos de espacio vectorial, aplicaci´on lineal, base de un espacio vectorial, cambio de base y algunas nociones referidas a matrices como la equivalencia y la semejanza. La segunda parte del tema trata del estudio de un espacio af´ın, estructura que se forma a partir de un conjunto de puntos y un espacio vectorial, relacionados de modo que a cada par de puntos se le asocia un vector. Sobre ello el alumno ya conoce el plano y el espacio af´ın (R2 y R3 ) as´ı como 1

la ecuaci´on y posiciones relativas de las subvariedades (rectas en el plano y rectas y planos en el espacio). Aqu´ı ser´an nuevos y muy importantes los conceptos de sistemas de referencia, cambio de sistemas de referencia y de producto escalar, norma, ´angulo y ortogonalidad.

2.2.

Espacio Vectorial.

Consideremos el cuerpo de los n´ umeros reales R o complejos C, que denotaremos en general por K para referirnos indistintamente a uno u otro. A sus elementos los llamaremos escalares y los denotaremos con letras griegas (α, β, . . . ). Tambi´en un conjunto V no vac´ıo, cuyos elementos llamaremos vectores y denotaremos con letras latinas (a, b, u, v, . . . ), que admite la suma como operaci´on interna (es decir, siempre que se sumen dos se obtiene otro del conjunto) y que cumple las propiedades asociativa y conmutativa y existen adem´as elemento neutro y elementos opuestos. Propiedades que se expresan por: Asociativa: (u + v) + w = u + (v + w) para todo u, v, w ∈ V. Conmutativa: u + v = v + u para todo u, v ∈ V. Elemento neutro: Existe un vector 0 que sumado con cualquier otro u lo deja invariable, u + 0 = u. Elementos Opuestos: Dado un vector u existe el −u que sumado con ´el da el elemento neutro. Finalmente supongamos que se tiene otra operaci´on, llamada externa, entre escalares y vectores, que a cada α ∈ K y cada u ∈ V asocia el vector αu ∈ V , de tal forma que se cumplen las propiedades: 1) α(u + v) = αu + αv; 2) (α + β)u = αu + βu; 3) (αβ)u = α(βu); 4) 1u = u, para todo α, β ∈ K y todo u, v ∈ V. En estas condiciones se dice que V es un espacio vectorial sobre K. Es la estructura fundamental en el ´algebra lineal y la emplearemos constantemente. Los siguientes son ejemplos de espacios vectoriales, algunos bien conocidos: 1) El conjunto Kn de las n−uplas de n´ umeros (reales o complejos), fijado (n ∈ N), con las operaciones: (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ). 2

α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ),

α ∈ K.

Si K = R, para n = 2 y n = 3 son respectivamente el plano vectorial real bidimensional y el espacio real tridimensional. 2) El conjunto Mn,m de las matrices de orden n, m, fijados n, m ∈ N con elementos en K y con la suma de matrices y el producto de matrices por escalares es tambi´en un espacio vectorial sobre K. 3) El conjunto Pn [x] de los polinomios de grado menor o igual que n, fijado n ∈ N, con coeficientes en K, cuyos elementos son de la forma an xn + an−1 xn−1 + · · ·+a1 x+a0 ; con la suma de polinomios y el producto de polinomios por escalares. Asociado al concepto de espacio vectorial se tiene el de combinaci´on lineal. Si V es un espacio vectorial y u1 , u2 , . . . , un son vectores de V , se llama combinaci´ on lineal de tales vectores a cualquier otro vector v obtenido de la forma v = α1 u1 + α2 u2 + . . . αn un , para unos escalares α1 , α2 , . . . , αn ∈ K. Observemos por ejemplo que el vector cero es combinaci´on lineal de cualquier conjunto de vectores (basta tomar todos los escalares nulos). Es usual llamar a cualquier conjunto de vectores un sistema de vectores. En este contexto se introduce la noci´on de dependencia e independencia lineal: Un sistema de vectores B = {u1 , u2 , . . . , un } de V se dice sistema libre o linealmente independiente si la u ´nica combinaci´on lineal de vectores de B que da el vector cero es aquella en la que todos los escalares son cero, es decir: α1 u1 + α2 u2 + . . . αn un = 0 ⇒ α1 = α2 = · · · = αn = 0. Si el sistema de vectores B no es linealmente independiente, se dice que es un sistema ligado o linealmente dependiente. Obviamente esto significa que alguna combinaci´on lineal de los vectores de B da el vector cero y no todos los escalares son nulos. Ejemplo 2.1. 1) En el espacio vectorial R4 estudia la dependencia o independencia lineal del conjunto de vectores B = {(1, 1, 0, 1)(1/2, 2, 3/2, −1)(0, −3, −3, 3)}. 2)En P2 [x] comprueba que A = {1 − x, 2x2 , 2 + x2 } forma un sistema libre. 3

Soluci´on. Consideremos en cada caso una combinaci´on lineal gen´erica de los vectores del sistema dado y veamos si hay soluciones distintas de cero. 1) α(1, 1, 0, 1) + β(1/2, 2, 3/2, −1) + γ(0, −3, −3, 3) = (0, 0, 0, 0) ⇒   α + 1/2β = 0     α + 2β − 3γ = 0 ⇒  3/2β − 3γ = 0     α − β + 3γ = 0. Es f´acil ver que este sistema de ecuaciones tiene soluciones no nulas, por ejemplo α = 1, β = −2, γ = −1. Por tanto el sistema B es ligado. 2) α(1 − x) + β(2x2 ) + γ(2 + x2 ) = 0; (α + 2γ) − αx + (α + γ)x2 = 0. El polinomio obtenido es el polinomio cero, del que sabemos que todos sus coeficientes son nulos. En consecuencia:    α + 2γ = 0 −α = 0   α+γ =0 Este sistema tiene como u ´nica soluci´on α = 0, β = 0, γ = 0. Por tanto el sistema de vectores A es libre.

1

Es importante tener en cuenta, muy sencillo de comprobar, que todo conjunto de vectores que contenga al vector cero es ligado y que un conjunto es ligado si y s´olo si alguno de sus vectores es combinaci´on lineal de los dem´as. Subespacios Vectoriales. Si un subconjunto S de un espacio vectorial V tiene a su vez estructura de espacio vectorial, se dice que S es un subespacio vectorial de V . Para comprobar si un subconjunto concreto S es subespacio no es necesario comprobar si se verifican las propiedades de las operaciones de la definici´on de espacio vectorial (por ser subconjunto de V ya se verificar´an esas propiedades). Basta con probar que la suma es operaci´on interna en S y el producto por escalares operaci´on externa 4

de K en S. De hecho, es suficiente que para todo par de vectores a, b ∈ S, sus combinaciones lineales sean tambi´en elementos de S, esto es, se verifica: S es subespacio vectorial de V si y s´olo si dados u, v ∈ S y dados α, β ∈ K, αu + βv ∈ S. Veamos alg´ un ejemplo. Ejemplo 2.2. Comprueba si los conjuntos siguientes son subespacios del espacio vectorial R3 : a) S = {(x, y, z) ∈ R3 : 2x − y + 3z = −1}. b) M = {(x, y, z) ∈ R3 : x + 2z = 0}. Soluci´on. Comprobemos en cada caso si la suma de dos elementos del conjunto est´a en el conjunto, y si el producto de uno del conjunto por un escalar est´a en el conjunto. Para el caso a), si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ S entonces se tiene que 2x1 − y1 + 3z1 = −1 y tambi´en que 2x2 − y2 + 3z2 = −1. Ahora, el elemento suma es (x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento est´a en S. Para ello, el doble de su primera componente menos su segunda m´as el triple de su tercera componente debe valer -1. Ahora bien, 2(x1 + x2 ) − (y1 + y2 ) + 3(z1 + z2 ) = (2x1 − y1 + 3z1 ) + (2x2 − y2 + 3z2 ) = −2. Sale -2 en lugar de -1, es decir no pertenece a S. As´ı pues, S no es un subespacio vectorial de R3 . Para el caso b) las cosas son distintas. Si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ M, entonces se tiene que x1 + 2z1 = 0 y tambi´en que x2 + 2z2 = 0. Ahora, el elemento suma es (x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento est´a en M . Para ello, su primera coordenada m´as el doble de su tercera coordenada tiene que valer cero. Ahora, (x1 + x2 ) + 2(z1 + z2 ) = (x1 + 2z1 ) + (x2 + 2z2 ) = 0 y se cumple la condici´on 1). Ahora veamos la 2). Para ello hay que comprobar que si (x, y, z) ∈ M , es decir, si x + 2z = 0 entonces (αx, αy, αz) ∈ M , para cualquier α ∈ R. Ahora αx + 2αz = α(x + 2z) = 0. Es decir M es subespacio vectorial.

1

En cualquier espacio vectorial, para que un subconjunto sea subespacio, es 5

condici´on necesaria (pero no suficiente) que contenga al vector cero y que, con cada vector, contenga al opuesto. Cada espacio vectorial V contiene a los subespacios {0} y V . Se llaman subespacios impropios. Adem´as, dado un sistema de vectores P = {x1 , x2 , . . . , xn }, el conjunto de todas sus combinaciones lineales es un subespacio vectorial de V . Se llama subespacio generado por P y se denota < x1 , x2 , . . . , xn >. De este subespacio, al conjunto P se le llama sistema generador. Es decir < x1 , x2 , . . . , xn >= {α1 x1 + α2 x2 + · · · + αn xn : α1 , α2 , . . . , αn ∈ K}. Se dice que el conjunto P es un sistema generador del espacio vectorial V si < x1 , x2 , . . . , xn >= V , esto es, si todo vector de V se puede poner como combinaci´on lineal de los elementos de P . Trabajaremos s´olo con espacios vectoriales que cuentan con un sistema generador con una cantidad finita de elementos. Se llaman espacios vectoriales finitamente generados. Base. Coordenadas. Dimensi´ on. Un conjunto de vectores B = {x1 , x2 , . . . , xn } se dice que es una base del espacio vectorial V si B es un sistema generador y un sistema linealmente independiente. En ese caso, para cada vector v ∈ V existen n escalares u ´nicos, α1 , α2 , . . . , αn , tales que v = α1 x1 + α2 x2 + · · · + αn xn . A esos escalares se les llama coordenadas de v respecto de la base B. Un espacio vectorial puede tener m´as de una base, de hecho en general tiene infinitas bases, pero todas ellas tienen el mismo n´ umero de vectores. A ese n´ umero se le llama dimensi´on del espacio vectorial. Ejemplo 2.3. Comprueba que B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} es una base de R3 . Calcula las coordenadas del vector v = (1, −2, 4) Soluci´on. Veamos que B es un sistema generador. Dado cualquier vector x = (x1 , x2 , x3 ) ∈ R3 , se trata de encontrar una combinaci´on lineal de los vectores de B que d´e el vector x. Propongamos una combinaci´on lineal gen´erica y encontremos los escalares. x = α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1);

(x1 , x2 , x3 ) = (α, α + β, α + β + γ). 6

Se obtiene entonces el sistema de ecuaciones  α = x1   α + β = x2   α + β + γ = x3 Es un sistema de Cramer en las inc´ognitas α, β, γ cuya soluci´on u ´nica es α = x1 , β = x2 − x1 , γ = x3 − x2 . As´ı B es sistema generador. Para ver que es un sistema libre, basta observar que la u ´nica combinaci´on lineal que da el vector cero es aquella en que todos los escalares son nulos. Pues bien, si en el proceso anterior sustituimos el vector x por el (0, 0, 0) es evidente que la soluci´on u ´nica del sistema es α = 0, β = 0, γ = 0. Para encontrar la coordenadas del vector v, sustituimos (x1 , x2 , x3 ) por (1, −2, 4) y obtenemos que esas coordenadas son α = 1, β = −3, γ = 6. Se suele denotar: v = (1, −3, 6)B , para indicar que las coordenadas del vector v respecto de la base B son (1,-3,6)

1

A partir del ejemplo anterior observamos que, en R3 , un vector es una terna ordenada de n´ umeros y sus coordenadas respecto de una base son tambi´en una terna ordenada de n´ umeros, pero distinta de la anterior. Existe una base respecto de la cual ambas ternas (vector y sus coordenadas) son iguales. Esa base es llamada base can´onica de R3 y es: Bc = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Igual pasa en general en Rn para cualquier n ∈ N. En cada caso se tiene la base can´onica, en la cual cada vector y sus coordenadas son la misma n−upla. En un espacio vectorial de dimensi´on n todo sistema de n vectores que sean linealmente independiente es tambi´en sistema generador y por lo tanto es base. Si S es un subespacio de dimensi´on k de un espacio vectorial V de dimensi´on n, para cada base de S existen n−k vectores que a˜ nadidos a la base de S proporcionan una base de V . Se tiene tambi´en que, dado un sistema generador del espacio, excluyendo en ´el todos los vectores que sean combinaci´on lineal de los dem´as, se obtiene una base. 7

Ecuaciones de un subespacio. Sea S un subespacio vectorial de dimensi´on k del espacio vectorial V de dimensi´on n y sean BS y BV bases de S y V respectivamente. Cada vectores de S ser´a una combinaci´on lineal de los k elementos de BS . Sustituyendo cada vector de BS por sus coordenadas respecto de BV se obtiene n igualdades que dependen de k par´ametros, que cumplir´an las coordenadas de los vectores de S y s´olo ellos. Son las llamadas ecuaciones param´etricas del subespacio S. En esas n ecuaciones param´etricas se pueden eliminar los k par´ametros, por sustituci´on, y obtener n − k igualdades que no dependen de los par´ametros. Se llaman ecuaciones impl´ıcitas del subespacio S. Es importante tener en cuenta que las ecuaciones son igualdades que ligan las coordenadas, y por tanto las ecuaciones est´an referidas a las bases empleadas. Ejemplo 2.4. En R4 con la base B = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1), (0, 0, 0, 1)} se considera el subespacio S =< (2, 0, 1, 1), (−1, 1, 0, 0) >. Encontrar sus ecuaciones param´etricas e impl´ıcitas. Soluci´on. S nos lo dan mediante un sistema generador. Primero debemos de comprobar si ese sistema generador es base, es decir, si los vectores son linealmente independientes. Es f´acil ver que lo son (porque ninguno de ellos es combinaci´on lineal de los dem´as, en este caso que s´olo son dos basta observar que no son proporcionales). Calculando sus coordenadas respecto de la base B se obtiene: (2, 0, 1, 1) = (2, −2, 1, 0)B y (−1, 1, 0, 0) = (−1, 2, −1, 0)B . As´ı : S = {(x1 , x2 , x3 , x4 )B = α(2, −2, 1, 0)B + β(−1, 2, −1, 0)B , α, β ∈ R} Las ecuaciones param´etricas de S son pues: x1 = x2 = x3 = x4 =

  2α − β    −2α + 2β   α−β     0

Para obtener las ecuaciones impl´ıcitas debemos saber cu´antas ecuaciones impl´ıcitas tiene S. Puesto que el n´ umero de ecuaciones impl´ıcitas es la diferencia entre 8

la dimension del espacio y la del subespacio, es claro que S tiene dos ecuaciones impl´ıcitas. Observando las ecuaciones param´etricas vemos que x4 = 0 es una igualdad que no depende de par´ametros, luego es una de las ecuaciones impl´ıcitas. Si multiplimos por dos la tercera ecuaci´on y le sumamos la segunda obtenemos x2 + 2x3 = 0, que es otra ecuaci´on impl´ıcita. As´ı las ecuaciones impl´ıcitas de S son ) x2 + 2x3 = 0 , x4 = 0 y S se puede expresar por: S = {(x1 , x2 , x3 , x4 )B : x2 + 2x3 = 0, x4 = 0}.

1

Cambio de Base. Matriz del cambio de base. Consideremos dos bases del mismo espacio vectorial V . Sean B1 = {e1 , e2 , . . . , en } y B2 = {v1 , v2 , . . . , vn }. Si conocemos las coordenadas de un vector x ∈ V respecto de B1 , ¿Podemos calcular las coordenadas de x respecto de B2 ? La respuesta es afirmativa, siempre que conozcamos las coordenadas de cada vector de la base B1 en la base B2 . En lo que sigue indicamos c´omo se hace y obtendremos las ecuaciones del cambio de base que son las n igualdades que permiten obtener las coordenadas de x en B2 a partir de las coordenadas de x en B1 . No vamos a deducir esas ecuaciones, s´olo vamos a proporcionarlas y a emplearlas. Denotemos (x1 , x2 , . . . , xn ) las coordenadas de x en la base B1 . Consideremos la matriz cuadrada de orden n, P = (γij ) ∈ Mn , en la que la fila k est´a formada por las coordenadas del vector ek respecto a la base B2 . Si ahora denotamos (x01 , x02 , . . . , x0n ) las coordenadas de x respecto de B2 entonces se tiene:   γ11 γ12 . . . γ1n    γ γ . . . γ 21 22 2n   (x01 , x02 , . . . , x0n ) = (x1 , x2 , . . . , xn )  (2.1)  ... ... ... ...    γn1 γn2 . . . γnn La matriz P es la llamada matriz del cambio de base. Realizando el producto 9

matricial anterior se obtienen las igualdades siguientes, llamadas ecuaciones del cambio de base

x01 x02

= γ11 x1 + γ21 x2 + . . .

= γ12 x1 + γ22 x2 + . . . ... ... ... ... x0n = γ1n x1 + γ2n x2 + . . .

 +γn1 xn     +γn2 xn  ...     +γnn xn 

Es importante tener en cuenta que toda matriz P de cambio de base (de B1 a B2 ) tiene matriz inversa P −1 , que es la matriz de cambio de base de B2 a B1 . Tambi´en debe advertirse que, si en la igualdad matricial (2.1) tomamos la traspuesta de matrices en los dos miembros, obtenemos otra igualdad equivalente del tipo X 0 = QX, siendo Q = P t y X 0 , X las coordenadas en B2 y B1 respectivamente, en columnas. Se puede emplear indistintamente cualquiera de las dos formas. Varios autores optan por esta u ´ltima. Ejemplo 2.5. En R3 consideramos las bases B1 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y B2 = {(−1, 0, 1), (0, −1, 0), (0, 1, −1)}. a) Calcula la matriz y las ecuaciones del cambio de base de B1 a B2 . b) Calcula las coordenadas en B1 y en B2 del vector (2, −1, 3) ∈ R3 Soluci´on. a) Las filas de la matriz de cambio de base de B1 a B2 son las coordenadas de los vectores de B1 en la base B2 . Para el primer vector:  −α = 1   α(−1, 0, 1) + β(0, −1, 0) + γ(0, 1, −1) = (1, 1, 1) ⇒ −β + γ = 1   α−γ = 1 La soluci´on u ´nica de ese sistema es α = −1, β = −3, γ = −2, que da la primera fila de la matriz P , esto es, (−1, −3, −2). Del mismo modo se calculan las coordenadas de los otros dos vectores de B1 en B2 , y se obtienen las dem´as filas de P . En concreto se obtiene:

10





−1 −3 −2   P =  0 −2 −1  0 −1 −1 Las ecuaciones del cambio de base se obtienen ahora f´acilmente: 

0

0

0

(x , y , z )B2



−1 −3 −2   = (x, y, z)B1  0 −2 −1  ; 0 −1 −1

0

x = −x y 0 = −3x − 2y − z z 0 = −2x − y − z

    

b) Las coordenadas de (2, −1, 3) en B1 se obtienen empleando el sistema:  α= 2   α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1) = (2, −1, 3) ⇒ α + β = −1 ,   α+β+γ = 3 y son (2, −3, 4)B1 . Con ello, las coordenadas en la base B2 , empleando las ecuaciones del cambio de base, son: (−2, −4, −5)B2 . (Podemos comprobar que efectivamente son esas las coordenadas, que no ha habido errores en los c´alculos, efectuando la combinaci´on lineal con las coordenadas obtenidas y los vectores de las bases (B1 y B2 respectivamente) y comprobando que se obtiene el vector de partida, el (2, −1, 3)). 1

2.3.

Aplicaciones lineales.

Las aplicaciones entre espacios vectoriales que conservan la estructura son las aplicaciones lineales. Si U y V son espacios vectoriales sobre el mismo cuerpo de escalares K, una aplicaci´on f : U → V se dice aplicaci´ on lineal si cumple: f (u + v) = f (u) + f (v) y f (αu) = αf (u) para cualesquiera u, v ∈ U y α ∈ K.

11

Esas dos condiciones se pueden sustituir, de modo equivalente, por la u ´nica condici´on siguiente: f es aplicaci´on lineal si y s´olamente si se cumple: f (αv + βv) = αf (u) + βf (v), ∀u, v ∈ U, ∀α, β ∈ K. Elgunos ejemplos. Son lineales las siguientes aplicaciones, definidas en los espacios que en cada caso se indica: f : P3 [x] → P2 [x], f (p) = p0 , donde p0 denota la derivada de p. g : R3 → R4 , g(x, y, z) = (2x, x + 2z, 2y − z, −3z). h : M3,2 → M2,3 , h(A) = At , donde At denota la matriz traspuesta de A. Con cada aplicaci´on lineal f : U → V tienen mucho inter´es dos subespacios vectoriales, uno en el espacio inicial U, formado por los vectores cuya imagen es el vector cero de V. Se llama N´ ucleo de f y se denota ker f. El otro en el espacio final V, formado por los vectores que son imagen de alg´ un vector de U . Se llama imagen de f y se denota im f . En concreto, la definici´on de cada uno de ellos es: ker f = {u ∈ U : f (u) = 0},

im f = {v ∈ V : ∃u ∈ U, f (u) = v}.

Entre ambos subespacios existe la siguiente relaci´on: Dada una base B = {e1 , e2 . . . , ek } de ker f, si {ek+1 , ek+2 , . . . , en } son vectores que, a˜ nadidos a B forman base de U , entonces el conjunto sus im´agenes {f (ek+1 ), f (ek+2 ), . . . , f (en )} son vectores de V que forman base de im f . De ello se concluye la siguiente relaci´on entre las dimensiones: dimU = dim ker f + dim im f. A la dimensi´on del subespacio im f se le llama rango de la aplicaci´on lineal f . Adem´as, la imagen de los vectores de una base cualquiera son siempre un sistema generador del subespacio imagen. Matriz de la aplicaci´ on lineal. Dada una aplicaci´on lineal f : U → V y fijadas bases BU = {u1 , u2 , . . . un } y BV = {v1 , v2 , . . . vm } de los respectivos espacios, se llama matriz de f en esas bases a la matriz A ∈ Mn,m cuya fila k-esima consta de las coordenadas del vector f (uk ) respecto de la base BV . 12

Conocida esa matriz, se puede calcular la imagen de cualquier vector x ∈ U . De hecho, si X = (x1 , x2 , . . . , xn ) son las coordenadas de x en BU entonces las coordenadas X 0 = (x01 , x02 , . . . , x0n ) de f (x) en BV se obtienen por: X 0 = XA.

(2.2)

Desarrollando ese producto de matrices e individualizando cada igualdad se obtienen las ecuaciones de la aplicaci´ on lineal f . Si en la igualdad (2.2) se toma traspuesta en ambos miembros, se obtiene la igualdad equivalente X 0t = At X t . Esto muestra que la matriz de la aplicaci´on lineal se puede crear por columnas y multiplic´andola por la columna de las coordenadas de x se obtiene la columna de las coordenadas de f (x). As´ı se hace en varios libros de la literatura. Ejemplo 2.6. Calcula la matriz y las ecuaciones de la aplicaci´on lineal g de R3 en R4 , definida por g(x, y, z) = (2x, x + 2z, 2y − z, −3z) respecto de las bases: BR3 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)}. Soluci´on. Las im´agenes de los vectores de BR3 son respectivamente (2, 3, 1, −3), (0, 2, 1, −3), (0, 2, −1, −3) ∈ R4 . Ahora se calcula la imagen de cada uno de esos vectores respecto de BR4 . α(−1, 0, 1, 0) + β(0, −1, 1, 0) + γ(0, 0, −1, 1) + δ(0, 0, 0, −1) = (2, 3, 1, −3) ⇒       ⇒

−α = 2 −β = 3

 α+β−γ = 1     γ − δ = −3

Resolviendo se obtiene α = −2, β = −3, γ = −6, δ = −3 que da la primera fila de la matriz. Procediendo de modo an´alogo para los otros dos vectores se obtiene la matriz de g:

13





−2 −3 −6 −3   A =  0 −2 −3 0  . 0 −2 −1 2 Las ecuaciones de g son entonces 



−2 −3 −6 −3   (x0 , y 0 , z 0 , t0 ) = (x, y, z)  0 −2 −3 0  ; 0 −2 −1 2

x0 = −2x y 0 = −3x − 2y − 2z z 0 = −6x − 3y − z t0 = −3x + 2z

          

.

1 El rango de la matriz A de una aplicaci´on lineal f coincide con el rango de f . De hecho, las filas de A que proporcionan su rango son las coordenadas de los vectores de una base de im f. Obs´ervese que la matriz A de la aplicaci´on lineal depende de las bases empleadas. Si se cambia de base en los espacios U y V se obtiene una matriz distinta. Matriz de la aplicaci´ on lineal y cambio de base. Matrices equivalentes. Dada f : U → V aplicaci´on lineal, si A, A0 ∈ Mn,m son matrices de f respecto de las bases BU , BV y BU0 , BV0 , consideremos las matrices P ∈ Mn y Q ∈ Mm de cambio de bases de BU0 a BU y BV0 a BV respectivamente. Entonces se tiene la relaci´on A0 = P AQ−1 . El siguiente esquema resume la situaci´on, teniendo en cuenta que la matriz de f fijadas las bases es u ´nica. f : (U, BU ) −→ (V, BV ) → A ↑P ↓ Q−1 f : (U, BU0 ) −→ (V, BV0 ) → A0 Las matrices A y A0 as´ı relacionadas son llamadas matrices equivalentes. Es decir dos matrices A, A0 ∈ Mn,m son equivalentes si y s´olo si corresponden a 14

la misma aplicaci´on lineal en bases distintas o, lo que es lo mismo, si y s´olo si A0 = P AQ−1 , para dos matrices P ∈ Mn y Q ∈ Mm regulares. Es sencillo deducir que dos matrices equivalentes tienen igual rango. Es tambi´en cierto, aunque no tan sencillo de deducir, que dos matrices con el mismo orden y el mismo rango son equivalentes. Ejemplo 2.7. Calcula la matriz de la aplicaci´on lineal g(x, y, z) = (2x, x+2z, 2y− z, −3z) del ejercicio anterior respecto de las bases can´onicas de R3 y R4 Calcula las matrices de cambio de base entre las bases del ejercicio anterior y las bases can´onicas y comprueba la relaci´on de equivalencia mediante dichas matrices. Soluci´on. f (1, 0, 0) = (2, 1, 0, 0), f (0, 1, 0) = (0, 0, 2, 0), f (0, 0, 1) = (0, 2, −1, −3). Ahora en R4 como se trata de la base can´onica, las coordenadas y los vectores coinciden. Por tanto la matriz de f respecto de las bases can´onicas es:   2 1 0 0   A0 =  0 0 2 0  . 0 2 −1 −3 La matriz de cambio de base en R3 de BR3 can´onica es  1  P −1 =  0 0

= {(1, 1, 1), (0, 1, 1), (0, 0, 1)} a la base  1 1  1 1 . 0 1

Calculando la matriz inversa obtenemos   1 −1 0   P =  0 1 −1  . 0 0 1 La matriz Q−1 en R4 de cambio de base de

15

BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)} a la base can´onica es   −1 0 1 0     0 −1 1 0  Q−1 =   0 0 −1 1  .   0 0 0 −1 Ahora





P AQ

−1

  −1 0 1 0 1 −1 0 −2 −3 −6 −3      0 −1 1 0 =  0 1 −1   0 −2 −3 0    0 0 −1 1  0 0 1 0 −2 −1 2 0 0 0 −1

    = A0 .   1

Una aplicaci´on lineal f establecida entre un espacio vectorial U de dimensi´on n y ´el mismo, se llama endomorfismo de U . En este caso se puede emplear una sola base y la matriz de f es una matriz cuadrada A ∈ Mn . Si se cambia esa base, y P ∈ Mn es la matriz de cambio de la nueva base a la antigua, entonces la nueva matriz de f es A0 = P AP −1 . Las matrices A y A0 se dicen semejantes. En particular dos matrices semejantes tienen el mismo rango, pero no todas las matrices cuadradas con el mismo rango so semejantes.

2.4.

Espacio Af´ın.

Consideremos un conjunto E no vac´ıo, a cuyos elementos llamaremos puntos (y denotaremos con letras latinas may´ usculas) y un espacio vectorial V . Tambi´en una aplicaci´on que a cada par de puntos (A, B) asigne un vector de V (que en −→ este contexto denotaremos AB) y que cumpla las condiciones: −→ −−→ −→ 1) Si A, B, C ∈ E, entonces AB + BC = AC. −→ 2) Dados P ∈ E y v ∈ V, existe un u ´nico Q ∈ E tal que P Q = v. Entonces diremos que E es un espacio af´ın sobre el espacio vectorial V. 16

−→ A P Q se le llama representante del vector v y los puntos P y Q son el origen −→ y extremo respectivamente del vector P Q. La dimensi´on del espacio vectorial V es, por definici´on, la dimensi´on del espacio af´ın E. Algunas propiedades que se deducen de la definici´on anterior son las siguientes: −→ a) P Q = 0 si y s´olo si P = Q. −→ −→ b) P Q = −QP . −−→ −−→ −→ −−→ c) si P Q = P 0 Q0 entonces P P 0 = QQ0 . Daremos alg´ un ejemplo de espacio af´ın, que es por cierto el que m´as emplearemos: Para un n ∈ N cualquiera consideremos En = Rn como conjunto de puntos y consideremos tambi´en Vn = Rn como espacio vectorial. A cada par de puntos P, Q con P = (p1 , p2 , . . . , pn ) y Q = (q1 , q2 , . . . , qn ), se le asocia el vector −→ P Q = (q1 − p1 , q2 − p2 , . . . , qn − pn ) ∈ Rn . Entonces En es espacio af´ın sobre Vn . Para los casos n = 2 y n = 3 se tiene el plano af´ın y el espacio af´ın real tridimensional. Sea E un espacio af´ın de dimensi´on n sobre el espacio vectorial V . Se llama sistema de referencia al conjunto R = {O; v1 , v2 , . . . , vn } formado por un punto O y una base de V , {v1 , v2 , . . . , vn }. Al punto O se le llama origen del sistema de referencia. Cada punto P ∈ E viene individualizado por los n escalares (α1 , α2 , . . . , αn ) −→ que son las coordenadas de OP en la base {v1 , v2 , . . . , vn }. A tales escalares se les llama coordenadas de P respecto del sistema R. Es f´acil comprobar que si P, Q ∈ E tienen por coordenadas respectivamente P = (p1 , p2 , . . . , pn ) Q = (q1 , q2 , . . . , qn ) respecto de un sistema de referencia, −→ R = {O; v1 , v2 , . . . , vn } entonces el vector P Q tiene por coordenadas (q1 − p1 , q2 − p2 , . . . , qn − pn ) respecto de la base. −→ −→ −→ −→ −→ En efecto:P Q = P O + OQ = OQ − OP . Basta ahora observar que −→ −→ OQ − OP = (q1 v1 + q2 v2 + · · · + qn vn ) − (p1 v1 + p2 v2 + · · · + pn vn .) Cambio de sistemas de referencia. Supongamos dos sistemas de referencia R1 = {O; u1 , u2 , . . . , un } y R2 = {O0 ; v1 , v2 , . . . , vn } de un espacio af´ın E. Para 17

poder calcular las coordenadas de un punto cualquiera X respecto de R2 , conocidas sus coordenadas respecto de R1 , se deben conocer: - Las coordenadas del origen “antiguo”O respecto del sistema nuevo R2 . Sean (o1 , o2 . . . , on ) esas coordenadas. - La matriz de cambio de base de la base “antigua”{u1 , u2 , . . . , un } a la base nueva {v1 , v2 , . . . , vn }. Sea P = (pij ) esa matriz. En ese caso, las coordenadas (x01 , x02 , . . . , x0n ) de X respecto de R2 se obtienen a partir de las coordenadas (x1 , x2 , . . . , xn ) respecto de R1 por la expresi´on: 

1   0  (1, x01 , x02 , . . . , x0n ) = (1, x1 , x2 , . . . , xn )   0   ... 0 Efectuando ese producto matricial se obtienen

o1

on

p11 p12 . . . p1n p21 p22 . . . p2n ... ... ... ...

      

pn1 pn2 . . . pnn las ecuaciones del cambio de

sistema de referencia: x01 x02

= o1 + p11 x1 + p21 x2 + . . . = o2 + p12 x2 + p22 x2 + . . . ... ... ... ... ... ... x0n

o2 . . .



= on + p1n x1 + p2n x2 + . . .

 pn1 xn     pn2 xn  ...     p x  nn n

La matriz de un cambio de sistema de referencia tiene inversa, que es precisamente la matriz del cambio inverso (de R2 a R1 ). En el caso particular en que ambos or´ıgenes coincidan, al cambio de sistema de referencia se le llama un cambio de base, y el caso en que coincidan ambas bases y s´olo se haya cambiado el origen O por O0 , al cambio de sistema se le llama una −−→ traslaci´ on de vector OO0 . En realidad, cualquier cambio de sistema de referencia es la composici´on de una traslaci´on y un cambio de base. Un ejercicio interesante es escribir la matriz de una traslaci´on y la de un cambio de base, y comprobar que cualquier matriz de cambio de sistema de referencia se puede obtener como producto de una de cada uno de esos dos tipos. 18

Ejemplo 2.8. En el espacio af´ın R3 consideramos los puntos A = (1, 2, 1), B = (−1, 1, 2), C = (0, 1, 3), D = (2, −1, 5). −→ −→ −−→ Consideremos el sistema de referencia R1 = {A; AB, AC, AD}. Consideremos tambi´en el sistema de referencia can´ onico (origen en el cero O y la base can´onica), que llamamos R2 . Calcula las ecuaciones del cambio de sistema de referencia, de R1 a R2 . Tambi´en las de R2 a R1 . De una recta que pasa por los puntos P (1, 1, 0) y Q(0, −1, 1), ¿Cu´al es su ecuaci´on respecto del sistema R1 ? Soluci´on. Teniendo en cuenta que en el sistema de referencia can´onico todo punto de R3 coincide con sus coordenadas, los vectores de la base de R1 respecto de la base can´onica tienen por coordenadas: −→ −→ −−→ AB = (−2, −1, 1), AC = (−1, −1, 2), AD = (1, −3, 4). Las coordenadas del origen antiguo A respecto del nuevo sistema de referencia R2 −→ es OA = (1, 2, 1) Por tanto la expresi´on del cambio de R1 a R2 es:   1 1 2 1    0 −2 −1 1  0 0 0  (1, x , y , z ) = (1, x, y, z)   0 −1 −1 2    0 1 −3 4 Realizando ese producto se obtienen las ecuaciones del cambio de sistema pedido. Para el cambio de R2 a R1 , calculamos la matriz inversa y obtenemos:   1 3 −4 1     0 −1/3 −1/6 1/6  (1, x, y, z) = (1, x0 , y 0 , z 0 )   0 −1 3/2 −1/2    0 −2/3

7/6

−1/6

Los puntos de la recta que pasa por P y Q se expresan en R2 por (1 − α, 1 − 2α, α), α ∈ R. (Basta encontrar la ecuaci´on param´etrica). Las coordenadas de esos puntos respecto del sistema R1 se obtiene aplicando la matriz de cambio de R2 a R1 . En concreto la ecuaci´on param´etrica es (5/3 + 5β, −8/3 − 5β, 2/3 + 2β), β ∈ R. 19

2.5.

Producto escalar en un espacio vectorial.

Dado un espacio vectorial V sobre R, a una aplicaci´on que asigne a cada par de vectores x, y ∈ V un n´ umero real x · y ∈ R y que cumpla las propiedades: a)

x · x ≥ 0, x · x = 0 ⇔ x = 0,

c)

x · y = y · x,

b) x · (y + z) = x · y + x · z, d) (λx) · y = λ(x · y) x, y, z ∈ V, λ ∈ R.

se le llama un producto escalar en V, y a (V, ·) un espacio eucl´ıdeo. Es destacable que la estructura eucl´ıdea permite introducir los conceptos de ´angulos y distancias entre vectores. Previo a ello se introduce el concepto de norma √ de un vector, que para x ∈ V se denota |x| y se define por |x| = + x · x. Tres propiedades que verifica la norma: a) |x| ≥ 0, |x| = 0 ⇔ x = 0. b) |λx| = |λ||x|. c) |x+y| ≤ |x|+|y|, x, y ∈ V, λ ∈ R. Ahora la distancia entre dos vectores se define por: d(x, y) = |x − y| y el ´angulo x·y x d , y como el u ´nico θ ∈ [0, π] tal que cos(θ) = . |x||y| Un concepto muy destacable asociado al de producto escalar es el de ortogonalidad. Dos vectores x, y ∈ V se dicen ortogonales (se denota x⊥y) si x · y = 0 (equivalentemente, si x = 0 o y = 0 o cos(d x, y) = 0). Este concepto de ortogonalidad se extiende a bases y a subespacios. Dos subespacios S, T son ortogonales si x · y = 0, ∀x ∈ S, ∀y ∈ T. Una base B = {v1 , v2 , · · · , vn } se dice base ortogonal si cada vector de la base es ortogonal a los dem´as (vi · vj = 0, i 6= j), y se dice base ortonormal si es ortogonal y |vi | = 1, i = 1, 2 · · · , n (un vector de norma uno se dice vector unitario). Adem´as fijado un vector x ∈ V , el conjunto de todos los vectores ortogonales a x forman un subespacio vectorial conocido como subespacio ortogonal a x, y denotado x⊥ Fijada una base BV = {v1 , v2 , · · · , vn }, el producto escalar se puede expresar

20

mediante una matriz. Se llama matriz m´etrica y se define por:   v1 · v1 v1 · v2 . . . v 1 · vn    v2 · v1 v2 · v2 . . . v 2 · vn   .  ... ... ... ...    vn · v1 vn · v2 . . . v n · vn A partir de la matriz, si (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) son las coordenadas de x, y ∈ V entonces el producto escalar se obtiene por la expresi´on:    y1 v1 · v1 v1 · v2 . . . v 1 · vn     v2 · v1 v2 · v2 . . . v2 · vn   y2    x · y = (x1 , x2 , . . . , xn )  ..  .  ...   ... ... ...  .   vn · v1 vn · v2 . . . v n · vn

yn

Se observa f´acilmente que, respecto de una base ortogonal la matriz del producto escalar es una matriz diagonal y si adem´as la base es ortonormal, la matriz es la identidad. Entonces el producto escalar de dos vectores es la suma de los productos de sus coordenadas. Un primer ejemplo de espacio euclideo es el espacio vectorial Rn (fijado un n ∈ N) con el llamado producto escalar usual: x · y = x1 y1 + x2 y2 + · · · + xn yn . Para ´el la base can´onica es base ortonormal. Ejemplo 2.9. Consideremos el espacio vectorial R2 con el producto escalar definido por: x · y = x1 y1 + x2 y1 + x1 y2 + 2x2 y2 ; x = (x1 , x2 ), y = (y1 , y2 ). Calcula el ´angulo y la distancia entre los vectores (−1, 2) y (2, −3). El subespacio ortogonal al vector (−2, 1). La matriz del producto escalar respecto de la base can´onica y respecto de la base B = {(1, 1), (0, 1)}. p √ Soluci´on. d((−1, 2), (2, −3)) = |(−3, 5)| = (−3, 5) · (−3, 5) = 29. Para el ´angulo, hemos de calcular el producto escalar de ambos vectores y √ √ sus normas. (−1, 2) · (2, −3) = −7, |(−1, 2)| = 5, |(2 − 3)| = 10. Ahora −7 (−1,\ 2)(2, −3) = arcos( √ ) = 171,86o . 50 21

El subespacio ortogonal: (−2, 1)⊥ = {(x, y) : −2x + x − 2y + 2y = 0} = {(x, y) : x = 0} Las matrices del producto escalar respecto de la base can´onica y respecto de la base B son, respectivamente

Ã

1 1 1 2

!

à ,

5 3 3 2

! . 1

Finalizamos el tema con la siguiente definici´on: un espacio af´ın E se dice que es af´ın-eucl´ıdeo si el espacio vectorial asociado es un espacio vectorial eucl´ıdeo. Estos son los espacios de la geometr´ıa y con esta estructura se tienen como sabemos, ´angulos y distancias entre vectores. Adem´as se define la distancia de un punto P −→ a otro Q por: d(P, Q) = |P Q|.

2.6.

Cuestiones y Problemas.

1. Si en el espacio vectorial usual R2 sustituy´eramos el producto por escalares por la operaci´on externa: λ(x, y) = (λ2 x, λ2 y) ¿Seguir´ıa siendo un espacio vectorial? 2. Dados dos subespacios vectoriales S, T de un espacio vectorial V , se define la intersecci´on y la suma de ambos, respectivamente, por S ∩ T = {x ∈ V : x ∈ S, x ∈ T },

S + T = {u + v ∈ V : u ∈ S, v ∈ T }.

Comprueba que ambos son subespacios. (Entre sus dimensiones se cumple la relaci´on: dim(S + T ) = dimS + dimT − dim(S ∩ T ).) 3. En R3 , dados los subespacios: S = {(x, y, z) : x − 2y = 0},

T =< (2, 1, −1), (0, 1, 1) >,

obtener las ecuaciones y una base de S, T, S + T y S ∩ T. 22

4. Comprueba que las siguientes son bases de P3 [x] y calcula las dos matrices de cambio de base. B = {x3 , x2 , x, 1} (base can´onica de P3 [x]) y B2 = {x3 − x, 2x2 + x, −x, 2x + 1}. Calcula las coordenadas en cada una de esas bases de los vectores −x3 + 3x2 + 2x − 1 y 2x3 + x2 − 4. 5. Consideramos la aplicaci´on lineal f : (x, y, z, t) ∈ R4 → (x − 2y, y − 2z, z − 2t)R3 . Encuentra su n´ ucleo y su imagen. Escribe las matrices de f respecto de las bases can´onicas y tambi´en respecto de las bases: B1 = {(0, 0, 0, 1), (0, 0, 1, 1), (0, 1, 1, 1), (1, 1, 1, 1)} y B2 = {(−1, −1, −1), (0, −1, −1), (0, 0, −1)}. Comprueba que ambas matrices son equivalentes a trav´es de las matrices de cambio de bases. 6. De un endomorfismo de R3 se sabe que ker f = {(x, y, z) : y = 0, z = 0} y que f (1, 1, 0) = (1, 1, 0) y f (−1, 0, 1) = (0, 1, 1). Calcula su matriz respecto de la base can´onica. Calcula su rango y unas ecuaciones de su imagen. 7. En R3 se define el producto escalar: x·y = 2x1 y1 +2x2 y2 +2x3 y3 +x1 y3 +x3 y1 , con x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ). Calcula la matriz respecto de la base can´onica de R3 . Calcula el ´angulo y la distancia entre los vectores (1, −1, 3) y (0, 2, −3). Escribe las ecuaciones impl´ıcitas del subespacio ortogonal de < (1, −1, 3), (0, 2, −3) > . Tambi´en las de (0, 1, −2)⊥ . 8. En el espacio af´ın R3 se consideran los puntos P = (1, 0, −1), Q = (2, 3, 1), R = −→ −→ −→ (0, 2, −3), S = (1, 1, 0). Comprobar que R = {P, P Q, P R, P S} es un sistema de referencia y calcular las coordenadas del punto M = (−2, −4, 1). Obtener las ecuaciones del cambio del sistema R al sistema de referencia can´onico. Si R2 denota el sistema obtenido a partir de R1 mediante traslaci´on del vector (1, 2, 3), escribir el origen y la base que componen R2 . Tambi´en las coordenadas de M. 23

´Indice general 2. Aplicaciones lineales y matrices.

1

2.1. Introducci´on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacio Vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 2

2.3. Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.4. Espacio Af´ın. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Producto escalar en un espacio vectorial. . . . . . . . . . . . . . . 2.6. Cuestiones y Problemas. . . . . . . . . . . . . . . . . . . . . . . .

16 20 22

24