Apuntes de Álgebra Lineal

Tema 2

Sistemas de ecuaciones lineales En este capítulo comenzamos propiamente el estudio del Álgebra Lineal. La palabra álgebra es de origen árabe y significaba originalmente “completar” o “recomponer”. En El Quijote se usa la palabra “algebrista” para referirse a una “persona que sabe recomponer los huesos [dislocados]”. El sentido matemático de la palabra “álgebra” proviene de los métodos enseñados por los matemáticos árabes del siglo IX para “despejar” la incógnita de una ecuación y poder hallar así su solución. Esos métodos consistían en “completar” y “recomponer” los términos de una ecuación de primer o segundo grado. Así pues, el álgebra era originalmente el arte de manipular las ecuaciones con el fin de hallar su solución. El máximo ejemplo de álgebra en este sentido es lo que hoy llamamos la complección del cuadrado del binomio1 que nos permite resolver una ecuación de segundo grado o deducir la fórmula de su solución. La palabra lineal que aparece en “Álgebra Lineal” debe entenderse no en el sentido general de “línea” u objeto “unidimensional” sino en el sentido más restringido de “línea recta”, concebida como la representación geométrica de un polinomio de grado 1. El concepto clave es, pues, el de “recto” y no el de “línea” y está muy relacionado con el concepto de proporción ya que para los puntos de una recta las diferencias de abscisas son proporcionales a las correspondientes diferencias de ordenadas.

También es parte del Álgebra Lineal (ver último tema) el estudio de las formas cuadráticas, que son polinomios de grado 2. Pero lo que hace que esto sea parte del Álgebra Lineal es que en este estudio es fundamental el marco del espacio vectorial en el que está definida la forma cuadrática, lo cual hace que las formas cuadráticas sean parte del estudio de los espacios vectoriales.

1 Un polinomio de segundo grado,

del binomio x +

b 2



x2 + bx + c no es en general el cuadrado de un binomio, pero sí es igual al cuadrado si le sumamos lo que le falta: 14 (b2 − 4c) (que es lo que completa el cuadrado del binomio).

1

Versión de 1 de diciembre de 2015, 20:14 h.

El concepto matemático de “lineal” incluye también un plano en el espacio (porque su ecuación está dada por un polinomio de grado 1) y también objetos geométricos análogos de dimensiones superiores, todos ellos definidos por ecuaciones de grado 1. El problema fundamental del Álgebra Lineal es determinar la intersección de varios de tales objetos, lo que equivale a “resolver” simultáneamente varias ecuaciones de primer grado (con una o más incógnitas). Las leyes que rigen las manipulaciones algebraicas de tales conjuntos de ecuaciones definen una estructura matemática llamada Espacio Vectorial, de forma que una definición breve y completa del Álgebra Lineal es que consiste en el estudio de los Espacios Vectoriales.

2.1. Conceptos básicos de las ecuaciones lineales

2.1.

Tema 2. Sistemas de ecuaciones lineales

Conceptos básicos de las ecuaciones lineales

El estudio del Álgebra Lineal comienza por los métodos de resolución de las ecuaciones de grado 1 en varias incógnitas. Se puede pensar que si en el estudio de las ecuaciones el primer paso es aprender a resolver una ecuación de primer grado en una incógnita y el segundo es aprender a resolver una ecuación de segundo grado en una incógnita, el tercer paso es aprender a hallar la solución simultánea de un conjunto —sistema— de varias ecuaciones de primer grado en varias incógnitas. La idea directriz que se debe tener ante un sistema de ecuaciones en varias incógnitas es que para poderlo “resolver” es necesario disponer de tantas ecuaciones “independientes” como incógnitas. Sin embargo, como pronto veremos, especialmente en el caso de los sistemas de ecuaciones lineales, esta idea directriz necesita varias matizaciones importantes.

Concepto de sistema de ecuaciones lineales ecuación lineal

Una ecuación lineal es una igualdad entre dos polinomios de primer grado en varias variables con coeficientes reales o complejos. Por ejemplo: 4x − 5y + 2 = 3z + 2i (1 − x ). Las incógnitas de la ecuación son las variables independientes de los dos polinomios que aparecen en ella. En el caso del ejemplo las incógnitas son x, y, z. Toda ecuación lineal se puede escribir como un polinomio de primer grado (en varias variables, con coeficientes reales o complejos) igualado a cero. En el caso de la ecuación anterior, la podemos escribir en la forma:

(4 + 2i ) x − 5y − 3z + 2 − 2i = 0. Si una ecuación lineal está escrita de esta forma, los coeficientes de los términos de grado 1 se llaman los coeficientes de la ecuación y el opuesto del término de grado cero se llama el término independiente de la ecuación. Si el término independiente de la ecuación es cero entonces el polinomio que la define es un polinomio es homogéneo (sólo tiene términos de grado 1) y la ecuación se llama una ecuación lineal homogénea. sistema de ecuaciones lineales

Un sistema de ecuaciones lineales es un conjunto finito de ecuaciones lineales. Las incógnitas del sistema son todas las incógnitas de todas las ecuaciones del sistema. Por ejemplo, en los sistemas: 3x + 2y + z = x + 4 (1 + i )z + iw = 0 (2.1) 1 − z + 6x = 6 + z − t 2iz + (1 − i )w = 4 + 4i. las incógnitas son x, y, z, t en el de la izquierda y z, w en el de la derecha.

Forma estándard de un sistema de ecuaciones lineales primer paso

El primer paso en el análisis de un sistema de ecuaciones lineales consiste en escribir cada una de las ecuaciones que aparecen en él con todas las incógnitas en el miembro de la izquierda y los términos independientes en el miembro de la derecha, de forma que cada ecuación del sistema quede escrita como un polinomio homogéneo (de grado 1, en varias variables) igualado a una constante. Por ejemplo, en el caso del sistema de la izquierda de los (2.1) el primer paso sería escribir: 2x + 2y + z = 4 (2.2) −2z + 6x + t = 5. 2

Tema 2. Sistemas de ecuaciones lineales segundo paso

2.1. Conceptos básicos de las ecuaciones lineales

El segundo paso consiste en reordenar los términos de los polinomios de cada ecuación de forma que todas tengan las incógnitas en el mismo orden. En el caso del ejemplo anterior, pondríamos: 2x + 2y + z

=4 − 2z + t = 5.

6x

(2.3)

Esta es la forma en la que presentaremos normalmente los sistemas de ecuaciones lineales en este curso, con lo cual, en general no será necesario realizar los dos primeros pasos descritos, y podremos centrarnos en el proceso de resolución propiamente dicho. Finalmente, para resaltar el orden de las incógnitas utilizaremos una sola letra con subíndices sucesivos para denotar las incógnitas. Así, el sistema del ejemplo lo escribiríamos usualmente ya en la forma: 2x1 + 2x2 + x3

=4 − 2x3 + x4 = 5.

6x1

(2.4)

Ésta sería la forma estándard del sistema.

Representación matricial Una vez que se ha escrito un sistema de ecuaciones lineales como una lista de polinomios homogéneos de grado 1 igualados a constantes y que se han escrito las incógnitas en todas las ecuaciones en el mismo orden, se puede prescindir de escribir los nombres de las incógnitas e incluso de escribir los signos de sumar que combinan los términos de los polinomios, quedándonos unicamente con los coeficientes de cada ecuación y con los términos independientes. Se obtiene de esta forma una tabla de números alineados en columnas: 2 6

2 0

1 0 4 −2 1 5

(2.5)

En esta tabla, la última columna (la más a la derecha) está formada por los términos independientes, y las demás columnas (una por cada incógnita) contienen cada una los coeficientes de la incógnita correspondiente según aparecían en las ecuaciones en forma estándard. Esta tabla de números, normalmente escrita entre paréntesis para delimitarla como un objeto único, se llama muy apropiadamente la matriz del sistema porque de ella se puede obtener el sistema. matriz del Para escribir la matriz de un sistema de ecuaciones lineales es muy importante tener en cuenta que en aquellas ecuaciones en las que no aparezca una incógnita determinada se debe pensar que en el lugar en el que debería aparecer esa incógnita (según la forma en que las hayamos ordenado) está presente dicha incógnita con un coeficiente igual a cero. De esta forma en el lugar correspondiente de la matriz del sistema escribiremos un cero y la matriz será un rectángulo completo con tantas filas como ecuaciones tiene el sistema y tantas columnas como incógnitas tiene mas 1.

sistema

Matriz de coeficientes y matriz ampliada En algunos problemas no nos interesan los términos independientes del sistema sino que solamente nos interesan los coeficientes. En ese caso, prescindimos de la última columna de la matriz del sistema para quedarnos solamente con la llamada matriz de coeficientes. Por esta matriz de razón, se suele llamar también a la matriz del sistema la matriz ampliada, porque es igual a la coeficientes. matriz de coeficientes ampliada por la columna de términos independientes. Por ejemplo, para matriz ampliada 3

= matriz del sistema.

2.1. Conceptos básicos de las ecuaciones lineales

Tema 2. Sistemas de ecuaciones lineales

el sistema (2.4), cuya matriz está definida por la tabla (2.5), tenemos: 2x1 + 2x2 + x3

sistema de ecuaciones:  matriz de coeficientes:

Igualdad de matrices.

2 6

2 0

1 0 −2 1

=4 − 2x3 + x4 = 5.

6x1



 ,

matriz ampliada:

2 6

2 0

1 0 4 −2 1 5



A partir de ahora, consideraremos a todo sistema de ecuaciones lineales como completamente equivalente a su matriz (ampliada), de forma que dos sistemas son el mismo si y sólo si tienen la misma matriz ampliada. Por otro lado, dos matrices son iguales si y sólo si ambas tienen el mismo número de filas, el mismo número de columnas y los elementos de lugares correspondientes son iguales. Una de las consecuencias de lo que acabamos de decir es que los dos sistemas: x1 + 2x2 = 4 x1 − x2 = 1

y

x1 − x2 = 1 x1 + 2x2 = 4

(2.6)

deben considerarse como distintos aunque sólo se diferencien en el orden en el que están escritas las ecuaciones.

Concepto de solución. La aplicación asociada a un sistema de ecuaciones lineales Dados unos valores determinados de las incógnitas, podemos averiguar si constituyen una solución de un sistema haciendo dos cosas: Primero, calcular los miembros de la izquierda de todas las ecuaciones para esos valores particulares de las incógnitas y, segundo, comparar los resultados obtenidos con los miembros de la derecha o términos independientes. Por ejemplo, si queremos saber si el punto ( x1 , x2 , x3 , x4 ) = (1, 2, 3, 4) ∈ R4 es una solución del sistema (2.4), calculamos en ese punto los miembros de la izquierda: 2x1 + 2x2 + x3 = 2 × 1 + 2 × 2 + 3 = 9 6x1 − 2x3 + x4 = 6 × 1 − 2 × 3 + 4 = 4. Comparando estos resultados con los términos independientes vemos que no son iguales por lo que concluimos que el punto (1, 2, 3, 4) ∈ R4 no es una solución de nuestro sistema. Si hacemos lo mismo con el elemento (1, 1, 0, −1) de R4 vemos que al evaluar los miembros de la izquierda del sistema (2.4), los resultados coinciden con los miembros de la derecha por lo que éste sí es una solución de (2.4). Lo que hacemos al proceder de esta manera es evaluar la siguiente función de R4 a R2 , la cual está completamente determinada por los miembros de la izquierda de las ecuaciones del sistema:   2x1 + 2x2 + x3 4 2 f : R → R , f ( x1 , x2 , x3 , x4 ) = . (2.7) 6x1 − 2x3 + x4 la aplicación asociada al sistema de ecuaciones

Esta función o aplicación se llama la aplicación asociada al sistema de ecuaciones. En términos de esta aplicación, el sistema de ecuaciones (2.4) se puede representar como la ecuación f (x) = b, donde b es el vector de los términos independientes. 4

(2.8)

Tema 2. Sistemas de ecuaciones lineales

2.1. Conceptos básicos de las ecuaciones lineales

Conjunto solución Todo sistema de ecuaciones lineales con n incógnitas divide al conjunto Rn (o Cn ) en dos subconjuntos: El conjunto de los elementos o vectores que son solución del sistema (llamado el conjunto solución del sistema) y el de los que no lo son. Esto es así incluso en los siguientes dos conjunto casos extremos: (1) que el sistema no tenga ninguna solución, y (2) que todo elemento de Rn solución sea solución. En el primer caso diremos que el conjunto solución es el conjunto vacío, denotado conjunto vacío mediante el símbolo ∅. En el segundo caso el conjunto solución es todo Rn y el conjunto de los vectores que no son solución es el conjunto vacío, ∅. En términos de la aplicación asociada al sistema de ecuaciones lineales, el sistema se puede representar en la forma (2.8) y entonces el conjunto solución es el conjunto f −1 (b), llamado también imagen inversa de b por f . Es incorrecto decir que un sistema dado no tenga conjunto solución. Todo sistema de ecuaciones ¡Atención! tiene conjunto solución. Si el sistema no tiene ninguna solución, aún así tiene un conjunto solución, que es ∅. En esos casos podemos decir, equivalentemente, que el sistema no tiene solución o que el conjunto solución del sistema es ∅. Esto sólo ocurre en los sistemas cuyas ecuaciones son incompatibles o contradictorias, como por ejemplo en el sistema: x1 = 0 x1 = 1. Un sistema cuyo conjunto solución sea vacío se llama inconsistente. Un sistema que tiene alguna solución (o sea, cuyo conjunto solución no es vacío) se llama consistente y se dice que sus ecuaciones son compatibles. Sistemas determinados. Hay un tipo muy especial de sistemas consistentes: aquellos cuyo conjunto solución tiene un único elemento. Estos sistemas se llaman sistemas determinados. Aquellos cuyo conjunto solución tiene más de un elemento se llaman sistemas consistentes indeterminados.

Cuestiones de existencia y unicidad de soluciones Hay dos cuestiones fundamentales que se plantean acerca de las soluciones de cualquier sistema de ecuaciones e incluso de cualquier problema matemático; éstas se conocen como la cuestión de existencia y la cuestión de unicidad. La primera consiste en plantearse si el sistema tiene o no alguna solución (si existe solución), es decir, si el sistema es consistente o no. La segunda cuestión es si existe una sola solución (solución única), es decir, si el sistema es determinado o indeterminado. Relación con las aplicaciones sobreyectivas e inyectivas Las cuestiones de existencia y unicidad de soluciones de un sistema de ecuaciones lineales est · n íntimamente relacionadas con los conceptos generales de aplicación sobreyectiva y de aplicación inyectiva. Estos conceptos son de gran importancia y serán utilizados en muchas ocasiones a lo largo de este curso, por lo que conviene comprenderlos claramente desde el principio. Una función o aplicación del conjunto A al conjunto B, f : A → B,

función o aplicación

(2.9)

es una regla o fórmula para asignar a cada elemento del conjunto A un elemento del conjunto B que se llama “el valor de f en el elemento dado de A”. El conjunto A de los “datos” en los que se evalúa la función f se llama el dominio de f , mientras que el conjunto B que contiene los dominio resultados de evaluar f se llama el codominio de f . Por ejemplo, para cualquier función real de codominio 5

2.2. Resolución de los sistemas de ecuaciones lineales

Tema 2. Sistemas de ecuaciones lineales

variable real definida por un polinomio, tanto el dominio como el codominio de la misma es el conjunto R de los números reales. Conjunto imagen. Aplicación sobreyectiva

Los valores o resultados que se obtienen al evaluar f ( x ) para los distintos x ∈ A, son elementos de B llamados las imágenes de f y el conjunto de todas esas imágenes es un subconjunto de B llamado la imagen de f y denotado Im( f ) y a veces también f ( A). Una aplicación f : A → B es sobreyectiva si todo elemento del codominio B es un elemento de la imagen Im( f ), es decir si Im( f ) = B (“la imagen es igual al codominio”). Esto es lo mismo que decir que “para todo elemento b ∈ B la ecuación f ( x ) = b tiene al menos una solución”. Por tanto el concepto de aplicación sobreyectiva está relacionado con la cuestión de existencia de soluciones.

Aplicación inyectiva

Por otro lado, f es inyectiva si elementos distintos de A tienen imágenes distintas, es decir, si ( x, y ∈ A, x 6= y) implica f ( x ) 6= f (y). Esto  se puede decir de varias otras formas, por ejemplo: f es inyectiva si x, y ∈ A, f ( x ) = f (y) implica x = y. Pero la forma de decirlo que más nos interesa ahora es la que relaciona el concepto de aplicación inyectiva con la cuestión de unicidad de soluciones: f es inyectiva si “para todo elemento b ∈ B la ecuación f ( x ) = b tiene a lo sumo una solución”.

Aplicación biyectiva

Las aplicaciones que son a la vez sobreyectivas e inyectivas se llaman aplicaciones biyectivas. Decir que la aplicación de un sistema de ecuaciones lineales es sobreyectiva significa que para cualesquiera términos independientes que pongamos, el sistema resultante siempre tendrá solución. Decir que dicha aplicación es inyectiva significa que para cualesquiera términos independientes que pongamos, el sistema resultante, si tiene solución es única.

2.2.

Resolución de los sistemas de ecuaciones lineales

Sistemas equivalentes Dos sistemas de ecuaciones lineales distintos con el mismo número de incógnitas pueden tener exactamente el mismo conjunto solución. Que esto es cierto es evidente porque hay muchos sistemas inconsistentes distintos y todos ellos tienen el mismo conjunto solución: el conjunto vacío. Sin embargo, la afirmación hecha va mucho más allá de esos casos triviales y sigue siendo cierta incluso para los sistemas consistentes. Por ejemplo, los siguientes: x1 + 2x2 = 4 x1 − x2 = 1

y

x1 − x2 = 1

(2.10)

x1 + 2x2 = 4

son dos sistemas consistentes distintos cuya solución es ( x1 , x2 ) = (2, 1) en ambos casos. Se puede objetar que los sistemas (2.10) no son “realmente” distintos; pero entonces uno se verá en la necesidad de definir lo que se entiende por “realmente distintos”. Forzando las cosas hasta sus límites uno se verá obligado a reconocer que dos sistemas no son “realmente distintos” si sólo se diferencian en alguna de estas cosas: El orden en que están dadas las ecuaciones: El sistema

x1 + 2x2 = 4 x1 − x2 = 1

no es “realmente distinto” de

6

x1 − x2 = 1 x1 + 2x2 = 4.

Tema 2. Sistemas de ecuaciones lineales

2.2. Resolución de los sistemas de ecuaciones lineales

Alguna ecuación de un sistema aparece en el otro multiplicada por un número distinto de cero: El sistema

x1 + 2x2 = 4 x1 − x2 = 1

no es “realmente distinto” de

x1 + 2x2 = 4 5x1 − 5x2 = 5,

porque la segunda ecuación del segundo sistema es igual a la correspondiente del otro multiplicada por 5. Alguna ecuación de un sistema es el resultado de sumar miembro a miembro a la correspondiente ecuación del otro, alguna otra ecuación del sistema: El sistema

x1 + 2x2 = 4 x1 − x2 = 1

no es “realmente distinto” de

2x1 + x2 = 5 x1 − x2 = 1,

porque la primera ecuación del segundo sistema es el resultado de sumar, a la primera ecuación del otro, la segunda. En los tres casos tenemos un par de sistemas que tienen exactamente el mismo conjunto solución. Así que lo que en realidad tienen en común dos sistemas que están relacionados por una o varias de esas tres propiedades es el conjunto solución. Veremos más tarde que todo par de sistemas de ecuaciones lineales que tengan el mismo conjunto solución se pueden obtener uno del otro mediante la aplicación repetida de una o varias de las tres operaciones enunciadas. Esto nos lleva a hacer la siguiente definición:

Definición: solución.

Dos sistemas de ecuaciones lineales son equivalentes si tienen el mismo conjunto Sistemas equivalentes.

Operaciones elementales La estrategia fundamental para la resolución de un sistema de ecuaciones lineales consiste La estrategia en transformar una o varias veces las ecuaciones del sistema de forma que en cada paso se obtenga un sistema equivalente más fácil de resolver. Procediendo de esta forma se puede llegar a transformar el sistema original en otro equivalente al primero cuyas soluciones sean claras o cuya inconsistencia sea evidente. Las transformaciones u operaciones que se pueden realizar sobre las ecuaciones de un sistema sin que se altere el conjunto solución son esencialmente de los tres tipos descritos más arriba, pero todas esas transformaciones se pueden obtener mediante la combinación de los siguientes tres tipos básicos o elementales: 1) Realizar un intercambio de las posiciones que ocupan dos ecuaciones determinadas en el Intercambio. sistema. 2) Multiplicar los dos miembros de una ecuación dada por un número distinto de cero. Este tipo de operación se llama una operación de reescalado. Reescalado. 3) Sumar a una ecuación, miembro a miembro, otra ecuación del sistema o, más generalmente, un múltiplo de otra ecuación. Este tipo de operación se llama una operación de reemplazo Reemplazo. porque una ecuación queda reemplazada por el resultado de sumarle un múltiplo de otra. Los tres tipos de operaciones mencionadas sobre las ecuaciones de un sistema se llaman operaciones elementales. Al realizar una operación elemental sobre las ecuaciones de un sistema operaciones de ecuaciones lineales, no se altera la solución, es decir, se obtiene otro sistema equivalente al elementales primero. 7

2.2. Resolución de los sistemas de ecuaciones lineales

Tema 2. Sistemas de ecuaciones lineales

Inversas de las operaciones elementales. Toda operación elemental realizada sobre un sistema se puede “deshacer” mediante la realización de otra operación elemental. Por ejemplo, si se han intercambiado dos ecuaciones, al realizar de nuevo la misma operación de intercambio, las ecuaciones vuelven a sus posiciones originales. Si realizamos una operación de reescalado multiplicando una cierta ecuación por c, entonces por definición de operación de reescalado c es distinto de cero y podemos reescalar la misma ecuación por 1/c con lo que recuperamos la ecuación de partida. Finalmente, supongamos que realizamos la operación de reemplazo que consiste en sumar a la segunda ecuación la primera multiplicada por 3: x1 + 2x2 = 4 x1 − x2 = 1

sumo a la 2a ecuación la 1a ×3

x1 + 2x2 = 4 4x1 + 5x2 = 13,

Si a continuación realizamos la operación de reemplazo que consiste en sumar a la segunda ecuación la primera multiplicada por −3 estaremos restando lo que habíamos sumado y volveremos a obtener las mismas ecuaciones que teníamos al principio: x1 + 2x2 = 4 4x1 + 5x2 = 13,

sumo a la 2a ecuación la 1a ×(−3)

x1 + 2x2 = 4 x1 − x2 = 1

En resumen: Toda operación elemental tiene una inversa que es también una operación elemental.

Operaciones elementales en la resolución de sistemas de ecuaciones lineales Uno de los errores más frecuentes al intentar resolver un sistema de ecuaciones lineales consiste en “despejar” y “sustituir” incógnitas de forma más o menos aleatoria con la esperanza de conseguir despejarlas todas y encontrar la solución. Esta forma de proceder, combinada con un poco de habilidad suele dar resultado para sistemas pequeños con no más de dos incógnitas o para sistemas que tengan algunas simetrías muy obvias, pero cuando el número de incógnitas y de ecuaciones aumenta, suele llevarnos a círculos viciosos de los que es difícil salir. El método de resolución de sistemas de ecuaciones lineales más eficaz se realiza mediante operaciones elementales en dos fases que se describen a continuación.

Fase 1: Simplificación del sistema o fase de eliminación La forma sistemática de aplicar la estrategia de simplificación mediante operaciones elementales se basa en el hecho de que si una incógnita aparece en una ecuación, entonces su coeficiente es distinto de cero y entonces: (1) podemos hacerlo igual a 1 mediante una operación de reescalado, y (2) mediante una operación de reemplazo podemos eliminar esa incógnita de toda otra ecuación en la que aparezca. Por ejemplo, en el sistema: x1 +2x2 −3x3 + x4 = 4 x2 + x3 x1

=b + x3 +2x4 = c.

(2.11)

podemos utilizar la tercera ecuación para eliminar la incógnita x1 de todas las demás, que es decir, en este caso, eliminarla de la primera ecuación ya que no aparece en la segunda. Para hacer esto realizamos la operación elemental de “sumar a la primera ecuación la tercera multiplicada por −1”. También podíamos haber usado la primera ecuación para eliminar la incógnita x1 de las otras, pero en este ejemplo queremos acentuar que se puede utilizar la ecuación que más 8

Tema 2. Sistemas de ecuaciones lineales

2.2. Resolución de los sistemas de ecuaciones lineales

convenga. Así al elegir la incógnita x1 de la tercera ecuación, la señalamos con un recuadro y realizamos la operación elemental indicada, con lo que nuestro sistema se convierte en: 2x2 −4x3 − x4 = 4 − c x2 + x3 x1

=b + x3 +2x4 = c.

(2.12)

La incógnita eliminada sólo permanece en la ecuación que fué utilizada para realizar esta eliminación. Vamos a utilizar una notación est · ndard para las operaciones elementales. La operación de reemplazo que consiste en sumar a la ecuación k la ecuación h multiplicada por c la vamos a denotar Ek → Ek + cEh , que debe leerse: “La ecuación k queda sustituida por el resultado de sumarle la ecuación h multiplicada por c”. Entonces, la operación realizada para pasar del sistema (2.11) al sistema (2.12) se denotaría: E1 → E1 − E3 y escribiríamos: x1 +2x2 −3x3 + x4 = 4 x2 + x3 x1

=b + x3 +2x4 = c.

2x2 −4x3 − x4 = 4 − c

E1 → E1 − E3 −−−−−−−−−→

x2 + x3

=b + x3 +2x4 = c.

x1

Hecho esto, observamos que el sistema formado por las demás ecuaciones tiene al menos una incógnita menos que el sistema completo y podemos repetir el mismo proceso con dicho subsistema. En nuestro ejemplo podríamos hacer: 2x2 −4x3 − x4 = 4 − c x2 + x3 x1

=b

−6x3 − x4 = 4 − c − 2b =b

E1 → E1 − 2E2 −−−−−−−−−− →

+ x3 +2x4 = c.

x2 + x3 x1

+ x3 +2x4 = c.

El proceso termina cuando nos queda solamente una ecuación por utilizar. En todas las demás hay una incógnita en el recuadro. Ninguna de esas incógnitas aparece en la última ecuación que nos queda. Llegados a este punto, y para terminar esta fase de eliminación, sólo nos queda elegir una de las incógnitas que aún permanecen en la última ecuación y marcarla con un recuadro como las anteriores, de forma que ahora todas las ecuaciones tienen marcada una incógnita y es una incógnita distinta en cada ecuación. En nuestro ejemplo, podemos terminar esta fase con:

−6x3 − x4 = 4 − c − 2b x2 + x3 x1

=b

(2.13)

+ x3 +2x4 = c.

Caso de que desaparezcan todas las incógnitas de una ecuación. La cuestión de existencia Al realizar el proceso de eliminación puede ocurrir que en algún momento desaparezcan todas las incógnitas de una ecuación. Por ejemplo, esto ocurre en el sistema que se muestra a continuación al sumar a la segunda ecuación la primera multiplicada por 2: x1 + 2x2 − 3x3 = 4

−2x1 − 4x2 + 6x3 = b.

E2 → E2 + 2E1 −−−−−−−−−− →

x1 + 2x2 − 3x3 = 4 0x1 + 0x2 + 0x3 = b + 8.

Cuando esto ocurre, nuestro sistema se transforma en uno que tiene una ecuación de la forma 0 = a donde a puede ser cero o no. Si a es cero, hemos obtenido la ecuación 0 = 0 que no tiene relevancia para la solución sistema y que se puede descartar. Si a no es cero, hemos llegado a 9

2.2. Resolución de los sistemas de ecuaciones lineales

Tema 2. Sistemas de ecuaciones lineales

una ecuación imposible, que indica que nuestro sistema original era inconsistente, como ocurriría en el ejemplo anterior si b fuese 6= −8, por ejemplo: x1 + 2x2 − 3x3 = 4

−2x1 − 4x2 + 6x3 = 5.

E2 → E2 + 2E1 −−−−−−−−−− →

x1 + 2x2 − 3x3 = 4 0x1 + 0x2 + 0x3 = 13.

En este caso, hemos terminado y podemos decir que el conjunto solución es ∅. Así pues, realizar la fase 1 nos permite contestar la cuestión de existencia de soluciones para nuestro sistema: No existe solución si en el proceso de eliminación se obtiene una ecuación en la que todas las incógnitas tenen coeficiente cero pero el término independiente no es cero. Si esto no ocurre, existe solución. Incógnitas básicas y variables libres. La cuestión de unicidad Si terminado el proceso de eliminación no hemos encontrado ninguna inconsistencia, aparte de saber que el sistema tiene solución, habremos transformado nuestro sistema en otro equivalente pero que es mucho más fácil de resolver. Pero lo realmente interesante de lo que hemos obtenido es que las incógnitas originales han quedado clasificadas en dos tipos: Las que aparecen en un recuadro, que llamaremos incógnitas básicas, y las demás, que llamaremos variables libres. En nuestro ejemplo, según vemos en (2.13), tenemos: incógnitas básicas:

x1 , x2 , x4 ;

variables libres:

x3 .

El objetivo de la siguiente fase es expresar las incógnitas básicas en función de las variables libres. Las distintas posibles soluciones del sistema se obtendrán dando valores arbitrarios a las variables libres y calculando los correspondientes valores de las incógnitas básicas. Pero no es necesario hacer eso para poder contestar la cuestión de unicidad para nuestro sistema: Suponiendo que es consistente, el sistema tiene solución única si no hay variables libres; si hay alguna variable libre la solución no es única. Fase 2: Sustitución regresiva y solución del sistema La forma más eficaz de consguir expresar las incógnitas básicas en función de las variables libres es la técnica de “sustitución regresiva” llamada así porque se trabaja sobre las ecuaciones en el orden inverso al que se llevó en la fase anterior. Una forma fácil de explicar esta fase es que, yendo ecuación a ecuación en el orden inverso al llevado en la fase de eliminación se despeja la incógnita básica de esa ecuación y se sustituye en todas las demás ecuaciones. Al terminar la fase 1, el sistema suele haber alcanzado una forma suficientemente sencilla como para que este “despejar” y “sustituir” se pueda realizar sin dificultades siempre que se siga el orden inverso tal como acabamos de decir. En nuestro ejemplo esto se reduciría a: (1) Despejamos x4 en la primera de las (2.13): x4 = 2b + c − 4 − 6x3 . (2) Sustituimos x4 en la última de las (2.13) (ya que es la única ecuación en la que aparece), de forma que esta ecuación se convierte en: x1 + x3 + 2(2b + c − 4 − 6x3 ) = c. (3) Despejamos x2 en la segunda de las (2.13): x2 = b − x3 (no aparece en la siguiente, luego no hay que sustituirla). 10

Tema 2. Sistemas de ecuaciones lineales

2.2. Resolución de los sistemas de ecuaciones lineales

(4) Despejamos x1 en la tercera de las (2.13) con lo que hemos obtenido: x4 = 2b + c − 4 − 6x3 x2 = b − x3

(2.14)

x1 = c − x3 − 2(2b + c − 4 − 6x3 ). Así, hemos realizado esta fase mediante “despejar” y “sustituir”. Sin embargo es importante comprender que esta fase se puede realizar también mediante operaciones elementales en un proceso en el que para cada incógnita básica, en el orden inverso al que se han obtenido, se usa la ecuación en la que aparece en recuadro para eliminarla de todas las demás ecuaciones. En nuestro ejemplo haríamos la operación elemental E3 → E3 + 2E1 :

−6x3 − x4 = 4 − c − 2b x2 + x3 x1

=b

−6x3 − x4 = 4 − c − 2b

E3 → E3 + 2E1 −−−−−−−−−− →

x2

+ x3 + 2 x4 = c.

+ x3 −11x3

x1

=b = c + 2(4 − c − 2b).

y con esto ya estarían las ecuaciones listas para despejar las incógnitas básicas: x4 = 2b + c − 4 − 6x3 x2 = b − x3

(2.15)

x1 = c + 2(4 − c − 2b) + 11x3 . Estas fórmulas, ya sean (2.14) o (2.15), que expresan las incógnitas básicas en función de las variables libres son las ecuaciones paramétricas del conjunto solución. Las variables libres actúan como parámetros que pueden tomar valores arbitrarios. Cada vez que elijamos a capricho valores para las variables libres, las fórmulas de las incógnitas básicas nos proporcionarán valores numéricos para ellas y habremos especificado una solución particular del sistema. Por ejemplo, si elegimos x3 = 0, tendremos la solución particular x1 = 8 − 4b − c, x2 = b, x3 = 0, x4 = 2b + c − 4.

El proceso de resolución de un sistema en versión matricial Toda operación elemental realizada sobre las ecuaciones de un sistema puede efectuarse de forma, si cabe, más económica, sobre las filas de la matriz (ampliada) del sistema. Por ejemplo, la siguiente operación elemental que hemos utilizado en un ejemplo: x1 +2x2 −3x3 + x4 = 4 x2 + x3 x1

=b + x3 +2x4 = c.

2x2 −4x3 − x4 = 4 − c

E →E −E

3 1 1 −−−−−− →

x2 + x3 x1

puede representarse matricialmente escribiendo:   1 2 −3 1 4 F1 → F1 − F3 0 1 1 0 b  −−−−−− → 1 0 1 2 c



0 2 0 1 1 0

=b + x3 +2x4 = c.

 −4 −1 4 − c 1 0 b  1 2 c

(donde hemos cambiado la “E” por una “F” en la notación de las operaciones elementales para indicar que ahora ya no son operaciones con ecuaciones, sino con filas de una matriz). De esta forma los procesos de eliminación y de sustitución se traducen en sendos procesos que, en cada paso, transforman la matriz de un sistema en la de un sistema equivalente. Las operaciones elementales que se pueden realizar sobre las ecuaciones de un sistema dan lugar, pues, a operaciones elementales sobre las filas de una matriz, las cuales, repitiendo lo dicho más arriba, son de los siguientes tipos: 11

Ecuaciones paramétricas del conjunto solución. solución particular

2.3. Forma escalonada reducida de una matriz

Tema 2. Sistemas de ecuaciones lineales

1. Intercambio: Intercambiar las posiciones de dos filas. 2. Reescalado: Multiplicar una fila por un número distinto de cero. 3. Reemplazo: Sumar a una fila un múltiplo de otra. La resolución de un sistema por este método tiene tres partes: 1. Escribir la matriz del sistema (o sea, representar el sistema en forma matricial). 2. Realizar el proceso de “eliminación” y “sustitución” sobre la matriz del sistema. 3. Escribir el sistema de ecuaciones representado por la matriz obtenida al final del proceso.

matrices equivalentes por filas

Dos matrices de las que una ha sido obtenida a partir de la otra mediante la realización de una o varias operaciones elementales de filas se dice que son matrices equivalentes por filas. Evidentemente, las matrices que corresponden a sistemas de ecuaciones lineales equivalentes son matrices equivalentes por filas y, recíprocamente, los sistemas de ecuaciones lineales que corresponden a matrices equivalentes por filas, son sistemas equivalentes. El teorema fundamental de las operaciones elementales Todo lo que acabamos de decir nos permite concluir el siguiente, que será la clave en nuestro estudio de las matrices: Si sobre un sistema de ecuaciones lineales se realiza una operación elemental, y luego se escribe la matriz correspondiente al nuevo sistema obtenido, el resultado es la misma matriz que se obtendría realizando dicha operación elemental sobre la matriz del sistema original. Este hecho se puede representar gráficamente de la siguiente forma: Sistema 1 O  Matriz 1

op. elem.

/ Sistema 2 O

op. elem.

 / Matriz 2

Por ejemplo,

−6x3 − x4 = 1 x2 + x3 =2 x1 + x3 + 2 x4 = −1 O

E3 → E3 +2E1

−6x3 − x4 = 1 x2 + x3 =2 x1 −11x3 =1 O /

 

0 0 0 1 1 0

2.3.

 

−6 −1 1 1 0 2 1 2 −1



F3 → F3 +2F1

0 0 / 0 1 1 0

 −6 −1 1 1 0 2 −11 0 1

Forma escalonada reducida de una matriz

Hemos visto que el proceso de eliminación y sustitución que nos permite resolver un sistema de ecuaciones lineales mediante la realización de operaciones elementales sobre esas ecuaciones 12

Tema 2. Sistemas de ecuaciones lineales

2.3. Forma escalonada reducida de una matriz

puede realizarse también sobre la matriz del sistema mediante operaciones elementales de filas. En esta sección introducimos una versión refinada de dicho proceso cuyo interés va más allá de la resolución de los sistemas, ya que aplicado a una matriz cualquiera (no necesariamente una que hayamos obtenido a partir de un sistema de ecuaciones lineales) nos permitirá obtener valiosa información sobre la misma.

Matriz en forma escalonada Imaginemos que realizamos el proceso de eliminación en un sistema de ecuaciones lineales, el proceso de pero lo hacemos eliminando en el primer paso no una incógnita cualquiera sino precisamente “eliminación la primera. Esto siempre es posible porque habrá alguna ecuación en la que aparezca la pri- ordenada” mera incógnita. Entre las ecuaciones que contienen la primera incógnita elegimos una de ellas, reordenamos las ecuaciones para que ésta (que hemos elegido por contener la primera incógnita) aparezca como la primera y eliminamos la primera incógnita de las demás ecuaciones. Por ejemplo, para el siguiente sistema representando por su matriz ampliada, podríamos elegir la primera incógnita de la última ecuación: ! ! ! 0 3 3

3 −7 −9

6 −5 −9

4 8 6

−5 9 15

−9 −7 3

3 3 0

F ↔F

3 1 −−−→

−9 −5 6

6 8 4

15 9 −5

F →F −F

2 2 1 −−−−−− →

3 0 0

−9 2 3

−9 4 6

6 2 4

15 −6 −5

Obtenemos así un subsistema (el formado por las ecuaciones segunda a última) en el que no aparece la primera incógnita. Si este subsistema tiene sólo una ecuación, hemos terminado el proceso. Si tiene más de una, repetimos el proceso con este subsistema eliminando en él, igual que antes, la primera incógnita de ese subsistema. En el ejemplo anterior podríamos hacer: ! ! 3 0 0

−9 2 3

−9 4 6

6 2 4

15 −6 −5

F3 → F3 − 3 F2

2 −−−−−−− →

3 0 0

−9 2 0

−9 4 0

6 2 1

15 −6 4

Cuando se termina este proceso de “eliminación ordenada”, se ha obtenido un sistema equivalente al inicial pero cuya matriz tiene unas propiedades especiales. Llamamos elemento principal de una fila de una matriz al primer elemento no nulo de la misma (contando de izquierda Elemento a derecha). Pues bien, la matriz del sistema obtenido en un proceso de eliminación ordenada principal de una fila tiene las siguientes propiedades: 1. Toda fila que no tiene elemento principal (fila de ceros) está después de cualquier fila que tenga elemento principal. 2. El elemento principal de cada fila está situado más a la derecha que el de la fila anterior. 3. Todos los elementos debajo de un elemento principal (en su columna) son cero.

Propiedades que definen una matriz escalonada

Toda matriz que tenga estas propiedades se llama una matriz escalonada y por lo explicado más arriba: Toda matriz es equivalente por filas a una matriz escalonada.

Columnas pivote de una matriz Durante la realización del proceso de “eliminación ordenada”, en cada paso hay en general cierta libertad para elegir la ecuación que se usará para eliminar la incógnita básica correspondiente a ese paso. Esta libertad depende de que la correspondiente incógnita básica aparezca en más de una ecuación. Podemos entonces elegir la ecuación que se usará para eliminar esa incógnita básica atendiendo a varios posibles criterios. Un criterio particular que decidamos seguir para realizar dicha elección se llama una estrategia de pivotación. Por ejemplo, una estrategia Estrategia de sencilla es la pivotación simple que consiste en elegir la primera ecuación en la que la incógnita pivotación 13

2.3. Forma escalonada reducida de una matriz

Tema 2. Sistemas de ecuaciones lineales

básica tenga coeficiente distinto de cero. Otra posible estrategia, que tiene mayor estabilidad desde el punto de vista numérico (menor acumulación de errores de redondeo en los cálculos) es la llamada pivotación parcial, que consiste en elegir aquélla ecuación en la que el coeficiente de la incógnita básica tenga el mayor valor absoluto. Dependiendo de la estrategia de pivotación adoptada, la “eliminación ordenada” puede realizarse de varias formas y cada una de ellas dará como resultado una matriz escalonada diferente. Sin embargo todas esas matrices escalonadas obtenidas por “eliminación ordenada” a partir de una matriz dada tienen siempre ciertas características comunes: Teorema: Todas las matrices escalonadas equivalentes a (obtenidas por medio de operaciones elementales de fila a partir de) una matriz dada tienen el mismo número de elementos principales y en las mismas posiciones. La demostración de esto es muy sencilla: Supongamos que la primera incógnita aparece tanto en la ecuación i como en la ecuación j y que al usar la ecuación i para eliminar la primera incógnita también se elimina la segunda incógnita en todas las ecuaciones. Esto sólo es posible si los coeficientes de las dos primeras incógnitas son proporcionales en todas las ecuaciones y por tanto también se habría eliminado la segunda incógnita de todas las ecuaciones si hubiésemos usado la ecuación j para eliminar la primera. Un razonamiento similar muestra que si al usar la ecuación i para eliminar la primera incógnita también se eliminan la segunda y la tercera incógnitas de todas las ecuaciones, lo mismo ocurrirá al usar la ecuación j en lugar de la i. En consecuencia, cuál es la siguiente incógnita básica es independiente de qué ecuación se usa en el proceso de eliminación. Repitiendo el mismo razonamiento con el siguiente subsistema y sucesivos se llega a la tesis del teorema.

Se llaman posiciones pivote de una matriz a las posiciones ocupadas por los elementos principales de cualquier matriz escalonada obtenida al realizar sobre la matriz dada el proceso de eliminación ordenada. Se llaman columnas pivote de una matriz a las columnas de las posiciones pivote de esa matriz, es decir, las columnas de los elementos principales de la matriz. La solución de cualquier sistema de ecuaciones lineales es susceptible de ser expresado tomando como incógnitas básicas las que corresponden a las columnas pivote de su matriz. Uso de una forma escalonada para contestar las preguntas de existencia y unicidad de soluciones.

El interés de tener un sistema de ecuaciones lineales escrito de forma que su matriz sea escalonada consiste en el hecho de mirando dicha matriz podemos contestar, sin realizar ningún trabajo, las dos preguntas de existencia y unicidad de soluciones del sistema ya que, al estar la matriz en forma escalonada, con sólo una mirada podemos identificar los elementos principales y por tanto las columnas pivote: Si la columna de la derecha es una columna pivote el sistema es inconsistente. Si no lo es, pero todas las demás columnas son columnas pivote el sistema es determinado (solución única). Si alguna de las demás columnas no contiene elemento principal, el sistema es indeterminado.

Forma escalonada reducida Si sobre un sistema de ecuaciones lineales se realiza el proceso de eliminación ordenada, de forma que el sistema se ha convertido en otro equivalente pero en forma escalonada, para obtener la solución del sistema sólo falta realizar el proceso de sustitución regresiva. Este proceso se puede realizar de forma muy eficaz de la siguiente forma: El proceso de reducción

Utilizando como base la ecuación que contiene la última incógnita básica, realizamos operaciones de reemplazo en todas las ecuaciones anteriores de forma que eliminemos de todas ellas dicha incógnita básica. Dividiendo la ecuación usada por el coeficiente de su incógnita básica obtenemos un sistema en el que dicha incógnita básica sólo aparece en una ecuación y tiene coeficiente 1. A continuación repetimos el mismo proceso partiendo de la ecuación anterior a la que acabamos de usar y así sucesivamente hasta usar la segunda ecuación para eliminar su 14

Tema 2. Sistemas de ecuaciones lineales

2.4. Sistemas de ecuaciones lineales en forma vectorial

incógnita básica de la primera y finalmente obtener un sistema en el que toda incógnita básica aparece en una sóla ecuación y tiene coeficiente 1. La matriz del sistema así obtenido tiene las siguientes propiedades: 1. Tiene forma escalonada. 2. El elemento principal de cada fila es 1. 3. En cada columna pivote, todos los elementos por encima del elemento pivote son cero. Toda matriz que tenga estas propiedades se llama una matriz escalonada reducida y por lo explicado más arriba: Toda matriz es equivalente por filas a una matriz escalonada reducida.

matriz escalonada reducida

Utilidad de la forma escalonada reducida ¿Cuál es el interés de la forma escalonada reducida de la matriz de un sistema de ecuaciones? Está claro que en la forma escalonada reducida podemos leer toda la información que podemos leer en cualquier forma escalonada, que consiste principalmente en las respuestas a las preguntas de existencia y unicidad de soluciones del sistema. Pero además, en la forma escalonada reducida podemos leer la solución del sistema sin necesidad de hacer ningún cálculo ya que la forma escalonada reducida de un sistema de ecuaciones lineales es esencialmente lo mismo que las ecuaciones paramétricas del conjunto solución siempre que se usen como incógnitas básicas las correspondientes a las columnas pivote. Esto es debido a que los elementos no nulos de las columnas no pivote son justamente los coeficientes en las ecuaciones paramétricas de la solución. Por ejemplo, si nos dicen que la forma escalonada reducida de la matriz de un sistema de ecuaciones lineales es esta:   1 0 2 3 0 5 −1 0 1 −1 8 0 4 9 , 0 0 0 0 1 7 6 automáticamente podemos escribir las ecuaciones paramétricas del conjunto solución: x1 = −1 − 2r − 3s−5t x1 = −1 − 2x3 − 3x4 −5x6 x2 =

9 + 1x3 − 8x4 −4x6

x5 =

6

−7x6 .

o bien:

x3 , x4 , x6 , libres.

x2 =

9 + 1r − 8s−4t

x3 =

r

x4 =

s

x5 =

6 − 7t

x6 =

t.

Como las ecuaciones paramétricas del conjunto solución en términos de unas variables básicas determinadas son únicas, llegamos a la siguiente conclusión: Teorema: Dada una matriz, cualquiera que sea la forma en que se realiza el proceso de eliminación ordenada y reducción, su resultado final será el mismo: La forma escalonada reducida de una matriz es única.

2.4.

Sistemas de ecuaciones lineales en forma vectorial

La introducción del lenguaje de vectores nos permite ver un sistema de m ecuaciones lineales en n incógnitas como una sola “ecuación vectorial” lineal en n incógnitas. Así, pasamos de visualizar un sistema de ecuaciones lineales como varias ecuaciones entre números con varias 15

Unicidad de la forma escalonada reducida

2.4. Sistemas de ecuaciones lineales en forma vectorial

Tema 2. Sistemas de ecuaciones lineales

incógnitas numéricas a visualizarlo como una sola ecuación entre vectores con varias incógnitas numéricas. En la siguiente sección (sección 2.5, página 20), sintetizaremos aún más el punto de vista para pasar a visualizar un sistema de ecuaciones lineales como una sola ecuación matricial con una sola incógnita vectorial.

Vectores en Rn y Cn Al hablar de vectores del plano (o del espacio) se puede uno referir a dos cosas distintas (aunque equivalentes desde el punto de vista del álgebra lineal). Por un lado, en Álgebra, un vector del plano es un par ordenado de números reales y las operaciones con vectores se derivan de las operaciones con números. Por otro lado, en Física y en Geometría se suele usar la palabra “vector” como sinónimo de “cantidad con magnitud y sentido”. El ejemplo típico es un “segmento orientado”, en el cual se distinguen el punto inicial (u “origen” o “cola”) y el punto final (o “cabeza”). Un segmento orientado del plano (o del espacio) representa una traslación global del plano (o del espacio) y la suma de vectores es equivalente a la composición de traslaciones. Sin embargo, dos segmentos orientados que sean paralelos y tengan el mismo sentido2 (o sea, dos vectores con la misma dirección, sentido y longitud) representan la misma traslación del plano o del espacio. Cuando se usan los segmentos orientados para representar traslaciones, basta considerar aquéllos cuyo origen es el origen de coordenadas. Cada vector con el origen en el origen de coordenadas está completamente determinado por su punto final y éste por sus coordenadas. Así, los vectores del plano, entendidos como traslaciones del plano se corresponden con los “segmentos orientados que tienen el origen en el origen de coordenadas” y éstos con los puntos del plano coordenado. Por ello, resultan ser equivalentes las definiciones de vector en Álgebra y en Geometría y los vectores del plano serán considerados como lo mismo que los pares ordenados de números reales (y los del espacio como ternas ordenadas de números reales). Rn

Cn

En general, para todo número entero positivo n llamaremos vector de Rn a todo conjunto ordenado de n números reales y lo representaremos normalmente como una columna de números reales (esto es, una matriz con una sola columna), aunque a veces, para ahorrar papel lo representaremos en la forma ( a1 , . . . , an ) que no hay que confundir con una matriz de una sola fila (en una matriz no hay comas). Igualmente, un vector de Cn es un conjunto ordenado de n números complejos y lo escribiremos normalmente también en forma de columna.

Operaciones aritméticas con vectores: sus propiedades algebraicas Las dos operaciones básicas a las que se pueden someter los vectores de Rn o de Cn , son la suma de vectores y la multiplicación de un número por un vector (o “reescalado” de vectores), las cuales se efectúan componente a componente como en el siguiente ejemplo: Ejemplo:  Si

u=

   1 2 , v= , −2 6 

Si

u=

 2 , c = 3, −1

 entonces

u+v = 

entonces

       1 2 1+2 3 + = = −2 6 −2 + 6 4

2 cu = 3 −1





=

3×2 3 × (−1)





=

6 −3



Dichas dos operaciones básicas de vectores de Rn (o de Cn ) tienen las siguientes propiedades fundamentales: 2 Esos

dos segmentos junto con el que une sus orígenes y con el que une sus finales formarán un paralelogramo.

16

Tema 2. Sistemas de ecuaciones lineales

2.4. Sistemas de ecuaciones lineales en forma vectorial

1. Propiedades de la suma de vectores (“Grupo conmutativo”): a) b) c) d)

Propiedad asociativa de la suma: u + (v + w) = (u + v) + w. Existencia del neutro de la suma o vector cero: 0 + u = u + 0 = u. Existencia de opuestos para la suma: −u + u = u + (−u) = 0. Propiedad conmutativa de la suma: v + u = u + v.

2. Propiedades distributivas de la multiplicación por números: a) Propiedad distributiva para la suma de vectores: x (u + v) = xu + xv. b) Propiedad distributiva para la suma de números: ( x + y)u = xu + yu. 3. “Acción de los escalares”: a) Propiedad asociativa del producto de números por vectores: x (yu) = ( xy)u. b) Ley de identidad: El número 1 es neutro para la multiplicación de vectores por números: 1 u = u. Espacios vectoriales abstractos. Todo conjunto de elementos abstractos que se puedan sumar entre sí y multiplicar por números reales de tal forma que se cumplan esas propiedades se llama un espacio vectorial real. y sus elementos se llaman vectores. Si los elementos del conjunto abstracto se pueden multiplicar por números complejos manteniéndose dichas propiedades, entonces el conjunto se llama un espacio vectorial complejo. Los números por los que se pueden multiplicar los vectores de un espacio vectorial se llaman los escalares de ese espacio. Así, los escalares de Rn son los números reales y los escalares de Cn son los números complejos. De ahora en adelante, utilizaremos la palabra “escalar” para referirnos a un número real si el espacio en consideración es Rn y a un número complejo si el espacio en consideración es Cn .

Def. de Espacio Vectorial. vectores

escalares

Combinaciones lineales de vectores Las propiedades algebraicas de las operaciones básicas de vectores (suma y multiplicación por escalares) hacen posible realizar muchas otras operaciones, como por ejemplo “punto medio” definido como: punto medio(u, v) = 21 (u + v) = 12 u + 12 v. Una operación algo más general es la llamada “baricentro” que se puede aplicar a un número arbitrario de vectores y está definida por la fórmula: baricentro(u1 , . . . , u p ) = 1p (u1 + · · · + u p ) = 1p u1 + · · · + 1p u p . La operación más general que se puede realizar con vectores consiste en multiplicar cada uno de los vectores dados por un número y sumar todos los resultados: y = c1 u1 + · · · + c p u p Esta operación se llama combinación lineal de los vectores u1 , . . . , u p y los escalares ci por los que han sido multiplicados los vectores ui se llaman los coeficientes o pesos de esos vectores en la combinación lineal. El vector y obtenido como resultado de la combinación lineal se llama una combinación lineal de los vectores u1 , . . . , u p con pesos c1 , . . . , c p . Por ejemplo, vamos a calcular la combinación lineal y = c1 u + c2 v donde     2 5 u= ,v = , c1 = −1 , c2 = 2. 6 3 17

peso de un vector en una combinación lineal.

2.4. Sistemas de ecuaciones lineales en forma vectorial

Tema 2. Sistemas de ecuaciones lineales

Para ello calculamos:

      2 5 8 y = c1 u + c2 v = (−1) +2 = . 6 3 0   8 Entonces decimos que el vector y = es una combinación lineal de los vectores u, v con 0 coeficientes o pesos −1, 2. Ejercicio: Averiguar los pesos que hay que dar a los vectores v1 y v2 de la figura de la izquierda para expresar el vector w como combinación lineal de ellos. Solución: Trazando por w rectas paralelas a los vectores v1 y v2 como se muestra en la figura de la derecha, observamos que es necesario calcular dos veces y media v1 y restarle a eso la mitad de v2 : w = 52 v1 − 12 v2 .

El problema de expresar un vector como combinación lineal de otros Consideremos este problema: “Dados en Rm (o Cm ) un vector b y n vectores a1 , . . . , an , se desea saber si b es combinación lineal de los a1 , . . . , an .” Este problema es equivalente a plantearse si es posible hallar escalares x1 , . . . , xn tales que x1 a1 + · · · + xn an = b. conjunto generado por a1 , . . . , a n

subespacio vectorial

(2.16)

Este problema nos lleva a considerar el conjunto de todos los vectores que se obtienen al formar combinaciones lineales de a1 , . . . , an , el cual se conoce como el conjunto generado por a1 , . . . , an y se denota Gen{a1 , . . . , an }. Entonces, el problema de si la ecuación (2.16) tiene alguna solución se puede plantear como la cuestión de si b pertenece al conjunto Gen{a1 , . . . , an }. El subespacio vectorial Gen{a1 , . . . , an }. La suma de dos combinaciones lineales de a1 , . . . , an es claramente otra combinación lineal de a1 , . . . , an y lo mismo ocurre al multiplicar una combinación lineal de a1 , . . . , an por un número. En consecuencia, si u y v son dos vectores de Gen{a1 , . . . , an }, su suma es otro vector de Gen{a1 , . . . , an } y el producto de cualquiera de ellos por un número es también otro vector de Gen{a1 , . . . , an }. Esto hace que el conjunto generado por los vectores a1 , . . . , an no sea un subconjunto cualquiera de Rn o de Cn sino uno con una estructura de espacio vectorial, por lo cual se dice que Gen{a1 , . . . , an } es un subespacio vectorial de Rn (o Cn ).

Sistemas de ecuaciones como ecuaciones vectoriales La ecuación (2.16) se conoce como una ecuación vectorial en las incógnitas x1 , . . . , xn . Para resolverla basta reconocer que es equivalente a un sistema de ecuaciones lineales cuya matriz de coeficientes tiene por columnas los vectores a1 , . . . , an , y cuyo vector de términos independientes es el vector b. Recíprocamente: Todo sistema de ecuaciones lineales se puede escribir como una ecuación vectorial en la que una combinación lineal de las columnas de la matriz de coeficientes del sistema, cuyos pesos son las incógnitas, está igualada al vector de los términos independientes. 18

Tema 2. Sistemas de ecuaciones lineales Ejemplo:

2.4. Sistemas de ecuaciones lineales en forma vectorial

Si queremos expresar el vector b como combinación lineal de u, v, w con:         3 1 3 0 b =  −1 , u = 0 , v =  4 , w = 1 2 2 −1 2

necesitamos encontrar los coeficientes x1 , x2 , x3 de la combinación lineal x1 u + x2 v + x3 w = b:         1 3 0 3 x1 0 + x2  4 + x3 1 =  −1 2 −1 2 2 Esto significa que los números x1 , x2 , x3 tienen que verificar el sistema de ecuaciones lineales: x1 + 3x2 = 3 4x2 + x3 = −1 2x1 − x2 + 2x3 = 2 Ejercicio: Plantear un sistema de ecuaciones lineales cuyas soluciones sean las distintas formas de expresar el vector b como combinación lineal de u, v, w con:         4 1 3 0 b = 5 , u = 0 , v =  4 , w = 1 . 3 2 −1 2 Escribir la matriz del sistema. Volviendo al problema de expresar un vector como combinación lineal de otros, tenemos: Un vector b es combinación lineal de los vectores a1 , . . . , an si y sólo si el sistema cuya matriz ampliada tiene por columnas los vectores a1 , . . . , an , b es consistente. Esto nos da una nueva forma de expresar la existencia de solución de un sistema de ecuaciones lineales: Un sistema de ecuaciones lineales es consistente si y sólo si el vector de términos independientes es combinación lineal de las columnas de la matriz de coeficientes. O también: Un sistema de ecuaciones lineales es consistente si y sólo si el vector de términos independientes pertenece al subespacio generado por las columnas de la matriz de coeficientes. Ejemplo: Supongamos que queremos averiguar si el vector b pertenece al subespacio generado por los vectores u, v con:       3 1 3 b =  −1 , u = 0 , v =  4 2 2 −1 Basta escribir la matriz cuyas columnas son u, v y b y averiguar si el sistema de ecuaciones que tiene esa matriz es consistente. Para ello basta realizar la fase 1 (eliminación), lo cual haremos en forma matricial:       1 3 3 1 3 3 1 3 3 F →F + 7 F F3 → F3 −2F1 3 3 4 2 0 4 0 −1  . 4 −1 −−−−−−→ 0 4 −1 −−−−−−→ 2 −1 2 0 −7 −4 0 0 −4 − 47 La última columna contiene un pivote, por tanto el sistema es inconsistente. El vector b no es igual a una combinación lineal de u y v. No pertenece al subespacio generado por u y v. 19

2.5. Sistemas de ecuaciones lineales en forma matricial: Ax = b Tema 2. Sistemas de ecuaciones lineales Otra forma de pensar en el proceso de eliminación Hemos visto dos formas equivalentes de pensar y de realizar el proceso de eliminación mediante operaciones elementales: Inicialmente lo pensamos como operaciones realizadas sobre las ecuaciones del sistema y más tarde vimos que esto era equivalente a realizar las operaciones elementales sobre las filas de la matriz del sistema. Ahora estamos en posición de pensar que las operaciones elementales se realizan sobre los vectores a1 , . . . , an , b. En una primera etapa se construyen operaciones elementales que tranformen a1 en un vector cuyo primer elemento es 1 y los demás cero. etc. Cada vez que aplicamos una operación elemental al sistema o a la matriz del sistema, podemos pensar que la realizamos sobre cada vector columna de la matriz del sistema. La conclusión de esto es la siguiente: Si un vector b es combinación lineal de a1 , . . . , an , el vector b0 obtenido al realizar una o varias operaciones elementales sobre b es también combinación lineal —y con los mismos coeficientes— de los vectores a10 , . . . , a0n obtenidos al realizar dichas operaciones elementales sobre los vectores a1 , . . . , an .

2.5.

Sistemas de ecuaciones lineales en forma matricial: Ax = b

Hemos visto que un sistema de m ecuaciones lineales en n incógnitas es equivalente a una sola “ecuación vectorial” en n incógnitas que consiste en una combinación lineal (cuyos coeficientes son las n incógnitas) igualada a un vector. Ahora bien, una combinación lineal (de las columnas de una matriz) es justamente lo que se obtiene al multiplicar una matriz por un vector. Esto nos motiva a tomar la combinación lineal como definición del producto matriz por vector. Definición del producto de matriz por vector. Sean A una matriz y sean los vectores a1 , . . . , an las columnas de A. Si x es un vector de Rn , el producto de la matriz A por el vector x se define como Definición del la combinación lineal de los vectores a1 , . . . , an con coeficientes las componentes de x, es decir: producto de una   matriz por un x1 vector.  .  Ax = a1 a2 . . . an  ..  = x1 a1 + · · · + xn an . xn Según esta definición del producto de una matriz por un vector, el sistema de ecuaciones lineales cuya matriz ampliada tiene por columnas los vectores a1 , . . . , an , b y cuya representación vectorial es la ecuación x1 a1 + · · · + xn an = b, tiene el mismo conjunto solución que la ecuación matricial Ax = b. Por tanto podemos decir: Para cualquier matriz A, la ecuación Ax = b tiene alguna solución si y sólo si b es una combinación lineal de las columnas de A. Sistemas que son consistentes para cualesquiera términos independientes Nos planteamos ahora la cuestión de qué condiciones tiene que cumplir la matriz de coeficientes de un sistema de ecuaciones lineales para que el sistema sea consistente cualesquiera que sean los términos independientes que pongamos. Planteado en términos de la ecuación matricial asociada al sistema, la cuestión es qué condición debe cumplir una matriz A para que la ecuación matricial Ax = b tenga solución cualquiera que sea el vector b. Evidentemente esto es 20

Tema 2. Sistemas de ecuaciones lineales 2.5. Sistemas de ecuaciones lineales en forma matricial: Ax = b lo mismo que pedir que el conjunto generado por las columnas de A sea todo Rm (o Cm ) donde m es el número de componentes de cada columna de A (o sea, el número de filas de A). Una condición suficiente es que la forma escalonada reducida de A no tenga ningnua fila de ceros, pues si esto se cumple ningún vector de términos independientes puede dar lugar a un sistema inconsistente. Por otro lado esa condición también es necesaria porque si la forma escalonada reducida de A tuviese una fila de ceros sería fácil construir un vector de términos independientes tal que en la forma escalonada reducida tuviese un pivote y el sistema fuese inconsistente. Llegamos, pues, al siguiente:

Teorema Sea A una matriz real y sea m el número de filas de A (lo que es decir que las columnas de A son vectores de Rm ). Entonces, las siguiente afirmaciones son equivalentes: 1. La ecuación Ax = b tiene solución cualquiera que sea que sea el vector de términos independientes b. 2. Todo vector b de Rm es combinación lineal de las columnas de A. 3. El espacio generado por las columnas de A es todo Rm (“las columnas de A generan Rm ”). 4. Una forma escalonada de A no tiene ninguna fila de ceros. 5. A tiene m posiciones pivote. 6. Todas las filas de A tienen una posición pivote. Análogamente, si A es una matriz compleja, son equivalentes los mismos enunciados tras poner Cm donde pone Rm . Corolario Sea A una matriz real de m filas cuyas columnas generan todo Rm . Entonces el número de columnas de A es mayor o igual que m (ya que A tiene m columnas pivote).

Cálculo del producto matriz por vector por la regla “fila por columna” La forma de calcular el producto de una matriz A por un vector x que nos viene sugerida por la definición del mismo como “combinación lineal”, consistiría en reescalar cada columna de la matriz A usando como factor la correspondiente componente del vector x y después sumar todas las columnas reescaladas. El resultado sería un vector que sería el producto Ax. Hay otra forma de obtener el mismo resultado, que se conoce como la “regla fila por columna”. Esta regla ya la hemos usado en la propia definición del producto matriz por vector y consiste exactamente en lo que la definición implica para una matriz que sólo tenga una fila. La regla fila por columna consiste en imaginar a nuestra matriz como formada por filas; multiplicamos cada una de estas filas por el vector dado con lo que cada uno de estos resultados es un número. El resultado final es el vector columna formado por todos estos números.

Propiedades de linealidad del producto matriz por vector Ax De la definición del producto de matriz por vector y de las propiedades de las operaciones con vectores se deduce fácilmente las siguientes propiedades llamadas propiedades de linealidad: 1. A(u + v) = Au + Av. 2. A(cu) = c( Au). 21

2.6. Conjuntos solución de los sistemas de ecuaciones lineales

2.6.

Tema 2. Sistemas de ecuaciones lineales

Conjuntos solución de los sistemas de ecuaciones lineales

Forma vectorial paramétrica de la solución

Forma vectorial paramétrica de la solución.

El uso de vectores nos permite escribir las ecuaciones paramétricas del conjunto solución de un sistema de ecuaciones lineales en una forma especialmente simple y reveladora: La forma vectorial paramétrica, que es la siguiente: x = p + t1 u1 + · · · + t k u k ,

(2.17)

donde se ha supuesto que k es el número de variables libres que tiene el sistema y en la solución aparecen tantos parámetros como variables libres tenía el sistema. Así pues, según la forma vectorial paramétrica, todas las soluciones del sistema se obtienen sumando a un vector fijo, p, todas las combinaciones lineales de ciertos vectores, u1 , . . . , uk , cuyo número es igual al de variables que libres tenía el sistema. Conocidas la ecuaciones paramétricas del conjunto solución, es muy sencillo ponerlas en la forma vectorial (2.17) porque ello no requiere ningún cálculo adicional, solamente es necesario reescribir dichas ecuaciones. Por ejemplo, para las ecuaciones paramétricas x1 = 1 + 11x3 x2 = 2 − x3 x4 = −1 − 6x3 (x3 libre), la forma vectorial es la siguiente:       x1 11 1   x2   2    =   + t  −1  . o sea: x = p + tu  x3   0  1 −6 −1 x4

   11 1  −1   2    p=  0 , u =  1  . −6 −1 

con:

¿Cómo se consigue llegar a esto? Para conseguirlo hacemos lo siguiente: 1. Primeramente, para cada una de las variables libres xi , añadimos la identidad xi = xi y escribimos las incógnitas en orden: x1 = 1 + 11x3 x2 = 2 − x3 x3 = x3 x4 = −1 − 6x3 . 2. Después escribimos estas ecuaciones en forma vectorial, para lo cual escribiremos la columna de coeficientes de cada variable libre multiplicada por la misma y una columna de términos independientes si los hubiera:       x1 1 11    x2   2   =   + x3  −1  .  x3   0  1 x4 −1 −6 3. Finalmente podemos sustituir los nombres de las variables libres en los miembros de la derecha por nuestros nombres favoritos de parámetros, y así es como hemos llegado a lo escrito más arriba, donde se ha usado como parámetro la letra t en lugar de x3 . 22

Tema 2. Sistemas de ecuaciones lineales

2.6. Conjuntos solución de los sistemas de ecuaciones lineales

Ejercicio resuelto: Suponiendo que las ecuaciones paramétricas del conjunto solución de cierto sistema son las siguientes: x1 = −5x2 , x3 = 3 − x2 + 2x4 (x2 y x4 libres), escribir la solución general del sistema en forma vectorial paramétrica. Solución:

Siguiendo los pasos indicados antes,

(1) Para cada una de las variables libres xi (que aparecen en los miembros de la derecha), añadimos la identidad xi = xi : x1 = −5x2 , x2 = x2 x3 = 3 − x2 + 2x4 , x4 = x4 . (2) Después escribimos estas ecuaciones en forma vectorial, para lo cual escribimos la columna de coeficientes de cada variable libre multiplicada por la misma y una columna de términos independientes:         0 x1 −5 0 0  x2  0  1   =   + x2   + x4   . 2  x3  3  −1 1 0 0 x4 (3) Sustituimos los nombres de las variables libres en los miembros de la derecha por nuestros nombres favoritos de parámetros:               0 −5 0 0 x1 −5 0 0  1 0 0  x2  0  1   =   + s   + t   , o: x = p + s u + t v con p =   , u =   , v =   .  x3  3 2  −1 3 2  −1 1 0 0 1 0 0 x4

Caso homogéneo Un sistema de ecuaciones lineales homogéneo es automáticamente consistente ya que tiene una solución obvia que consiste en todas las incógnitas iguales a cero. Esta solución se llama la solución trivial. La única cuestión, pues, para estos sistemas es la cuestión de unicidad, es decir, si el sistema es determinado o no. Esta cuestión es equivalente a la de si el sistema tiene o no alguna variable libre: si tiene, hay infinitas soluciones, si no, la única solución es la trivial. Para un sistema de ecuaciones lineales homogéneo, la columna de la derecha de la matriz del sistema tiene todos los elementos iguales a cero y esto sigue siendo así en cualquier matriz obtenida de ella mediante operaciones elementales de filas; por tanto, también en la forma escalonada reducida de la matriz del sistema todos los elementos de la columna de la derecha son cero. Esto implica que al escribir la solución en la forma vectorial paramétrica (2.17) el vector p es igual a cero. Por tanto, si un sistema homogéneo tiene k variables libres, su solución en forma vectorial tiene la forma: x = t1 u1 + · · · + t k u k .

(2.18)

Por ejemplo, supongamos que un sistema homogéneo tenga dos variables libres. Entonces al escribir su solución en forma vectorial paramétrica encontramos dos vectores u, v tales que la solución es: x = su+tv 23

2.6. Conjuntos solución de los sistemas de ecuaciones lineales

Tema 2. Sistemas de ecuaciones lineales

Lo cual nos dice que el conjunto solución es el plano generado por los vectores u y v, es decir, el conjunto de todos los vectores que son combinación lineal de u y v. Propiedades de la forma vectorial paramétrica de la solución de un sistema homogéneo Los vectores u1 , . . . , uk que se obtienen al expresar la solución de un sistema homogéneo en la forma vectorial paramétrica (2.18) tienen dos propiedades muy importantes que se pueden expresar como propiedades de la matriz U = [u1 · · · uk ] cuyas columnas son los vectores u1 , . . . , uk . La primera es evidente: El conjunto solución del sistema homogéneo es el conjunto generado por las columnas de U: Conjunto solución = Gen{u1 , . . . , uk }

La segunda propiedad es menos evidente pero es muy importante y se deduce del hecho de que U tiene, para cada variable libre x j (y, por tanto, para cada columna) una fila con solamente un elemento distinto de cero (e igual a 1), el cual está en la columna j. Mediante una reodenación de las filas de U se llega a una forma escalonada cuyas últimas k filas forman una matriz identidad k × k. En consecuencia: Todas las columnas de U son columnas pivote (U tiene exactamente k pivotes).

Caso no-homogéneo En el caso de un sistema no homogéneo de ecuaciones lineales, Ax = b, supongamos que p es una solución particular, es decir, que el vector p cumple Ap = b. Entonces para todo vector vh que sea solución del sistema homogéneo asociado (es decir, que Avh = 0) se cumplirá que p + vh es una nueva solución del sistema completo: A(p + vh ) = Ap + Avh = b + 0 = b Además, toda solución del sistema Ax = b es igual a p sumado a una solución del sistema homogéno asociado. Para convencernos de ello basta ver que x − p es una solución del sistema homogéno asociado: A(x − p) = Ax − Ap = b − b = 0. Resumiendo: La solución general de un sistema no homogéneo de ecuaciones lineales se obtiene sumando una solución particular del mismo a la solución general del sistema homogéneo asociado. Al escribir en forma vectorial paramétrica la solución de un sistema no homogéneo de ecuaciones lineales, x = p + t1 u1 + · · · + t k u k , el vector p es siempre una solución particular del sistema (es la solución para t1 = t2 = · · · = tk = 0. Esto implica que la solución general del sistema homogéneo asociado es: x = t1 u1 + · · · + t k u k , En consecuencia, El conjunto solución de un sistema no homogéneo de ecuaciones lineales es el resultado de trasladar, mediante una solución particular del mismo, el conjunto solución del sistema homogéneo asociado.

24