Technische Universität München Florian Ettlinger Vorlesung Dienstag

Ferienkurs Lineare Algebra WS 2011/12

2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der Definition der Rechenoperationen mit Matrizen wollen wir uns jeweils zunächst plausibel machen, wieso diese Definitionen sinnvoll und nicht willkürlich gewählt sind. Zur Vereinfachung beschränken wir uns zunächst auf dreidimensionale Vektorräume und verwenden die folgenden Bezeichnungen:  

xi   ~vi =  yi  , zi

vi ∈ K 3

Wobei K für einen Körper steht. Nun betrachten wir die Definition des Vektors als Linearkombination von Basisvektoren: Definition 2.1.1.

 

x   ~v = ˆ ex · x + ˆ ey · y + ˆ ez · z =: y  z Ein „Vektor“ ist ein mathematisches Objekt das man daraus erhält, dass Basisvektoren auf eine bestimmte Weise gestreckt werden. Durch die Einführung einer neuen Schreibweise als Spaltenvektor erspart man es sich, die Basisvektoren ständig mitschreiben zu müssen. Wenn axiomatisch verwendet wird, dass (

ˆ ei · ˆ ej =

1 i=j 0 i= 6 j

, dann wird auch der Sinn der Definition des Skalarprodukts zwischen zwei Vektoren klar: (ˆ ex x1 + ˆ ey y1 )(ˆ ex x2 + ˆ ey y2 ) = x1 x2ˆ exˆ ex + x1 y2ˆ exˆ ey + y1 x2ˆ eyˆ ex + y1 y2ˆ eyˆ ey = x1 x2 + y1 y2 Anstatt der kanonischen Basis verwenden wir nun die Basisvektoren ~v1 , ~v2 , ~v3 . Eine Linearkombination aus diesen Basisvektoren lässt sich in gewisser Weise als Skalarprodukt auffassen:     ~v1 λ1     ~v1 λ1 + ~v2 λ2 + ~v3 λ3 = ~v2  · λ2  ~v3 λ3

1

Da die Schreibweise



 x1  y1       z1   ! ~v1   ~v2  =  x2   ..   .  ~v3  !  x3    .. .

einigermassen unpraktisch ist, führen wir wieder eine neue Schreibweise ein: 





 

 







x1 x2 x3 x3 x2 x1 ~v1           v2  = (~v1 , ~v2 , ~v3 ) =  y1  ,  y2  ,  y3  =:  y1 y2 y3  ~ z1 z2 z3 z3 z2 z1 ~v3 Dieses wollen wir im Folgenden nun Matrix nennen. Definition 2.1.2. Eine Matrix A ∈ K m×n ist eine rechteckige Anordnung von Elementen aij ∈ K mit m Zeilen und n Spalten mit der auf eine bestimmte Art und Weise gerechnet werden kann.   a11 a12 . . .   a21 a22 . . .   A = (aij )0≤i≤m,0≤j≤n =  .. ..  ..  . .  .  amn

Wir bezeichnen nun die Matrix, die aus den zuvor verwendeten Basisvektoren ~v1 , ~v2 , v~3 gebildet wird als V . Anhand von 

 





 



x1 x2 x3 λ1 ~v1 λ1         V · ~λ =  y1 y2 y3  · λ2  = ~v2  · λ2  = ~v1 λ1 + ~v2 λ2 + ~v3 λ3 z 1 z2 z3 λ3 ~v3 λ3 wird klar was eine Matrix macht: Multipliziert man eine Matrix mit einem Vektor, so wird dieser Vektor auf eine bestimmte Weise in einen neuen Vektor transformiert.

2.1.2 Addition von Matrizen Bei der Addition von Matrizen werden alle Einträge der Matrix, die an der gleichen Position stehen, miteinander addiert. Dies kann man sich daran klar machen, dass die Addition von Matrizen letztendlich auf die Addition von Spaltenvektoren zurückgeführt werden kann. Definition 2.1.3. Sei A, B ∈ K m×n , A = (aij ), B = (bij ). A + B = (aij ) + (bij ) = ((a + b)ij ) Satz 2.1.4. Die Matrizenaddition ist assoziativ und kommutativ. Beweis. Die Addition der einzelnen Komponenten (aij ) + (bij ) ist assoziativ und kommutativ.

2

2.1.3 Multiplikation von Matrizen Schwieriger als die Addition ist dagegen die Multiplikation von Matrizen. Zunächst führen wir die skalare Multiplikation ein. Definition 2.1.5. Sei A ∈ K m×n , α ∈ K. A · α = (aij ) · α = ((a · α)ij ) Den Sinn dieser Definition macht man sich daran klar, dass die Skalarmultiplikation von Matrizen auf die Skalarmultiplikation von Vektoren zurückgeführt werden kann. Nun wollen wir im nächsten Schritt zwei Matrizen miteinander multiplizieren. Sei V = (~v1 , ~v2 ) und W = (w ~ 1, w ~ 2 ) mit vi = (xi , yi ) und wi = (ai , bi ). V ·W = ? Um dieses herzuleiten verwenden wir wieder die Multiplikation eines Vektors ~λ mit einer Matrix. V · W · ~λ Dabei wird anscheinend zuerst ~λ mit W in einen neuen Vektor transformiert und dieser neue Vektor anschliessend mit V in nocheinmal einen neuen Vektor transformiert. Also muss gelten: ~ (V · W ) · ~λ = V · (W · ~λ) Nun schlüsseln wir dieses genauer auf: 





~v1 ~v2 ·

=



w ~1 w ~2



λ1 · λ2

!!



~v1 ~v2 · (w ~ 1 λ1 + w ~ 2 λ2 )

=

= ~v1 (w ~ 1 λ1 + w ~ 2 λ2 )1 + ~v2 (w ~ 1 λ1 + w ~ 2 λ2 )2 Dabei steht die Schreibweise (w ~ 1 λ1 + w ~ 2 λ2 )i für die i-te Komponente des Vektors (w ~ 1 λ1 + w ~ 2 λ2 ). = ~v1 (a1 λ1 + a2 λ2 ) + ~v2 (b1 λ1 + b2 λ2 ) = =

(~v1 a1 + ~v2 b1 )λ1 + (~v1 a2 + ~v2 b2 )λ2  (~v1 a1 + ~v2 b1 ) (~v1 a2 + ~v2 b2 ) · ~λ



Also gilt: 

 





~1 w ~ 2 = (~v1 a1 + ~v2 b1 ) (~v1 a2 + ~v2 b2 ) V · W = ~v1 ~v2 · w !

x1 x2 a a · 1 2 y1 y2 b1 b2

!

=

x1 a1 + x2 b1 x1 a2 + x2 b2 y1 a1 + y2 b1 y1 a2 + y2 b2



!

Bei der Multiplikation zweier Matrizen A und B berechnet sich das Element in der i-ten Zeile und der j-ten Spalte aus dem Skalarprodukt der i-ten Zeile von A mit der j-ten Spalte von B.

3

Definition 2.1.6. Sei A ∈ K m×n , B ∈ K n×p , A = (aij ), B = (bij ). Dann gilt für C = (cij ) = A · B: cij = ai1 b1j + · · · + ain bnj Hierzu geben wir ein Beispiel an: 



6 −1 1 2 3   · 3 2  = 4 5 6 0 −3 !

!

1 · 6 + 2 · 3 + 3 · 0 1 · (−1) + 2 · 2 + 3 · (−3) 4 · 6 + 5 · 3 + 6 · 0 4 · (−1) + 5 · 2 + 6 · (−3)

!

=

12 −6 39 −12

Satz 2.1.7. Zwei Matrizen A und B können genau dann miteinander multipliziert werden, wenn die Spaltenanzahl von A mit der Zeilenanzahl von B übereinstimmt. Beweis. Wenn dieses nicht erfüllt ist, so ist das Skalarprodukt des Zeilen- mit dem Spaltenvektor nicht definiert. Satz 2.1.8. Es gelten die folgenden Rechenregeln: 1) (A1 + A2 ) · B = A1 · B + A2 · B 2) A · (B1 + B2 ) = A · B1 + A · B2 3) α · (A · B) = (α · A) · B = A · (α · B) 4) A · (B · C) = (A · B) · C Beweis. Nachrechnen. Satz 2.1.9. Die Multiplikation von Matrizen ist im Allgemeinen nicht kommutativ. Beweis. Damit überhaupt sowohl A · B als auch B · A definiert sind, müssen A und B quadratisch sein. Behauptung: Die Multiplikation von quadratischen Matrizen ist kommutativ. Gegenbeweis durch Gegenbeispiel: !

1 1 0 0 · 0 0 1 1 Aber:

!

0 0 1 1 · 1 1 0 0

!

!

=

1 1 0 0

!

=

0 0 1 1

!

Damit ist gezeigt, dass die Matrizenmultiplikation im Allgemeinen nicht kommutativ ist.

2.1.4 Die transponierte Matrix Definition 2.1.10. Sei A ∈ K m×n , A = (aij ). Wir bezeichnen At ∈ K n×m , At = (aji ) als die zu A transponierte Matrix. Hierzu ein Beispiel: 1 2 3 4

!t

=

4

1 3 2 4

!

Bei der Transponierung werden also Zeilen mit Spalten vertauscht. Satz 2.1.11. Dabei gelten die folgenden Rechenregeln: 1) (A + B)t = At + B t 2) (α · A)t = α · At 3) At

t

=A

4) (A · B)t = B t · At Beweis. Nachrechnen Definition 2.1.12. Falls A = At so bezeichnen wir A als symmetrisch. 2.1.5 Einige besondere Matrizen Manche Matrizen, die von einer besonderen Gestalt sind, werden mit einem eigenen Namen bezeichnet. Definition 2.1.13. Eine Matrix En ∈ K n×n der Form 

1

0 ..

En =  

  

.

0

1

heisst Einheitsmatrix. Definition 2.1.14. Eine Matrix der Form 0 ...  .. . . . . 

  

heisst Nullmatrix. Definition 2.1.15. Eine Matrix D ∈ K n×n , λi ∈ K der Form λ1

0



..

D= 

 

. λn

0 heisst Diagonalmatrix.

5



Definition 2.1.16. Eine Matrix A ∈ K n×n , ∗ ∈ K der Form 

∗ ... 0 ∗ 

  A = 0 . . .

∗ ..

0

. ∗

0

        

heisst Dreiecksmatrix. Definition 2.1.17. Eine Matrix A ∈ K n×n , ∗ ∈ K der Form 





 

      ∗

0 ∗ ... 0 0 ∗  . .. A= .  ..

..

. 0

0

0

heisst echte Dreiecksmatrix. 2.1.6 Die inverse Matrix Definition 2.1.18. Sei A ∈ K n×n . Eine Matrix A−1 ∈ K n×n bezeichnen wir als die zu A inverse Matrix falls A · A−1 = En . Merke auf: Nicht jede quadratische Matrix ist invertierbar! Ein erstes Kriterium für die Invertierbarkeit werden wir im Zusammenhang mit den linearen Gleichungssystemen finden. Zwei weitere äquivalente Bedingungen finden sich im Zusammenhang mit den Kapiteln über linearen Abbildungen und Determinanten1 . Definition 2.1.19. Wir bezeichnen mit GL(n, K) = {A ∈ K n×n , ∃A−1 ∈ K n×n : A · A−1 = En } die Menge der invertierbaren Matrizen. Besonders interessant ist nun, wie man zu einer vorgegebenen invertierbaren Matrix die inverse Matrix berechnet. Hierzu wird das Gauss-Jordan-Verfahren benutzt: Sei A die zu invertierende Matrix. Man schreibt nun zunächst in einer so genannten Blockmatrix nebeneinander A und En auf. Nun werden so genannte elementare Zeilenumformungen verwendet um A in die Einheitsmatrix umzuwandeln. Wenn dieses geschehen ist, dann steht rechts die inverse Matrix: 

A En



···



En A−1



Hierfür dürfen die folgenden Zeilenumformungen verwendet werden: • Zwei Zeilen werden miteinander vertauscht. 1

Eine schöne Zusammenfassung der Bedingungen zur Invertierbarkeit findet sich auch unter http://en. wikipedia.org/wiki/Invertible_matrix

6

• Eine Zeile wird mit einem Skalar (6= 0) multipliziert. • Zu einer Zeile wird ein vielfaches einer anderen Zeile addiert. Dieses Verfahren demonstrieren wir nun an einem Beispiel. Ein geschicktes Verfahren ist es, zunächst die Matrix in Dreiecksform zu bringen und anschliessend sie in den nächsten Schritten zur Einheitsmatrix umzuformen. 



1 2 0 1 0 0    2 3 0 0 1 0  3 4 1 0 0 1 

(II) → (II) − 2(I)



1 2 0 1 0 0    0 −1 0 −2 1 0  3 4 1 0 0 1 

(III) → (III) − 3(I)



1 2 0 1 0 0    0 −1 0 −2 1 0  0 −2 1 −3 0 1 

(II) → −1(II)



1 2 0 1 0 0    0 1 0 2 −1 0  0 −2 1 −3 0 1 

(1) → (I) − 2(II)



1 0 0 −3 2 0    0 1 0 2 −1 0  0 −2 1 −3 0 1 

(III) → (III) + 2(II)



1 0 0 −3 2 0   0 1 0 2 −1 0   0 0 1 1 −2 1 Hierdurch haben wir zu





1 2 0   A = 2 3 0 3 4 1 die inverse Matrix



A−1



−3 2 0   =  2 −1 0 1 −2 1

gefunden. Für 2 × 2-Matrizen lässt sich eine allgemeine Formel für die inverse Matrix aufstellen.

7

Satz 2.1.20. Sei A=

a b c d

!

, dann gilt für die inverse Matrix: !

A

−1

1 d −b = ad − cb −c a

Beweis. Nachrechnen. Besonders einfach lässt sich auch das Inverse einer so genannten orthogonalen Matrix bestimmen. Definition 2.1.21. Sei A ∈ K n×n mit den Spaltenvektoren ~vi ∈ K n und den Zeilenvektoren ~ai ∈ K n . Wenn alle ~vi und ~ai paarweise orthonormal sind, d.h. wenn (

~vi · ~vj ~ai · ~aj

1 0 ( 1 = δij = 0 = δij =

i=j i 6= j i=j i 6= j

, dann bezeichnen wir A als orthogonale Matrix. Satz 2.1.22. Sei A ∈ K n×n eine orthogonale Matrix. Dann ist A ∈ GL(n, K) und es gilt: A−1 = At Satz 2.1.23. Für inverse Matrizen gelten die folgenden Rechenregeln: 1) AA−1 = A−1 A = En 2) (A−1 )−1 = A 3) (A · B)−1 = B −1 · A−1 Beweis. 1) und 2) sind klar. Durch Rechnung zeigen wir 3) ?

(AB)(AB)−1 = (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AEn A−1 = AA−1 = En Mit Rechenregel 3) wird also die Definition der inversen Matrix erfüllt.

2.2 Lineare Gleichungssysteme 2.2.1 Einführung Eine lineare Gleichung ist eine Gleichung, in der ausschliesslich Linearkombinationen der Unbekannten vorkommen. Beispielsweise ist die Gleichung 5x = 10

8

linear. Man rechnet leicht nach, dass sie durch x = 2 gelöst wird. Die Lösung muss jedoch keineswegs eindeutig sein. Wir betrachten beispielsweise ax + by = c und lösen nach y auf:

a c y =− x+ b b Dabei stellen wir fest, dass es unendlich viele Lösungen gibt, und dass hiermit offenbar eine Gerade beschrieben wird (aus der Schule ist bekannt, dass eine Gerade von der Form y = mx + t ist).

Die Gleichung ax+by = c kann als Linearkombination der Unbekannten aufgefasst werden, genauso jedoch auch als Linearkombination der Koeffizienten. Die Koeffizienten wollen wir nun zu Vektoren verallgemeinern: ~a1 x1 + . . . + ~an xn = ~b Gesucht wird also nach der Menge der Linearkombinationen von ~a1 , . . . , ~an die ~b ergeben. Die obige Vektorgleichung kann man auch Komponentenweise ausschreiben, so wird deutlich, dass es sich um System von mehreren Gleichungen handelt: a11 x1 + . . . + a1n xn .. .

= b1

am1 x1 + . . . + amn xn = bm Anhand der Ausführungen im Kapitel über Matrizenrechnungen wird klar, dass man die Koeffizienten auch einfacher in einer Matrix A ∈ K m×n , A = (aij ) zusammenfassen kann. Dann wird das lineare Gleichungssystem zu: 



a11 a12 . . .  a21 a22 . . .  . .. ..  . . .  .

amn

    b1 x1    .   .  · . = .  . .  

xn

bm

Oder noch einfacher: A~x = ~b Definition 2.2.1. Sei A ∈ K m×n und ~x, ~b ∈ K m . Es wird A~x = ~b als lineares Gleichungssystem (LGS) bezeichnet. A ist die Koeffizientenmatrix des LGS. Die Menge Lös(A, ~b) = {~x ∈ K m , A~x = ~b} heisst Lösungsmenge des LGS. Definition 2.2.2. Die Matrix ( A ~b ) heisst erweiterte Koeffizientenmatrix.

2.2.2 Lösung durch Zeilenumformungen Im Allgemeinen ist die Lösung eines linearen Gleichungssystems nicht sofort an der Koeffizientenmatrix ablesbar. Wir wollen nun anhand von einigen Beispielen nach einer Gestalt der Koeffizientenmatrix suchen, für die die Lösung möglichst einfach bestimmt werden kann.

9

Zunächst betrachten wir eine Einheitsmatrix:  





x1 = 5 x2 = 2 x3 = 7

1 0 0 5 5     A = En , ~b = 2 ⇔  0 1 0 2  ⇔ 7 0 0 1 7

⇒ Lös(A, ~b) = {(5, 2, 7)}

Auch wenn wir überhalb der Hauptdiagonale Zahlen ersetzen bleibt die Lösung eindeutig und leicht feststellbar: 



x1 + x3 = 2 x2 + x3 = 4 x3 = 2

1 0 1 2    0 1 1 4  ⇔ 0 0 1 2



x1 + 2 = 2 x2 + 2 = 4 x3 = 2



x1 = 0 x2 = 2 x3 = 2

Für die Ablesbarkeit der Lösung scheint es besonders günstig zu sein, wenn die Matrix Dreiecksform hat, da dann sofort die Lösung für eine der Unbekannten ersichtlich ist. Diese Lösung kann dann Schrittweise in die weiter oben liegenden Zeilen eingesetzt werden. Nun betrachten wir einen Fall für den die Lösung nicht eindeutig ist: 



1 1 0 2    0 0 1 5  ⇔ 0 0 0 0

1 · x1 + 1 · x2 + 0 · x3 = 2 0 · x1 + 0 · x2 + 1 · x3 = 5 0 · x1 + 0 · x2 + 0 · x3 = 0

Man erhält zunächst aus der zweiten Gleichung x3 = 5. Löst man die erste Gleichung auf erhält man x1 = 2 − x2 . Da keine weitere verwertbare Bedingung vorhanden ist, muss also entweder x − 1 oder x2 frei gewählt werden können. Wir setzen x2 = λ, λ ∈ R und erhalten damit die Lösung: x1 = 2 − λ x2 = λ x3 = 5 Man kann die Lösung auch mit Vektoren aufschreiben:  





2 −1     ~x = 0 +  1  · λ 5 0 Ein LGS scheint sich dann besonders schön lösen zu lassen, wenn im linken unteren Bereich möglichst viele Nullen stehen. Diese Beobachtung kann man formal sauber durch die Definition der so genannten Zeilenstufenform aufschreiben. Definition 2.2.3. Eine Matrix A ∈ K m×n ist in Zeilenstufenform, wenn sie von der Gestalt   . . . a1j1 . . .  .   ..  . . . 0 a2j2 . . .     .   . A= . 0    

0

0

.. .

arjr

. . .  

ist. Dabei wird r als Rang bezeichnet. Die ji heissen Pivots. Für die Pivots gilt die Stufenbedingung j1 < · · · < jr .

10

Hierzu einige Beispiele für solche Matrizen: 















1 6 5 4 3 5 1 0 0       0 1 0 0 0 0 0 0 8  0 0 0 0 0 0 0 0 1 9 8 5 0 3 5

!



1 2 3



6 4   0 2 0 0

Leider befindet sich nicht jedes gegebene LGS in Zeilenstufenform. Wir müssen es daher zunächst umformen. Hierzu dürfen wir die folgenden Zeilenumformungen verwenden: • Zwei Zeilen werden miteinander vertauscht. • Eine Zeile wird mit einem Skalar (6= 0) multipliziert. • Zu einer Zeile wird ein vielfaches einer anderen Zeile addiert. Solche Zeilenumformungen sind erlaubt, da sie nichts an der in den Gleichungen steckenden Information (der Lösungsmenge) ändern, sondern lediglich die Representation ändern, also die Gleichungen in eine andere Gestalt bringen. Man beachte dabei, dass für eine Umformung A A˜ gilt: A 6= A˜ aber :

˜ ~b) Lös(A, ~b) = Lös(A,

Satz 2.2.4. Jede Matrix lässt sich durch Zeilenumformungen in Zeilenstufenform bringen. Bei der Lösung eines LGS geht man nun folgenderweise vor: 1) Wir bringen das LGS auf Zeilenstufenform. 2) Wir lesen die Lösung der letzten Gleichung ab. 3) Diese Lösung setzen wir Schrittweise in die darüberliegenden Gleichungen ein.

11

Dieses Verfahren wollen wir nun an einem Beispiel demonstrieren: 



2 2 0 12    1 1 1 8  2 2 4 20

(I) → 0.5(I)





1 1 0 6    1 1 1 8  2 2 4 20 

(III) → 0.5(III)



1 1 0 6    1 1 1 8  1 1 2 10

(II) → (II) − (I)





1 1 0 6    0 0 1 2  1 1 2 10 

(II) → (II) − (I)



1 1 0 6    0 0 1 2  1 1 2 10 

(III) → (III) − (I)



1 1 0 6    0 0 1 2  0 0 2 4 

(III) → (III) − 2(II)



1 1 0 6    0 0 1 2  0 0 0 0 Nun haben wir zwei Gleichungen erhalten: x1 = 6 − x2 x3 = 2 Für x2 ist keine weitere Bedingung vorhanden, also ist x2 ein freier Parameter. Hieraus erhalten wir die Lösung: x1 = 6 − λ x2 = λ x3 = 2

 





6 −1     ⇔ ~x = 0 +  1  · λ , λ ∈ R 2 0

2.2.3 Struktur der Lösungsmenge Nun betrachten wir unter welchen Umständen ein LGS lösbar ist, und ob die Lösung eindeutig ist bzw. wie viele freie Parameter sie hat. Hierzu ist auch die Unterscheidung zwischen so genannten homogenen und inhomogenen LGS wichtig. Definition 2.2.5. Ein LGS der Form A~x = ~0 heisst homogen. Ein LGS der Form A~x = ~b mit ~b 6= ~0 heisst inhomogen.

12

Für ein homogenes LGS lässt sich zumindest eine Lösung sofort angeben. Satz 2.2.6. Ein homogenes LGS ist immer lösbar, es hat immer mindestens die triviale Lösung ~x = ~0. Beweis. Einsetzen und nachrechnen. Für inhomogene LGS lässt sich sofort sagen, dass diese nicht immer lösbar sind. Satz 2.2.7. Ein homogenes LGS ist genau dann nicht lösbar wenn der Rang der erweiterten Matrix ( A ~b ) grösser ist als der Rang von A. Beweis. Sei r := rangA. Wenn r < rang(A, ~b) dann ist br+1 6= 0. Es steht in der (r + 1)-ten Zeile eine Gleichung der Form 0 · xn = br+1 . Diese ist für br+1 6= 0 unlösbar. Nun wollen wir die Anzahl der freien Parameter für die Lösung eines LGS feststellen. Satz 2.2.8. Sei A ∈ K m×n , also n die Zahl der Spalten der Koeffizientenmatrix. Sei r = rangA = rang(A, ~b) (also das LGS lösbar). Dann ist n−r die Zahl der freien Parameter der Lösung. Beweis. Nachdem A in Zeilenstufenform gebracht wurde sind r Pivots vorhanden. Folglich gibt es n − r Spalten ohne Pivots. In den einführenden Beispielen haben wir gesehen, dass die Unbekannten zu diesen Spalten frei gewählt werden dürfen. Aus diesem folgt nun unmittelbar auch eine Bedingung für die Eindeutigkeit der Lösung eines LGS. Satz 2.2.9. Ein LGS ist genau dann eindeutig lösbar, wenn n = r und r = rangA = rang(A, ~b) . Beweis. Wenn n = r hat die Lösung n − r = 0 freie Parameter, also ist die Lösung eindeutig. Im Folgenden betrachten wir nun ein LGS mit m Gleichungen und n Unbekannten (die Koeffizientenmatrix hat also m Zeilen und n Spalten) und diskutieren die Lösbarkeit für verschiedene mögliche Fälle. Wir setzen jeweils voraus, dass wir das LGS in Zeilenstufenform gebracht haben. • m < n, LGS homogen Für ein homogenes LGS ist Lös(A, ~b) 6= ∅. Es steht jedes der r Pivot-Elemente in einer eigenen Zeile. Also gilt r ≤ m < n und folglich n − r ≥ 1. Die Lösung ist also nicht eindeutig, es gibt mindestens so viele Lösungen, wie der zugrunde gelegte Körper Elemente hat. • m < n, LGS inhomogen Ein solches LGS muss nicht lösbar sein wie man an folgendem Beispiel sieht: (A, ~b) =

1 1 0 1 0 0 0 1

!

13

(m = 2, n = 3, r = 1)

Falls ein inhomogenes LGS mit m < n aber lösbar ist, so hat es genauso wie im homogenen Fall mindestens so viele Lösungen, wie K Elemente hat. • m > n, LGS homogen Auch hier gilt Lös(A, ~b) 6= ∅. Über die Anzahl der freien Parameter kann keine Aussage getroffen werden, da man hier über r nur weiss, dass 0 ≤ r ≤ n. Der Spezialfall r = n ist prinzipiell möglich, dann erhält man eine eindeutige Lösung (und zwar die eindeutige Lösung Lös(A, ~b) = {~0}). • m > n, LGS inhomogen Das LGS muss hier nicht lösbar sein. Wenn es lösbar ist, kann auch wieder keine allgemeine Aussage über die Eindeutigkeit getroffen werden, da auch hier 0 ≤ r ≤ n gilt. • m=n=r Aus r = m folgt Lös(A, ~b) 6= ∅ da @i > r : bi 6= 0. Aus r = n folgt n − r = 0, also die Eindeutigkeit der Lösung. Ein LGS mit m = n = r ist also immer eindeutig lösbar.

2.2.4 LGS und Invertierbarkeit Anhand der Betrachtungen zu LGS wollen wir nun ein erstes Kriterium für die Invertierbarkeit von Matrizen aufstellen. Sei im Folgenden nun A immer quadratisch (sonst ist von vornherein keine Invertierbarkeit gegeben). Wir betrachten das LGS A~x = ~b und gehen davon aus, dass A invertierbar ist. Nun multiplizieren wir A−1 von links heran: A−1 A~x = A−1~b



~x = A−1~b

Wir haben quasi nach ~x aufgelöst. Die Rechnung ~x = A−1~b liefert genau einen Vektor als Ergebnis, die Lösung des LGS ist also eindeutig. Die Existenz der inversen Matrix ist also äquivalent dazu, dass das zugehörige LGS eindeutig lösbar ist. Um dieses zu überprüfen genügt es, den Rang der Matrix zu bestimmen, denn das zu einer quadratischen Matrix gehörende LGS ist genau dann eindeutig lösbar, wenn r = m = n.

14