Kapitel 2

Lineare Gleichungssysteme 2.1

Lineare Gleichungssysteme und Matrizen

Lernziele 2. • Lineare Gleichungssysteme definieren Matrizen, • Matrizen definieren lineare Abbildungen, • L¨ osen von linearen Gleichungssystemen = Faserbestimmung der zugeh¨ origen linearen Abbildung. Zun¨ achst wollen wir kl¨aren, was wir unter einem Gleichungssystem verstehen und was es bedeutet, ein Gleichungssystem zu l¨osen. Bemerkung 2.1. Seien M, N Mengen und f : M → N eine Abbildung. F¨ ur jedes n ∈ N ist das zu f und n geh¨orige Gleichungssystem gegeben durch f (m) = n, und seine L¨ osungsmenge ist gerade die Faser f −1 ({n}) = {m ∈ M | f (m) = n}. Das L¨ osen eines Gleichungssystems ist Bestimmung einer Faser einer Abbildung f . Das Gleichungssystem f (m) = n f¨ ur die Abbildung f : M → N ist • Immer l¨osbar, d.h. f¨ ur jede rechte Seite n ∈ N , genau dann wenn f surjektiv ist. • Immer eindeutig l¨osbar genau dann wenn f bijektiv ist. • Ist f injektiv so hat f¨ ur jedes n ∈ N das Gleichungssystem f (m) = n h¨ ochstens eine L¨ osung. 19

20

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

Beispiel. M = N = R2 = {(x, y) | x, y ∈ R}. f : M → N, (x, y) �→ (x2 + y 2 , x + 3y). Gesucht ist f −1 ({(1, 1)}). Wir suchen also die Paare (x, y) ∈ R2 mit x2 + y 2 = 1 und x + 3y = 1. Man rechnet leicht nach, dass dieses Gleichungssystem genau 2 L¨ osungen hat, die man als Schnittpunkte von einem Kreis und einer Gerade finden kann. Beispiel 2.2. Wir betrachten folgendes lineares Gleichungssystem f¨ ur (a, b, c) ∈ R3 : (♠)

− 2b + c = −1 −2a − 2b + c = −2

Zu diesem linearen Gleichungssystem geh¨ ort eine reelle 2 × 3-Matrix, also ein rechteckiges Zahlenschema: � � 0 −2 1 −2 −2 1 Eine andere Betrachtungsweise ist es, dem Gleichungssystem (oder der Matrix) eine Abbildung zuzuordnen: α : R3 → R2 : (a, b, c) �→ (−2b + c, −2a − 2b + c) Dann bilden die L¨osungen von (♠) gerade die Faser α−1 ({(−1, −2)}) von α u ¨ber (−1, −2).

Definition 2.3. Ein lineares Gleichungssystem u orper K mit m Gleichungen ¨ber dem K¨ und n Unbestimmten x1 , . . . , xn ist gegeben durch

(∗)

a11 x1 + a12 x2 + . . . + a1n xn a21 x1 + a22 x2 + . . . + a2n xn .. .

= =

b1 b2

am1 x1 + am2 x2 + . . . + amn xn = bm 

 b1   wobei A = (ai,j ) ∈ K m×n eine (fest vorgegebene) Matrix ist und b =  ...  ∈ K m×1 bm eine (fest vorgegebene) Spalte. A heißt die Matrix von (∗), (A|b) ∈ K m×(n+1) die erweiterte Matrix von (∗). Dabei ist (A|b) definiert als (A, b) : m × n + 1 → K : (i, j) �→ 

� aij bi

j≤n . j =n+1

 c1   Eine L¨ osung von (∗) ist eine Spalte v :=  ...  ∈ K n×1 , derart, daß durch Einsetzen cn ur xi in (∗) f¨ ur i = 1, . . . , n alle m Gleichungen von (∗) erf¨ ullt sind. Das Gleivon ci f¨ chungssystem heißt homogen, falls b1 = · · · = bm = 0 und inhomogen, falls mindestens ein bi �= 0.

2.1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

21

Beispiel 2.4. Wir betrachten das folgende lineare Gleichungssystem u ¨ber R. (∗)

x1 + 3x2 − 4x3 + x4 = 0 −x1 − x2 + 8x3 − x4 = 2 2x1 + 8x2 − 4x3 + 3x4 = 3

Die erweiterte Matrix des Gleichungssystems ist   1 3 −4 1 0  −1 −1 8 −1 2  . 2 8 −4 3 3

Wir geben jetzt eine Abbildung von K n×1 nach K m×1 an, so daß die L¨ osungsmenge von (∗) die Faser dieser Abbildung u ur brauchen wir (∗) nur zu kopieren: ¨ber b ist. Daf¨

Definition 2.5. Sei A : m × n → K : (i, j) �→ aij eine m × n-Matrix, kurz A = (aij ) ∈ K m×n . Die von A induzierte Abbildung     c1 c1  c2   c2      ϕA : K n×1 → K m×1 : v =  .  �→ Av = A  .   ..   ..  cn cn ist definiert durch    ϕA (  

c1 c2 .. . cn





    ) := A   

c1 c2 .. . cn





     :=   

a11 c1 + a12 c2 + . . . + a1n cn a21 c1 + a22 c2 + . . . + a2n cn .. . am1 c1 + am2 c2 + . . . + amn cn

Ac heißt das Produkt der Matrix A mit der Spalte v.

    

Wir sehen also, dass ϕA (v) dem Einsetzen der Eintr¨ age in der Spalte v in die linke Seite des Gleichungssystems entspricht. Wir wollen nun verstehen, warum man ϕA eine lineare Abbildung nennt. Bemerkung 2.6. Seien A, v, ϕA wie in Definition 2.5. Dann gilt: 1) ϕA (v) = Av = c1 S1 + c2 S2 + · · · cn Sn

22

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

ist eine Linearkombination der Spalten 

  Sj :=  

a1j a2j .. . amj

    

von A mit den Koeffizienten cj , j = 1, . . . , n. Insbesondere ist das Gleichungssystem (∗) genau dann l¨osbar, wenn man die Spalte b als Linearkombination der Spalten von A darstellen kann. 2) Die Matrix   1 0 0 ... 0 0 �  0 1 0 ... 0 0  1 falls i = j   In :=  .  : n × n → K : (i, j) �→ δij := .. . 0 falls i �= j  .  . 0 0 0 ... 0 1

heißt die Einheitsmatrix vom Grad n u at von K n×1 als ¨ber K. Sie induziert die Identit¨ lineare Abbildung: ϕIn = IdK n×1 .

In Definition 2.5 haben wir ϕA als lineare Abbildung bezeichnet. Wir definieren diesen Begriff nun ganz allgemein f¨ ur Vektorr¨ aume. Definition 2.7. Seien V und W Vektorr¨ aume u orper K. Eine Abbildung ¨ber demselben K¨ ϕ : V → W heißt linear, oder ein K- Homomorphismus, falls f¨ ur alle u, v ∈ V und alle a, b ∈ K gilt ϕ(au + bv) = aϕ(u) + bϕ(v).

Lemma 2.8. Sei A ∈ K m×n . Die von A induzierte Abbildung ϕA : K n×1 → K m×1 : v �→ Av ist eine lineare Abbildung. ¨ Bew: Ubung (siehe Blatt 3). Man sieht, wie speziell lineare Abbildungen sind. Trotzdem sind sie wichtig, denn sie kommen sehr h¨aufig vor, sowohl in der Praxis als auch in der Theorie. Z.B. versucht die Differentialrechnung eine sehr viel allgemeinere Klasse von Abbildungen K n×1 → K m×1 durch lineare Abbildungen zu approximieren. Ein großer Vorteil der linearen Abbildungen ist n¨ amlich, daß sie vergleichsweise leicht zu handhaben sind.

2.2. MATRIXMULTIPLIKATION

2.2

23

Matrixmultiplikation

Lernziele 3. • Produkte von Matrizen und Komposition von linearen Abbildungen, • injektive, surjektive und bijektive lineare Abbildungen.

Wir haben die Matrixmultiplikation bereits im Prop¨ adeutikum kennengelernt. Warum wurde das Matrixprodukt so definiert?

Definition 2.9. Seien A ∈ K m×n , B ∈ K n×� Matrizen. Das Matrixprodukt von A und ur j = 1, . . . , �, wobei Sj B ist definiert als die Matrix AB ∈ K m×� mit den Spalten ASj f¨ die j-te Spalte der Matrix B ist, d.h.   a1j   Sj =  ...  . amj

Es stellt sich jetzt ganz allgemein die Frage, ob Kompositionen linearer Abbildungen ur gewisse Matrizen C zwischen Spaltenvektorr¨aumen linear sind und sich wieder als ϕC f¨ darstellen lassen. Der folgende Satz zeigt, dass dies der Fall ist und gibt uns eine Erkl¨ arung, warum das Matrixprodukt wie oben definiert ist.

Satz 2.10. Seien A ∈ K m×n , B ∈ K n×� und ϕA : K n×1 → K m×1 und ϕB : K �×1 → K n×1 die induzierten linearen Abbildungen. Dann gilt: (a) Die Komposition ϕA ◦ϕB der linearen Abbildungen ϕA und ϕB ist wieder eine lineare Abbildung, ϕA ◦ ϕB : K �×1 → K m×1 . (b) Es gilt ϕA ◦ ϕB = ϕAB . Beweis. (a) ϕA ◦ ϕB ist linear. Bew.: Seien a, b ∈ K, u, v ∈ K �×1 . Dann gilt (ϕA ◦ ϕB )(au + bv) = = = =

ϕA (ϕB (au + bv)) ϕA (aϕB (u) + bϕB (v)) aϕA (ϕB (u)) + bϕA (ϕB (v)) a(ϕA ◦ ϕB )(u) + b(ϕA ◦ ϕB )(v).

24

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

(b) Ist γ : K �×1 → K m×1 eine lineare Abbildung, so ist γ = ϕG , wobei die Matrix G ∈ K m×� die Spalten γ(ej ) hat, wobei ej die j-te Spalte von I� ist. (Siehe Blatt 3.) ussen wir zeigen, dass C = AB. Sei nun C die Matrix, die ϕA ◦ ϕB induziert. Dann m¨ Sei Tj die j-te Spalte von C und Sj die j-te Spalte von B. Um zu zeigen, dass C = AB, ur j = 1, . . . , �. m¨ ussen wir nach Definition 2.9 nur zeigen, dass Tj = ASj , f¨ Bew.: Tj = (ϕA ◦ ϕB )(ej ) = ϕA (ϕB (ej )) = ϕA (Sj ) = ASj , womit der Satz bewiesen ist.

q. e. d.

Wir wollen Injektivit¨at, Surjektivit¨at und Bijektivit¨ at im Zusammenhang mit linearen Abbildungen und Matrizen wiederholen. Lemma 2.11. Sei A ∈ K m×n . Dann gilt: 1) ϕA ist genau dann injektiv, wenn die Faser von ϕA u ¨ber der Nullspalte 0m ∈ K m×1 n×1 nur aus der Nullspalte 0n ∈ K besteht. 2) ϕA ist genau dann surjektiv, wenn sich alle Spalten aus K m×1 aus den Spalten von A linearkombinieren lassen.

alt jede Faser von ϕA h¨ ochstens ein Element, also Beweis. 1) “ ⇒ “: Da ϕA injektiv, enth¨ gilt dies insbesondere f¨ ur die Faser von 0m . “ ⇐ “: Seien u, v ∈ K n×1 mit ϕA (u) = ϕA (v). Dann ist ϕA (u−v) = 0m , also u−v = 0n , d.h. u = v. 2) “ ⇒ “: Da ϕA surjektiv, ist keine Faser von ϕA leer. Sei also w ∈ K m×1 . Dann existiert ein v ∈ K n×1 mit ϕA (v) = w. Nun ist aber ϕA (v) eine Linearkombination der Spalten von A nach Bemerkung 2.6. aßt, “ ⇐ “: Sei w ∈ K m×1 . Da sich w aus den Spalten S j von  A linearkombinieren l¨ c1  ..  existieren c1 , . . . , cn mit w = c1 S1 + · · · + cn Sn . Setze v =  .  . Also ist w = Av = ϕA (v) cn

und somit ist ϕA surjektiv.

q. e. d.

Bemerkung 2.12. Sei ϕA injektiv. Dann besteht die Faser von ϕA u ¨ber der Nullspalte 0m ∈ K m×1 nur aus der Nullspalte 0n ∈ K n×1 . Das bedeutet, dass 0m sich nur trivial, d.h. nur mit Nullen als Koeffizienten, aus den Spalten von A linearkombinieren l¨ aßt.

Zuallererst m¨ ussen wir eine wichtige Folgerung aus der Assoziativit¨ at der Komposition von Abbildungen, vgl. Gleichung (1.1), f¨ ur die Assoziativit¨ at der Matrixmultiplikation ziehen.

2.3. DER GAUSSSCHE ALGORITHMUS

25

Korollar 2.13. Matrixmultiplikation ist assoziativ, genauer: Sind A ∈ K m×n , B ∈ K n×� , C ∈ K �×p , so gilt: (AB)C = A(BC). Beweis. ϕ(AB)C

= = = = =

ϕ(AB) ◦ ϕC (ϕA ◦ ϕB ) ◦ ϕC ϕA ◦ (ϕB ◦ ϕC ) ϕA ◦ ϕBC ϕA(BC)

(2.10) (2.10) (1.1) (2.10) (2.10) q. e. d.

Beim Verst¨andnis der Matrixmultiplikation helfen uns Zeilen auch weiter. Wenn wir die beiden Beweise des Satzes 2.10 analysieren, so kommen wir zu dem Schluß, daß der erste Beweis spaltenorientiert war, der Substitutionsbeweis aber zeilenorientiert. Die folgende Bemerkung gibt ein ausgewogenes Bild. Bemerkung 2.14. Sei A ∈ K m×n , B ∈ K n×� und C = AB ∈ K m×� . Weiter bezeichne Zi := (ai1 , . . . , ain ) ∈ K 1×n die i-te Zeile von A und Sj ∈ K n×1 die j-te Spalte von B. gilt: 1) cij = Zi Sj (Zeile mal Spalte). 2) die j-te Spalte von C ist ASj (spaltenorientiert). 3) die i-te Zeile von C ist Zi B (zeilenorientiert). ¨ Beweis. Ubung.

2.3

q. e. d.

Der Gaußsche Algorithmus

Lernziele 4. • Gaußsches Eliminationsverfahren mit Anwendungen auf Bestimmung von L¨ osungsmengen linearer Gleichungssysteme, • Invertieren von Matrizen, • Transponieren von Matrizen.

Wir wollen ein Verfahren kennenlernen (oder f¨ ur die meisten wiederholen), welches die Faser u ¨ber einem Punkt im Bildbereich unter der linearen Abbildung bestimmt. Es handelt

26

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

sich um den Gaußschen Algorithmus, den Carl Friedrich Gauß vor etwa 200 Jahren f¨ ur die Behandlung astronomischer Fragestellungen entwickelt hat. Es hat sich gezeigt, daß man dieses Verfahren schon vor 2000 Jahren in China kannte1 , ist dort aber wohl wieder in Vergessenheit geraten. Unsere Ausgangssituation ist das lineare Gleichungssystem (∗)

Ax = b

mit A ∈ K m×n und b ∈ K m×1 fest vorgegeben. Gesucht ist die Faser von ϕA u ¨ber b, also ullen. Ausgeschrieben haben wir also alle x ∈ K n×1 , die (∗) erf¨ a11 x1 + a12 x2 + . . . + a1n xn a21 x1 + a22 x2 + . . . + a2n xn (∗) .. .

= =

b1 b2

am1 x1 + am2 x2 + . . . + amn xn = bm Statt dies immer auszuschreiben, arbeiten wir einfach mit der erweiterten Matrix (A|b) des linearen Gleichungssystems. Der senkrechte Strich deutet an, wo die Matrix des Gleichungssystems aufh¨ort und die rechte Seite anf¨ angt. Es versteht sich von selbst, daß nicht alle linearen Probleme gleich in dieser Gestalt gegeben sind, sondern daß man manchmal etwas daf¨ ur arbeiten muß, damit man diese Gestalt erh¨ alt. Zuerst beobachten wir, dass man in manchen Situationen die L¨ osungen eines Gleichungssystems fast direkt ablesen kann. Hier ist ein Beispiel: Beispiel 2.15. x1 + 3x2 − 4x3 + x4 x2 + 2x3 x3 + x4 x4

= = = =

0 1 1 1

Dann sehen wir sofort, dass die L¨osungen des Gleichungssystems die folgende Menge ist:   −4 1  L = {  0 }. 1 Definition 2.16. Sei A ∈ K m×n eine Matrix mit den Zeilen Z1 , . . . , Zm . 1) F¨ ur i ∈ m ist der i-te Stufenindex Sti (A) definiert als Sti (A) := min{j ∈ n | Aij �= 0} Falls Zi die Nullzeile ist, setzen wir Sti (A) := n + i. 2) A ist in Stufenform, falls die Folge St(A) := (St1 (A), St2 (A), . . . , Sts (A)) 1

Fang-Cheng-Algorithmus, vgl. P. Gabriel: Matrizen, Geometrie, lineare Algebra

2.3. DER GAUSSSCHE ALGORITHMUS

27

streng monoton ansteigt, d.h. St1 (A) < St2 (A) < · · · < Sts (A). ur die entsprechende Spalte Falls zus¨atzlich noch f¨ ur jeden Stufenindex j := Sti (A) ≤ n f¨ Sj von A gilt, dass Sj die i-te Spalte von Im ist, so ist A in strikter Stufenform. Beispiel 2.17. 1x1 + 2x2 + 3x3 + 21x4 = 2 2x1 + 4x2 + 4x3 + 28x4 = 3 hat zugeordnete Matrix



1 2 3 21 2 2 4 4 28 3



hat Stufenfolge (1, 1), ist also nicht in Stufenform. Hingegen � � 1 2 3 21 2 0 0 −2 −14 −1 hat Stufenfolge (1, 3), ist also in Stufenform, jedoch nicht in strikter Stufenform. Letztere liegt bei � � 1 2 0 0 12 0 0 1 7 12 vor, wo die Stufenspalten entsprechende Einheitsspalten sind. Das zugeh¨ orige lineare Gleichungssystem ist = 12 x1 + 2x2 x3 + 7x4 = 12 Dieses Gleichungssystem kann man nun sehr leicht l¨ osen: Man f¨ ugt f¨ ur jeden Nichtstufenindex einen Parameter pi ∈ K und eine neue Gleichung ein. Im vorliegenden Fall: x2 = p1 , x4 = p2 . Durch Addition geeigneter Vielfache dieser neuen Gleichungen bringt man das neue Gleichungssystem in die strikte Stufengestalt und kann alle L¨ osungen ablesen:   1 2 0 0 12 = 12 x1 + 2x2  0 0 1 7 1  x3 + 7x4 = 21 2    0 1 0 0 p1  x2 = p1 x 4 = p2 0 0 0 1 p2 Also



1  0   0 0

0 1 0 0

0 0 1 0

 0 12 − 2p1 x1 = 12 − 2p1  0 p1  also x2 = p11 1 0 2 − 7p2  x3 = 2 − 7p2 1 p2 x4 = p2 mit p1 , p2 ∈ R beliebig.

Bei einem linearen Gleichungssystem in Stufengestalt ist somit die Gesamtheit der L¨ osungen ablesbar. Leider ist nicht jedes Gleichungssystem in dieser Form gegeben. Hier ist eine

28

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

ganz allgemeine Strategie, die u ¨ber den Fall der linearen Gleichungssysteme hinausgeht, wie man ein solches Problem angehen kann. Einschub: Wir ben¨ otigen noch einige grundlegende Begriffe. So wie man bijektive Abbildungen durch die Existenz einer inversen Abbildung charakterisieren kann, kann man surjektive resp. injektive Abbildungen durch die Existenz von Rechts- resp. Linksinversen charakterisieren. Lemma 2.18. Seien M, N nicht-leere Mengen und f : M → N eine Abbildung. Dann gilt: 1. Genau dann ist f surjektiv, wenn es eine Rechtsinverse von f gibt, also eine Abbildung g : N → M mit f ◦ g = IdN . 2. Genau dann ist f injektiv, wenn es eine Linksinverse von f gibt, also eine Abbildung h : N → M mit h ◦ f = IdM . 3. Genau dann ist bijektiv, wenn es eine Abbildung g : N → M gibt mit

inverse Abbildung von f gibt, also eine

g ◦ f = IdM und f ◦ g = IdN . g ist im Falle seiner Existenz eindeutig bestimmt. Bezeichnung: g =: f −1 . Zum Beweis, siehe Pr¨asenzaufgaben 4. Bemerkung 2.19. Sei f : M → N und n ∈ N . F¨ ur jede bijektive Abbildung g : N → N gilt f¨ ur die Faser von f u ber n: ¨ f −1 ({n}) = (g ◦ f )−1 ({g(n)}). at von g: Sei m ∈ f −1 ({n}), d. h. Beweis. Die erste Inklusion benutzt nicht die Bijektivit¨ −1 ur den Umkehrschluß f (m) = n. Dann gilt g(f (m)) = g(n), d. h. m ∈ (g ◦ f ) ({g(n)}). F¨ braucht man ein Linksinverses von g, was wegen der Bijektivit¨ at von g nat¨ urlich existiert. q. e. d.

Die sich ergebende Strategie ist somit, eine Folge von fasernerhaltenden Abbildungen anzuwenden, bis man die L¨osungen hoffentlich ablesen kann. Anstatt das Gleichungssystem f (m) = n zu l¨osen, l¨osen wir also das Gleichungssystem (g ◦ f )(m) = g(n). Wir bestimmen also die Faser (g ◦ f )−1 ({g(n)}). Eine fasernerhaltende Abbildung ist also eine Abbildung, die die L¨ osungsmenge des Gleichungssystems nicht ver¨ andert. Im Prop¨ adeutikum wurden solche Abbildungen schon eingef¨ uhrt, die 1. das Vielfache einer Gleichung zu einer anderen addieren; 2. eine Gleichung mit einem Skalar in K ∗ multiplizieren; 3. zwei Gleichungen vertauschen.

2.3. DER GAUSSSCHE ALGORITHMUS

29

Wir wollen diese Abbildungen wieder als lineare Abbildungen verstehen, d.h. wir wollen sie wieder durch Matrizen beschreiben. Hier ist eine Auswahl von Matrizen, die man von links an die erweiterte Matrix eines linearen Gleichungssystems heranmultiplizieren kann, ohne die L¨osungsmenge zu ver¨andern. Zun¨ achst eine kleine Erinnerung. Definition 2.20. Eine Matrix A ∈ K n×n heißt invertierbar, falls ϕA : K n×1 → K n×1 bijektiv ist. In dem Fall heißt die eindeutig bestimmte Matrix B ∈ K n×n mit AB = BA = In die zu A inverse Matrix und wird mit A−1 bezeichnet.

¨ Ubung: Verifiziere die in der Definition enthaltene Behauptung: Ist ϕA : K n×1 → K n×1 bijektiv, so ist (ϕA )−1 : K n×1 → K n×1 linear. Hier ist eine Liste von invertierbaren Matrizen, die man u ¨blicherweise zum Vereinfachen von linearen Gleichungssystemen benutzt. Definition 2.21. Sei m ∈ N, ei ∈ K m×1 die i-te Spalte und fi ∈ K 1×m die i-te Zeile der Einheitsmatrix Im . Jede Matrix, welche von einem der drei nachfolgenden Typen ist, heißt auch elementare Matrix oder elementare Umformungsmatrix. 1) F¨ ur 1 ≤ i, j ≤ m mit i �= j und a ∈ K sei   1 falls s = t Addm (i, j, a) := Im + aei fj : m × m → K : (s, t) �→ a falls (s, t) = (i, j)   0 sonst d.h. Addm (i, j, a) unterscheidet sich von Einheitsmatrix vom Grad Eintrag in Zeile i und Spalte j das K¨ orperelement a ist. 2) F¨ ur 1 ≤ i ≤ m und a ∈ K − {0} sei   1 Mulm (i, a) := Im + (a − 1)ei fi : m × m → K : (s, t) �→ a   0

m nur darin, dass der

falls s = t �= i falls s = t = i sonst

d.h. Mulm (i, a) unterscheidet sich von Einheitsmatrix vom Grad m nur darin, dass der Eintrag in Zeile i und Spalte i das K¨ orperelement a ist. 3) F¨ ur 1 ≤ i < j ≤ m sei Verm (i, j) := (e1 . . . ei−1 ej ei+1 . . . ej−1 ei ej+1 . . . em ) : m × m → K :   1 falls s = t �∈ {i, j} 1 falls (s, t) ∈ {(i, j), (j, i)} , (s, t) �→  0 sonst

d.h. Verm (i, j) unterscheidet sich von Einheitsmatrix Im vom Grad m nur darin, dass die i-te und die j-te Zeilen von Im vertauscht sind.

30

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

Zun¨ achst sehen wir, dass jede dieser Matrizen invertierbar ist. Dies kann man leicht einsehen, indem wir die inversen Matrizen angeben. Daher sind die zugeh¨ origen induzierten linearen Abbildungen bijektiv. Wir k¨ onnen sie also als fasernerhaltende Abbildungen auf unser Gleichungssystem anwenden. Lemma 2.22. Sei m ∈ N. Dann gilt: 1. Addm (i, j, a) ∈ K m×m invertierbar mit inverser Matrix Addm (i, j, −a); ur a ∈ K − {0} ist invertierbar mit Inverser Mulm (i, a−1 ). 2. Mulm (i, a) ∈ K m×m f¨ 3. Verm (i, j) ∈ K m×m ist zu sich selbst invers. Wir untersuchen nun, wie sich eine Matrix B ∈ K m×n ¨ andert, wenn wir sie von links mit einer dieser Elementarmatrizen multiplizieren. Dabei erkennen wir, dass die drei oben genannten Operationen mit der (erweiterten) Matrix eines linearen Gleichungssystems durchf¨ uhren. Lemma 2.23. Seien t, m ∈ N und B ∈ K m×t mit Zeilen Z1 , . . . , Zm . Dann gilt:

Das Produkt Addm (i, j, a)B unterscheidet sich von B nur in der i-ten Zeile: die i-te Zeile von Addm (i, j, a)B ist Zi + aZj . Also addiert Addm (i, ja) das a-fache der j-ten Zeile von B zur i-ten Zeile. Das Produkt Mulm (i, a)B unterscheidet sich von B nur in der i-ten Zeile. Die i-te Zeile des Produkts ist aZi . Das Produkt Verm (i, j)B unterscheidet sich von B darin, dass die i-te und die j-te Zeile von B vertauscht sind. Der Gaußsche Algorithmus wird nun in zwei Teilen pr¨ asentiert. Der erste Teil u uhrt eine (erweiterte) Matrix in Stufenform. Der zweite Teil macht dann die L¨ osungen ¨berf¨ des Gleichungssystems explizit. Daf¨ ur werden gegebenenfalls neue Gleichungen eingef¨ uhrt, die aber die L¨osungsmenge nicht ¨andern.

2.3. DER GAUSSSCHE ALGORITHMUS

31

Algorithmus 2.24. Gegeben: C = (ci,j ) = (A | b) ∈ K m×(n+1) die erweiterte Matrix eines linearen Gleichungssystems. Gesucht: L¨ osungsmenge des linearen Gleichungssystems. Algorithmus: ¨ uhre C in Stufengestalt. 1. Teil: Uberf¨ 1. Finde den kleinsten Spaltenindex j, so dass die j-te Spalte von C nicht 0 ist. 2. Finde den kleinsten Zeilenindex i mit ci,j �= 0. 3. Falls i �= 1,vertausche die erste und i-te Zeile, d.h. ersetze C durch Verm (1, i)C so daß wir i = 1 haben. 4. Falls c1,j �= 1, ersetze C durch Mulm (1, c−1 1,j )C, so daß wir mit c1,j = 1 weiterarbeiten k¨ onnen. 5. R¨ aume die j-te Spalte aus durch Subtraktion der ci,j -Vielfachen der ersten Zeile ur von der i-ten Zeile (d.h. ersetze C der Reihe nach durch Addm (i, 1, −ci,j )C) f¨ i = 2 . . . m. 6. Wiederhole Schritte 1. − 5. mit der Teilmatrix von C, die durch Streichen der ersten Zeile und der ersten j Spalten hervorgeht. Am Ende hat man eine Matrix C in Stufengestalt mit derselben L¨ osungsmenge. Letztere ist genau dann leer, wenn n + 1 ein Stufenindex ist. osungen explizit. 2. Teil: Mache L¨ 1. Falls n + 1 kein Stufenindex ist, streiche die Nullzeilen von C. 2. F¨ uge f¨ ur jeden Nichtstufenindex i� mit � = 1, . . . , d der linken Seite eine neue Zeile (v, p� ) zu der Matrix hinzu, wo v die i� -te Zeile von In ist und p� paarweise verschiedene Parameter sind. 3. Bringe die resultierende Matrix durch die Linksmultiplikationen mit Vern (i, j) und Addn (i, j, a) auf strikte Stufengestalt. osungen Die strikte Stufengestalt ist gegeben durch (In , L), wo L eine Spalte ist, die die L¨ in Abh¨ angigkeit von den Parametern angibt. ussen zeigen, daß der Algorithmus nach endlich vielen Schritten terminiert Beweis. Wir m¨ und daß wir am Ende wirklich sehen, ob eine L¨ osung existiert und alle L¨ osungen ablesbar ¨ sind. Ersteres ist klar, da nach sp¨atestens m Uberg¨ angen zu Teilmatrizen die Stufenform ¨ erreicht ist. Hat die relevante Matrix r Zeilen, so sind zu jedem Ubergang maximal 1 + 1 + (r − 1) Zeilenumformungen notwendig. Die Anzahl der Zeilenumformungen im ¨ zweiten Teil kann man auch absch¨atzen (Ubung), so daß der Algorithmus nach endlich vielen Schritten terminiert. Nach Bemerkung 2.19 und der Invertierbarkeit der Umformungsmatrizen aus Beispiel 2.19 ¨andert sich die L¨ osungsmenge nicht. Das Weglassen von Nullzeilen ist kein Informationsverlust, das Hinzuf¨ ugen der Zeilen mit den Parametern nur eine Namensgebung. q. e. d.

32

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

Mit dem Gaußschen Algorithmus sind wir im Besitz einer Schl¨ usseltechnologie. Mit seiner Hilfe k¨ onnen wir nicht nur Fasern von linearen Abbildungen bestimmen, sondern viele der Begriffe aus dem Abbildungsabschnitt konstruktiv beherrschen: Bestimmung des Bildes einer linearen Abbildung, von Rechts- und Linksinversen, Sur- und Injektivit¨ atstests. Wir begn¨ ugen uns jeweils mit Beispielen. ¨ Ubung: Stellt A ∈ K n×n eine bijektive lineare Abbildung ϕA : K n×1 → K n×1 dar, so gibt es ein lineares Inverses von ϕA , d.h. eine Matrix B ∈ K n×m mit AB = Im . Beispiel 2.25. Aufgabe: Finde die inverse  0 0 A= 1 1

Matrix B von A u ¨ber F3 .  2 1 2 0 0 2 . 1 2 2 0 2 2

L¨ osung: Sei ei ∈ F4×1 die i-te Spalte der Einheitsmatrix I4 . Sei Si die i-te Spalte 3 von B. Dann ist ASi = ei . Da wir S1 noch nicht kennen, wollen wir die Eintr¨ age in S1 als Unbestimmte betrachten. Um diese zu bestimmen, wenden wir den Gaußschen Algorithmus auf die Matrix   0 2 1 2 1  0 0 0 2 0     1 1 2 2 0  1 0 2 2 0

an. Die L¨osung dieses Gleichungssystems gibt uns die erste Spalte S1 von B. Analog k¨ onnen wir f¨ ur die anderen Spalten von B vorgehen. Da diese vier Gleichungssysteme dieselbe linke Seite, n¨ amlich A, haben, kann man sie simultan l¨ osen, indem man die vier rechten Seiten zu einer vierspaltigen rechten Seite I2 zusammenfaßt und dann den Gaußalgorithmus anwendet:



0 2  0 0   1 1 1 0  1 1  0 0   0 2 0 2  1 1  0 1   0 0 0 0  1 0  0 1   0 0 0 0

1 2 0 2 2 2 2 2

1 0 0 0

0 1 0 0

0 0 1 0

2 2 0 2 1 2 0 0

0 0 1 0

0 1 0 0

1 0 0 2

2 2 2 1 0 2 2 1

0 2 0 2

0 0 1 0

1 0 0 2

0 1 0 0 1 0 0 1

1 0 1 0

0 0 2 2

1 1 1 0

  0 1 1  0 0 0   → 0  V er4 (1,3)  0 2 1 1 0   0 1 1  0 1 0   → V er(2,3)  0  M ul(2,2)  0 0 0 2 1   0  0   → V er(3,4) 0  M ul(3,2),M ul(4,2)  1   0 1 0  0 1 2  →  2  Add(1,4,2)  0 0 0 0 0

2 2 0 2 1 2 2 2

0 0 1 0

1 0 0 0

0 0 1 0

1 0 0 2

1 1 2 2 0 1 2 1 0 0 1 2 0 0 0 1

0 2 1 0

2 2 2 1 0 2 0 0

0 0 0 0 1 0 0 1

0 2 0 0

0 1 0 0

1 0 1 0

1 0 2 2

1 1 1 0

 0 0  → 0  Add(4,1,2) 1  0 0  → 0  Add(4,2,1) 1  0 1 0 0 0 0  → Add(1,2,2) 0 1 2  Add(2,3,1),Add(3,4,1) 2 0 0  0 2   2  0

2.3. DER GAUSSSCHE ALGORITHMUS

33

Damit ist die inverse Matrix 

1  0 B=  1 0

1 0 2 2

1 1 1 0

 0 2  . 2  0

Wir wollen jetzt mit Hilfe des Gaußschen Algorithmus das Bild einer linearen Abbildung bestimmen. Man kann nat¨ urlich sagen, daß das Bild einfach aus allen Linearkombinationen der Spalten der Matrix besteht. Aber oft ist diese Beschreibung recht un¨ ubersichtlich. Wir gehen hier so vor, daß wir die rechte Seite mit Unbestimmten vorbesetzen, den ersten Teil des Gaußschen Algorithmus durchf¨ uhren und dann durch die L¨ osbarkeitsbedingung ein lineares Gleichungssystem f¨ ur die L¨osungsmenge bekommen. Beispiel 2.26. Aufgabe: Beschreibe Bild ϕA , wo  1 2 3 A :=  2 3 4 3 4 5

A gegeben ist durch  4 5  6

L¨ osung: Wir wenden den Gaußschen Algorithmus auf die Matrix   1 2 3 4 x  2 3 4 5 y  3 4 5 6 z

an. Also:

 

   1 2 3 4 x 1 2 3 4 x  0 −1 −2 −3 y − 2x  →  0 1 2 3 −y + 2x  0 −2 −4 −6 z − 3x 0 0 0 0 z + x − 2y

 x Also  y  ∈ Bild(ϕA ) genau dann, wenn z + x − 2y = 0 (was man direkt l¨ osen kann.) z Als n¨ achstes wollen wir an einem Beispiel diskutieren, wie man eine Rechtsinverse f¨ ur surjektive lineare Abbildungen bestimmen kann. Als Vor¨ ubung eine kleine Aufgabe: ¨ Ubung: Stellt A ∈ K m×n eine surjektive lineare Abbildung ϕA : K n×1 → K m×1 dar, so gibt es ein lineares Rechtsinverses von ϕA , d. h. eine Matrix B ∈ K n×m mit AB = Im . Beispiel 2.27. Aufgabe: Sei A ∈ R2×3 gegeben durch � � 1 2 3 A := . 2 3 4 Man u ufe, ob ϕA : R3×1 → R2×1 ein Rechtsinverses hat und berechne alle linearen ¨berpr¨ Rechtsinversen.

34

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME

L¨ osung: Gesucht sind alle Matrizen B ∈ R3×2 mit AB = I2 . Seien S1 und S2 die Spalten von B. Somit haben wir zwei lineare Gleichungssysteme zu l¨ osen, n¨ amlich � � � � 1 0 und AS2 = AS1 = 0 1 Da diese beiden Gleichungssysteme dieselbe linke Seite, n¨ amlich A, haben, kann man sie simultan l¨osen, indem man beide rechten Seiten zu einer zweispaltigen rechten Seite I2 zusammenfaßt und dann den Gaußalgorithmus anwendet:   � � � � 1 0 −1 −3 2 1 2 3 1 0 1 0 1 2 3 2 −1  → 2 → → 0 1 2 3 4 0 1 0 −1 −2 −2 1 a b 0 0 1   2+b 1 0 0 −3 + a  0 1 0 2 − 2a −1 − 2b  0 0 1 a b

so daß alle linearen Rechtsinversen durch die Matrizen   −3 + a 2+b  2 − 2a −1 − 2b  a b

dargestellt sind mit a, b ∈ R beliebig. Man nennt auch diese Matrizen die rechtsinversen Matrizen von A. Man beachte jedoch, daß unter den rechtsinversen Abbildungen von ϕA auch nichtlineare Abbildungen sind.

Man u ¨berlegt sich jetzt leicht: Das surjektive ϕA ist genau dann bijektiv, wenn sein Rechtsinverses ϕB eindeutig bestimmt ist. In diesem Fall ist es gleichzeitig Linksinverses von ϕA . Linksinverse f¨ ur injektive lineare Abbildungen kann man durch einen kleinen Trick auf die Bestimmung von Rechtsinversen zur¨ uckf¨ uhren. Definition 2.28. Ist A : m × n → K : (i, j) �→ aij eine Matrix, so heißt Atr : n × m → K : (i, j) �→ aji die transponierte Matrix oder einfach die Transponierte von A.

Lemma 2.29. Sind A ∈ K m×n und B ∈ K n×� , so sind B tr ∈ K �×n und Atr ∈ K n×m und (AB)tr = B tr Atr . Ist ϕA surjektiv mit Rechtsinversem ϕB , so ist ϕAtr injektiv mit Linksinversem ϕB tr und umgekehrt. ¨ Beweis. Ubung.

q. e. d.