Kapitel 3
Matrizen 3.1
Der Vektorraum der m×n –Matrizen
Viele algebraische Aspekte der Vektorraumtheorie, insbesondere Verfahren zur Lösung von linearen Gleichunsgsystemen, basieren auf dem Konzept der Matrizen, das als Spezialfälle Zeilen– und Spaltenvektoren umfasst. 3.1.1 Definition. (Körper) Unter einem Körper versteht man eine Menge K zusammen mit einer Addition, einem Nullelement 0, einer Multiplikation und einem Einselement 1, so dass die gleichen Rechenregeln wie in Q und R gelten, insbesondere also zu jedem Element a ein „Negatives” −a mit a − a = −a + a = 0 existiert und jedes von 0 verschiedene Element b ein „Inverses” b−1 mit bb−1 = b−1 b = 1 hat. 3.1.2 Beispiele. (Spezielle Körper) (1) Neben den bekannten Körpern R der reellen Zahlen und Q der rationalen Zahlen gibt es den wichtigen Körper C der komplexen Zahlen. Es handelt sich dabei um die Ebene R2 mit den Basisvektoren 1 = (1, 0) und ı = (0, 1) und der Multiplikation (a + bı)(c + dı) := (ac − bd) + (ad + bc)ı (a, b ∈ R) wobei man einfach a für a1 schreibt. Insbesondere ist ı2 = −1. (2) Es gibt aber auch endliche Körper wie z. B. K = {0, 1} mit der Addition 1 + 1 = 0, die in der Informatik eine besondere Rolle spielt. Hier ist −1 = 1, ansonsten funktioniert die Addition und die Multiplikation wie in R. Man kann nun Vektorräume über beliebigen Körpern als Skalarbereich genau so wie über R definieren. Die allermeisten Regeln bleiben dabei erhalten; allerdings kann dann ein von 0 verschiedener Vektor bezüglich des Skalarprodukts auf sich selbst senkrecht stehen (z.B. (1, 1) über dem Körper {0, 1}), und im Allgemeinen lassen sich Vektoren nicht mehr „normieren”, weil die benötigten Wurzeln nicht existieren. Wir begnügen uns im Folgenden mit dem Körper K = R der reellen Zahlen, betonen aber, dass dies keine zwingende Einschränkung ist. 3.1.3 Definition. (Matrizenräume) K m×n := K m×n heißt der Vektorraum der m × n–Matrizen über K (m, n ∈ N0 ). Die Matrizen aus K n×n nennt man quadratisch. 33
KAPITEL 3. MATRIZEN
34
3.1.4 Bemerkungen. (1) Formal ist eine m×n–Matrix A eine Abbildung von m × n = {(i, j) | i ∈ m, j ∈ n} nach K. Man schreibt aij oder Aij für A(i, j) und ordnet die Bildwerte in einem rechteckigen Schema an:
a11 . A = ..
...
a1n .. .
am1 . . . amn Im Computer wird eine Matrix meist als eine einzige lange Zeile eingegeben, wobei man zuvor die Zeilen- und Spaltenzahl festgelegt hat und dann die Zeilen aneinanderhängt. (2) Der Matrizenraum K m×n ist bis auf die rechteckige statt zeilenweise Anordnung der Komponenten einfach der Vektorraum K mn und hat daher die Dimension mn. Im Falle m = 0 oder n = 0 ist K m×n der Nullraum, der nur die Null enthält. (3) Addition, Subtraktion und skalare Multiplikation sind komponentenweise definiert, z. B. 1 2
!
−1 0
+
3 4 2
1 0
!
=
0 3 !
2 0
=
0 1
0 2 3 7
!
,
1 2
!
−
−1 0
3 4
0 3
!
=
2 2
!
,
3 1
!
.
0 2
(4) Bis auf die Bezeichnungsweise ist K 1×n der Raum K n der n–komponentigen Zeilenvektoren K m×1 der Raum Km der m–komponentigen Spaltenvektoren. (5) Aus der Vektorraumstruktur von K m×n ergeben sich folgende Rechenregeln: A+B =B+A A + (B + C) = (A + B) + C (r + s)A = rA + sA r(A + B) = rA + rB r(sA) = (rs)A. (6) Das Nullelement von K m×n ist die Nullmatrix
O = Omn
0 ... 0 . .. := . mit A + O = O + A = A, A − A = A + (−A) = O. .. 0 ... 0
(7) Die kanonische Basis des Vektorraums K m×n besteht aus den Matrizen Ekl , bei denen in der k–ten Zeile an l–ter Stelle 1 und sonst überall 0 steht, z.B. E12 =
0 1 0 0 0 0
!
in K 2×3 .
KAPITEL 3. MATRIZEN
35
3.1.5 Definition. (Einheitsmatrizen) Die n×n–Einheitsmatrix E (genauer mit En bezeichnet) ist gegeben durch
1 0 ... 0 . 0 .. 0 = (δij ) E := . . . .. .. . . 0 ...
0
mit δij = 1 für i = j und δij = 0 für i 6= j.
1
3.1.6 Definition. (Transponierte) Für A = (aij ) ∈ K m×n ist die transponierte Matrix AT ∈ K n×m definiert durch AT = (bij ) mit bij = aji . Sie entsteht aus A durch „Spiegelung an der Diagonalen”. Insbesondere ist A genau dann ein Zeilenvektor, wenn AT ein Spaltenvektor ist. (Andere Bezeichnungen für die Transponierte sind At , tA, TA.) A heißt symmetrisch, falls A = AT , und schiefsymmetrisch, falls −A = AT gilt. Eine symmetrische oder schiefsymmetrische Matrix ist insbesondere quadratisch. Bei einer schiefsymmetrischen reellen oder komplexen Matrix stehen stets Nullen in der Diagonalen. 3.1.7 Lemma. (Transpositionregeln) (A + B)T = AT + B T ,
(rA)T = rAT ,
(AT )T = A.
3.1.8 Beispiele. (Transponieren) (1)
1 2 3
!T
1 0
= 2 0 .
0 0 2
3 2
1
1
(2) Für A = −1
0
5 ist A+ = 0 0 2 symmetrisch, A− = −1 0 4 −1 1 2 2 1 2 −3
0
1 0 2
0
1 −2
3 0
ist schiefsymmetrisch, und es gilt 1 1 A+ = (A + AT ), A− = (A − AT ), A = A+ + A− . 2 2 3.1.9 Satz. (Unterräume symmetrischer und schiefsymmetrischer Matrizen) Für jede quadratische Matrix A ist die Matrix A + AT stets symmetrisch, während A − AT stets schiefsymmetrisch ist. Jede reelle oder komplexe quadratische Matrix A kann auf eindeutige Weise als Summe einer symmetrischen und einer schiefsymmetrischen Matrix geschrieben werden: A = 21 (A + AT ) + 12 (A − AT ). Die symmetrischen n×n–Matrizen bilden einen n(n+1) 2 -dimensionalen Unterraum des Matrizenn×n raumes K , die schiefsymmetrischen n × n–Matrizen bilden einen n(n−1) 2 -dimensionalen n×n Unterraum, und K ist die direkte Summe dieser beiden Unterräume.
KAPITEL 3. MATRIZEN
3.2
36
Matrizenprodukt und lineare Abbildungen
Matrizen kann man nicht nur addieren und subtrahieren, sondern auch miteinander multiplizieren, sofern sie die richtigen Abmessungen für Zeilen- und Spaltenzahl haben. 3.2.1 Definition. Für A ∈ K m×n und B ∈ K n×p ist das Matrizenprodukt AB ∈ K m×p diejenige Matrix, bei der in der i–ten Zeile und k–ten Spalte das Skalarprodukt der i–ten Zeile von A mit der k–ten Spalte von B steht: A = (aij ), B = (bjk ) =⇒ AB = (cik ) mit cik =
n X
aij bjk .
j=1
Speziell ist für Spaltenvektoren a, b ∈ Kn das Skalarprodukt a · b = aT b.
j
j
k
?
bjk
?
-
B
i
-
aij
cik A
C
Matrizen ermöglichen unter anderem eine besonders einfache Beschreibung sogenannter linearer Abbildungen zwischen Vektorräumen. 3.2.2 Definition. (Lineare Abbildungen) Eine Abbildung f : V → W heißt linear, falls folgende Bedingungen erfüllt sind: f (u + v) = f (u) + f (v) (u, v ∈ V ), f (rv) = r f (v)
(v ∈ V, r ∈ K).
Die Gesamtheit aller linearen Abbildungen von V nach W (auch Homomorphismen genannt) wird mit Hom (V, W ) bezeichnet. Eine bijektive lineare Abbildung heißt Isomorphismus. Im erweiterten Sinne ist Hom (V, W ) ein Vektorraum bezüglich elementweiser Addition und skalarer Multiplikation: (f + g)(v) = f (v) + g(v), (rf )(v) = r f (v).
KAPITEL 3. MATRIZEN
37
Am Ende dieses Abschnitts werden wir konkrete Beispiele linearer Abbildungen kennen lernen. Zunächst der grundlegende Zusammenhang zwischen Matrizen und linearen Abbildungen: 3.2.3 Definition. Für jede Matrix A ∈ K m×n definiert man eine Abbildung Ae durch Ae : Kn −→ Km , x 7−→ Ax . e j ) der kanonischen Einheitsvektoren. Die Spalten der Matrix A sind dann die Bilder A(e Ein paar elementare Rechnungen zeigen:
3.2.4 Satz. (Durch Matrizen induzierte lineare Abbildungen) Für jede Matrix A ∈ K m×n ist die Abbildung Ae linear. Die Abbildung H : K m×n −→ Hom (Kn , Km ), A 7−→ Ae ist ein Isomorphismus. Es gilt e für A, B ∈ K m×n , ^ = Ae + B A+B g e für A ∈ K m×n und B ∈ K n×p , A B = Ae ◦ B fn = id K . E n
Da das Produkt der Matrizen der Verknüpfung der linearen Abbildungen entspricht, übertragen sich nun sofort die Rechenregeln für letztere auf Gleichungen für Matrizen: 3.2.5 Satz. (Rechenregeln für Komposition und Matrizenprodukt) Sofern die nachfolgenden Kompositionen bzw. Matrizenprodukte definiert sind, gilt: lineare Abbildungen
Matrizen
Kommutativgesetz
f +g = g+f
A+B = B +A
Assoziativgesetze
(f +g)+h = f +(g+h)
(A+B)+C = A+(B +C)
(f ◦ g) ◦ h = f ◦ (g ◦ h)
(AB)C = A(BC)
(rf ) ◦ g = r(f ◦ g) = f ◦ (rg) (rA)B = r(AB) = A(rB) Distributivgesetze
Neutralitätsgesetze
f ◦ (g+h) = f ◦ g + f ◦ h
A(B +C) = AB + AC
(g+h) ◦ f = g ◦ f + h ◦ f
(B +C)A = BA + CA
r(f +g) = rf +rg
r(A+B) = rA + rB
f ◦ id = f, id ◦ g = g
AE = A, EB = B
3.2.6 Bemerkung. Ist AB definiert, so nicht nowendig auch BA. Und selbst wenn sowohl AB als auch BA definiert ist, gilt im Allgemeinen AB 6= BA. Beispielsweise ist 0 1 0 0
!
1 0 0 0
!
=
0 0 0 0
!
6=
0 1
!
=
0 0
1 0 0 0
!
0 1
!
.
0 0
3.2.7 Lemma. (Produktregel für Transponierte) (AB)T = B T AT . AT A und AAT sind stets symmetrisch, aber im Allgemeinen voneinander verschieden.
KAPITEL 3. MATRIZEN
38
Gemäß Satz 3.2.4 wird jede lineare Abbildung f : Kn −→ Km durch eine eindeutige Matrix A ∈ K m×n in der Form f = Ae dargestellt. Wir nennen deshalb A die Darstellungsmatrix von f . Entsprechend lässt sich jede lineare Abbildung f : K m −→ K n mittels Multiplikation mit einer eindeutigen Matrix B ∈ K m×n von rechts in der Form f (x) = xB darstellen, und auch in diesem Fall nennen wir B die Darstellungsmatrix von f . 3.2.8 Beispiele. (Lineare Abbildungen und ihre Darstellungsmatrizen) (1) Eine Streckung (oder Stauchung) entsteht durch Multiplikation mit einer festen Zahl r: g(x) = rx. Die Darstellungsmatrix ist ein Vielfaches der Einheitsmatrix, also bei ebenen bzw. räumlichen Streckungen
r 0
r E2 =
!
r 0 0
bzw. r E3 = 0 r 0 . 0 0 r
0 r
(2) Man kann aber auch in jeder Koordinatenrichtung um einen anderen Faktor strecken: Die Streckung f mit f (x1 , x2 , x3 ) = (r1 x1 , r2 x2 , r3 x3 ) oder in Spaltenschreibweise
x1
r1 x1
r1
0
0
f ( x2 ) = r2 x2 hat die Darstellungsmatrix 0 x3 r3 x3 0
r2
0 .
0
r3
Zum Beispiel ist das Bild des Einheitskreises unter der „Streckung” f (x1 , x2 ) = (r1 x1 , r2 x2 ) = (y1 , y2 ) eine Ellipse mit den Halbachsen r1 und r2 , genügt also der Gleichung
y1 r1
2
+
y2 r2
2
= 1.
Entsprechend wird im Dreidimensionalen das Bild einer Kugel vom Radius 1 um den Ursprung unter der Streckung f (x1 , x2 , x3 ) = (r1 x1 , r2 x2 , r3 x3 ) ein Ellipsoid mit der Gleichung
y1 r1
2
+
y2 r2
2
+
y3 r3
2
= 1.
Bei Streckung in zwei Richtungen und Stauchung in der dritten entsteht ein „Surfbrett”
KAPITEL 3. MATRIZEN
39
(3) Jede Orthogonalprojektion (senkrechte Projektion) des Rn auf eine Hyperebene H0 ,w = {x ∈ Rn | x · w = 0} ist (in Spaltenschreibweise) eine lineare Abbildung p(x) = x − w wT x, wobei w ein auf der Hyperebene senkrechter Einheitsvektor ist. Die Darstellungsmatrix lautet P = En − w wT (Spalte mal Zeile, nicht Skalarprodukt). Speziell wird die senkrechte Projektion des Raumes R3 auf die Ebene H0 ,(1,1,1) = {(x1 , x2 , x3 )T | x1 + x2 + x3 = 0} mit dem Normaleneinheitsvektor w =
E3 −
1 1 1
√1 (1, 1, 1)T 3
2 −1 −1
durch folgende Darstellungsmatrix vermittelt:
1 1 1 1 = 1 −1 2 −1 . 3 3 1 1 1 −1 −1 2
Die Punkte der Ebene, in die projiziert wird, bleiben natürlich unverändert. Anders ausgedrückt: Zweimal projizieren liefert das gleiche Resultat wie einmal! Solche Abbildungen nennt man idempotent (alle Potenzen sind gleich). Das bedeutet P = P m für alle m ∈ N. (4) Die Spiegelung an einer Hyperebene H0 ,w wird beschrieben durch die lineare Abbildung s(x) = x − 2 w wT x und diese durch die Matrix 1 S = E − 2 w wT , speziell für w = √ (1, 1, 1)T : 3
E3 −
1 1 1
1 −2 −2
2 1 1 1 = 1 −2 1 −2 . 3 3 1 1 1 −2 −2 1
KAPITEL 3. MATRIZEN
40
(5) Matrixdarstellung des Vektorprodukts: Das Kreuzprodukt eines festen Vektors
w1
w2 x 3 − w3 x 2
w= w2 ∈ R3 mit einem Vektor x ∈ R3 hat die Gestalt w × x = w3 x1 − w1 x3 . w1 x 2 − w2 x 1 w3
Die so entstehende Abbildung ist linear. Die Darstellungsmatrix ist hier schiefsymmetrisch und sieht folgendermaßen aus:
0
−w3
Vw = w3 −w2
0 w1
w2
−w1 . 0
(6) Die Formel für die Drehung eines Vektors x ∈ R3 um die normierte Achse w ∈ R3 mit Drehwinkel ϕ ergibt sich durch Orthogonalzerlegung entlang der Achse und senkrecht dazu: x d(x)
w wT x w
x−w wT x ϕ w×x
d(x) = w wT x + cos(ϕ) (x − w wT x) + sin(ϕ)(w × x). Die Darstellungsmatrix („Drehmatrix”) sieht also folgendermaßen aus: D = cos(ϕ) E + (1 − cos(ϕ)) w wT + sin(ϕ) Vw oder koeffizientenweise mit c = cos(ϕ) und s = sin(ϕ):
c + (1 − c)w1 2
(1 − c)w1 w2 − s w3 (1 − c)w1 w3 + s w2
D= c + (1 − c)w2 2 (1 − c)w2 w3 − s w1 (1 − c)w1 w2 + s w3 . (1 − c)w1 w3 − s w2 (1 − c)w2 w3 + s w1 c + (1 − c)w3 2 Jede Drehung oder Spiegelung bildet die kanonische Basis auf eine Orthonormalbasis ab. Deshalb ergeben die Spalten einer Drehmatrix ebenso wie die einer Spiegelungsmatrix stets eine Orthonormalbasis. Speziell für den zuvor schon benutzten diagonalen Achsen-Einheitsvektor w = √13 (1, 1, 1)T √ 1 1 und den Drehwinkel ϕ = 2π 3 bekommt man mit c = − 2 und s = 2 3 folgende sehr einfache Drehmatrix:
0 0 1
D= 1 0 0 .
0 1 0 Sie dreht den Vektor e1 nach e2 , diesen nach e3 und letzteren wieder nach e1 .
KAPITEL 3. MATRIZEN
3.3
41
Kern, Rang und Inversion
Im Folgenden geht es darum, einen engen Zusammenhang zwischen Basen und den sogenannten invertierbaren Matrizen herzustellen. Dazu brauchen wir eine leichte Variante des Basisbegriffs. 3.3.1 Definition. (Geordnete Basen) Eine geordnete Basis eines n–dimensionalen Vektorraums V ist ein n–Tupel B = (b1 , . . . , bn ) derart, dass {b1 , . . . , bn } eine Basis von V ist. Ist V = Kn , so kann man jede geordnete Basis B = (b1 , . . . , bn ) von Kn als Matrix auffassen, deren Spalten durch die Vektoren b1 , . . . , bn gebildete werden, d. h. als Element von K n×n . Die geordnete kanonische Basis (e1 , ..., en ) entspricht dabei der Einheitsmatrix En . 3.3.2 Satz und Definition. (Koordinatendarstellung) Für eine geordnete Basis B = (b1 , . . . , bn ) eines n–dimensionalen Vektorraums V ist
x1 n X . xj bj hB : Kn −→ V, .. 7 − → j=1
xn
ein Isomorphismus. Die Umkehrabbildung kB : V −→ Kn ,
v 7−→ h−1 B (v)
heißt Koordinatendarstellung, und der Spaltenvektor kB (v) = h−1 B (v) heißt Koordinatenvektor von v bezüglich B. Er besteht aus den Koeffizienten der eindeutigen Darstellung von v als Linearkombination der Basisvektoren bj . Man nennt zwei Vektorräume isomorph, wenn es einen Isomorphismus zwischen ihnen gibt. Jeder n-dimensionale Vektorraum ist also zu dem Spaltenraum Kn isomorph! Mit Hilfe der eindeutigen Darstellung von Vektoren als Linearkombinationen von Basisvektoren sieht man leicht, dass sich beliebige lineare Abbildungen nach Vorgabe von geordneten Basen mit Hilfe von Matrizen beschreiben lassen: 3.3.3 Satz und Definition. (Darstellungsmatrizen linearer Abbildungen) Gegeben sei ein Vektorraum V mit geordneter Basis B = (b1 , ..., bn ) und ein Vektorraum V 0 mit geordneter Basis B 0 = (b01 , ..., b0m ). Zu jeder linearen Abbildung f : V −→ V 0 gibt es eine eindeutige Matrix A = MBB0 (f ) = (aij ) ∈ K m×n (∗)
f (bj ) =
m X
aij b0i
mit
für j ∈ n.
i=1
A heißt Darstellungsmatrix von f bezüglich B und B 0 . Umgekehrt gibt es zu jeder Matrix A = (aij ) ∈ K m×n genau eine lineare Abbildung f : V −→ V 0 mit (∗). e Im Falle der kanonischen Basen En von Kn und Em von Km ist diese Abbildung einfach f = A.
KAPITEL 3. MATRIZEN
42
3.3.4 Diagramm. (Matrizen und lineare Abbildungen) f V
- V0
6
kB
6
kB 0
hB
?
hB 0
? - Km
Kn Ae
Das Diagramm ist kommutativ in folgendem Sinn: Bei Durchlaufen zweier Wege mit gleichem Anfangs–und Endpunkt sind die jeweiligen verknüpften Abbildungen stets gleich: Der Verknüpfung linearer Abbildungen entspricht das Produkt der Darstellungsmatrizen. 3.3.5 Definition. (Kern, Bild und Rang linearer Abbildungen) Für lineare Abbildungen f ∈ Hom (V, V 0 ) ist Kern f := f − ({0 })
der Kern von f,
Bild f := f + (V )
das Bild von f,
Rang f := dim f + (V ) der Rang von f. Die letzte Definition ist sinnvoll, da f + (V ) stets ein Vektorraum ist. Mehr noch: 3.3.6 Satz. (Dimensionssatz für Kern und Bild) Der Kern einer linearen Abbildung f : V −→ V 0 ist ein Unterraum von V , das Bild ist ein Unterraum von V 0 , und es gilt dim Kern f + dim Bild f = dim V. Diesen Satz kann man aus dem Dimensionssatz für Unterräume ableiten (vgl. Folgerung 3.3.8). Wir übertragen nun Kern, Bild und Rang linearer Abbildungen auf Matrizen. 3.3.7 Definition. (Kern, Bild und Rang von Matrizen) Für A ∈ K m×n sei ˜ Bild A := Bild A˜ , Rang A := Rang A. ˜ Kern A := Kern A, Der Rang der Matrix A ist also die Dimension des Spaltenraumes Bild A, der aus allen Linearkombinationen der Spalten von A besteht. Mit anderen Worten: 3.3.8 Folgerung. (Rang einer Matrix) Der Rang ist die Maximalzahl linear unabhängiger Spalten. Für A ∈ K m×n gilt (Bild A)⊥ = Kern AT , dim Kern A + Rang A = n.
KAPITEL 3. MATRIZEN
43
3.3.9 Beispiel. Für die Projektion p : Rn −→ Rn , x 7−→ x − w wT x auf eine Hyperebene H0 ,w mit der Darstellungsmatrix P = E − w wT gilt: Kern P = R w, Bild P = H0 ,w , Rang P = dim H0 ,w = n − 1, dim Kern P + dim Bild P = 1 + (n − 1) = n = dim Rn . Den invertierbaren linearen Abbildungen, d. h. den Vektorraum-Isomorphismen, entsprechen die invertierbaren Matrizen: 3.3.10 Definition. (Invertierbare Matrizen) Eine Matrix B ∈ K n×n heißt invertierbar, falls ein C ∈ K n×n mit BC = CB = En existiert. Invertierbare Matrizen lassen sich auf sehr vielfältige Arten beschreiben, die je nach Aufgabenstellung von Vorteil sein können. Mit Hilfe des Darstellungssatzes 3.3.3 und des Dimensionssatzes 3.3.6 zeigt man: 3.3.11 Satz. (Charakterisierung invertierbarer Matrizen) Für B ∈ K n×n sind folgende 15 Aussagen allesamt äquivalent: (a) (a’) (a”) B ist invertierbar (hat Kern {0 }, hat Rang n). (b) (b’) (b”) Die Spalten von B sind Basis (linear unabhängig, Erzeugendensystem) von Kn . (c) (c’) (c”) Zu y ∈ Kn existiert genau (höchstens, mindestens) ein x mit Bx = y. ˜ ist ein Isomorphismus (injektiv, surjektiv). (d) (d’) (d”) Die lineare Abbildung B (e) (e’) (e”) Es gibt ein (eindeutiges) C ∈ K n×n mit BC = En (CB = En ).
3.3.12 Definition. (Inverse Matrix) Für eine invertierbare Matrix B heißt die eindeutige Matrix C mit CB = BC = E die Inverse zu B und wird mit B −1 bezeichnet. Also: B −1 B = BB −1 = E. 3.3.13 Lemma. Ist B invertierbar, so ist auch B T invertierbar und (B T )−1 = (B −1 )T . Denn es gilt ja B T (B −1 )T = (B −1 B)T = E T = E. 3.3.14 Definition. (Orthogonale Matrizen) Eine Matrix B ∈ K n×n heißt orthogonal (besser wäre orthonormal), falls B T B = E bzw. B B T = E gilt, also ihre Spalten bzw. Zeilen eine ONB bilden. Die orthogonalen Matrizen sind also genau die invertierbaren Matrizen B mit B −1 = B T .
KAPITEL 3. MATRIZEN
44
3.3.15 Beispiele. (Inverse Matrizen) (1) Für r1 , r2 , r3 ∈ R∗ ist die zu einer Streckmatrix
r1
0
0
1 r1
0
0
0
r2
1 r2
0 .
0
0
0 inverse Matrix 0 r3 0
0
1 r3
Allgemein stehen in einer Diagonalmatrix D = (dij ) ∈ K n×n außerhalb der Diagonalen nur Nullen, d. h. dij = 0 für i 6= j. Eine solche Diagonalmatrix ist genau dann invertierbar, wenn alle Diagonalelemente dii von 0 verschieden sind. In diesem Fall ist die Inverse von D ebenfalls eine Diagonalmatrix, und ihre Diagonalelemente sind die Inversen der entsprechenden Diagonalelemente der Ausgangsmatrix: D−1 = (cij ) mit cii = dii −1 und cij = 0 für i 6= j. (2) Während für Einheitsvektoren w die Projektionsmatrix P = E − w wT nicht invertierbar ist (warum?), ist die symmetrische Spiegelmatrix S = E − 2 w wT zu sich selbst invers, d.h. S 2 = SS = E. Speziell ist eine ebene Spiegelung an einer Geraden mit Steigungswinkel ϕ/2 selbstinvers und wird dargestellt durch die Spiegelmatrix Sϕ =
cos ϕ
sin ϕ
!
= Sϕ T = Sϕ −1 .
sin ϕ − cos ϕ
(3) Eine ebene Drehung um den Winkel ϕ und ihre Inverse werden dargestellt durch die Drehmatrizen Dϕ =
cos ϕ − sin ϕ sin ϕ
cos ϕ
!
, Dϕ −1 = D−ϕ =
cos ϕ
sin ϕ
− sin ϕ cos ϕ
!
= Dϕ T .
(4) Im Raum R3 ist die Drehung um die Achse w und den Winkel ϕ offenbar invers zur Drehung um die gleiche Achse und den Winkel −ϕ. Also ist die Drehmatrix D = cos(ϕ) E + (1 − cos(ϕ)) w wT + sin(ϕ) Vw invers zur Drehmatix D−1 = cos(ϕ) E + (1 − cos(ϕ)) w wT − sin(ϕ) Vw .
Sowohl Spiegel- als auch Drehmatrizen sind stets orthogonal. Im Gegensatz zu Drehmatrizen sind Spiegelmatrizen symmetrisch. Eine räumliche Spiegelung an einer Geraden kann man auch als Drehung um diese Gerade (mit Drehwinkel π) ansehen.
KAPITEL 3. MATRIZEN
45
3.3.16 Definition. Drehspiegelungen entstehen durch Hintereinanderschalten einer Drehung und einer Spiegelung an einer Ebene, oder umgekehrt. 3.3.17 Beispiel. Die Spiegelung am Ursprung (Punktspiegelung) x 7−→ −x ist ein spezielle Drehspiegelung. Sie entsteht z. B. durch Spiegelung an der x3 -Achse und anschließende Spiegelung an der x1 -x2 -Ebene, oder umgekehrt. Wir könnten aber auch eine halbe Drehung um die x1 -Achse machen und an der x2 -x3 -Ebene spiegeln, etc. Meist kommt es auf die Reihenfolge der Hintereinanderausführung an! Wir stellen ohne Beweis eine Liste von Eigenschaften zusammen, die Drehungen, Spiegelungen und Drehspiegelungen im Raum charakterisieren. 3.3.18 Satz. (Hauptsatz über Drehungen und Spiegelungen) Für eine Abbildung f : R3 −→ R3 sind folgende Aussagen sämtlich äquivalent: (a) f ist eine Drehung, eine Spiegelung an einer Ebene oder eine Drehspiegelung. (b) f bewahrt den Ursprung und Abstände: f (0 ) = 0 und kf (x) − f (y)k = kx − yk. (c) f bewahrt Längen und Winkel: kf (x)k = kxk und cos ∠(f (x), f (y)) = cos ∠(x, y). (d) f bewahrt Längen und Flächeninhalte: kf (x × y)k = kf (x) × f (y)k = kx × yk. (e) f bewahrt Längen und Volumina: kf (x)k = kxk und kf (x)f (y)f (z)k = kxyzk. (f) f bewahrt Skalarprodukte: f (x) · f (y) = x · y. (g) f bewahrt Längen und ist linear. (h) f ist linear und bildet Orthonormalbasen auf Orthonormalbasen ab. (i) f wird durch eine orthogonale Matrix dargestellt. Im Fall einer Abbildung f der Ebene sind die obigen Eigenschaften mit Ausnahme von (e) charakteristisch für Drehungen um 0 und Spiegelungen an einer Geraden durch 0 . Ebene Spiegelungen haben eine Fixgerade, echte ebene Drehungen haben nur 0 als Fixpunkt. 3.3.19 Folgerung. (Klassifikation orthogonaler Matrizen mittels Fixpunkten x = Ax) Matrix
Fixpunktraum
Rang (A−E)
Einheitsmatrix
dreidimensionaler Raum
0
Spiegelmatrix
Ebene (Spiegelebene)
1
Drehmatrix
Gerade (Drehachse)
2
Drehspiegelmatrix
{0 } (Spiegelzentrum)
3
Aus Beispiel 3.2.8 (5) resultieren Achse und Winkel einer Drehmatrix: 3.3.20 Folgerung. Eine von ±E verschiedene Matrix D = (dij ) ∈ R3×3 beschreibt genau dann eine Drehung, wenn sie orthogonal ist und Rang (D−E) = 2 gilt. Drehwinkel ϕ und Drehachsen-Einheitsvektor w sind dann gegeben durch 1 ϕ cos ϕ = 12 (d11 + d22 + d33 − 1), w = (d32 − d23 , d13 − d31 , d21 − d12 )T ( 6∈ Z). 2 sin ϕ π
KAPITEL 3. MATRIZEN
3.4
46
Elementarmatrizen und Umformungen
Im Folgenden werden Methoden (sogenannte elementare Umformungen) zur konkreten Bestimmung des Ranges, der Inversen (falls existent) und der Lösungen linearer Gleichungssysteme betrachtet. Sie sind auch beim Test der linearen (Un–)Abhängigkeit von Nutzen. 3.4.1 Definition. (Elementarmatrizen) Eine Elementarmatrix ist eine Matrix der Form E + r Eij , wobei im Falle i = j noch r 6= −1 verlangt wird. Dadurch ist gesichert, dass jede Elementarmatrix invertierbar ist. Es gibt also die folgenden beiden Typen von Elementarmatrizen:
0 ··· ··· ··· ··· 0 .. .. .. . . 0 . .. .. . . .. . . . 1 . .. . . . .. .. .. s (1) Di (s) = . . . . .. .. .. . . . 1 . . . . .. .. 0 . 1
0 ··· ··· ··· ···
0 ··· .. .. . . 0 . . .. . . . .. .. (2) Eij (r) = ... . . .. . . . 1
0
= E + (s − 1)Eii (s 6= 0).
1
··· ··· ··· 0 .. . .. .. . r . .. .. .. . . . . . . . . . .. . . . . .. .. . 0 .
0 ··· ··· ··· ···
0
= E + r Eij (i 6= j).
1
Gelegentlich bezeichnet man auch die folgenden Transpositionsmatrizen, die aus Einheitsmatrizen durch Vertauschen der i–ten und j–ten Zeile entstehen, als Elementarmatrizen:
0 ··· ··· ··· ··· ··· 0 .. . .. . . 0 .. . .. . .. . 1 . 0 0 . .. .. . 0 0 1 . (3) Tij = . .. . . 1 0 0 . . . .. . . ... 0 0 1 . .. .. . . . 0 . 1
0 ··· ··· ··· ··· ···
0
1
= E − Eii − Ejj + Eij + Eji .
KAPITEL 3. MATRIZEN
47
Eine einfache Rechnung zeigt jedoch, dass jede Transpositionsmatrix ein Produkt von Elementarmatrizen des Typs (1) und (2) ist: Tij = (E − Eij )(E − 2Ejj )(E − Eji )(E + Eij ) = Eij (−1) · Dj (−1) · Eji (−1) · Eij (1). 3.4.2 Satz. (Elementare Umformungen) (1) Eine Multiplikation von links mit Di (s) bewirkt eine Multiplikation der i–ten Zeile mit dem skalaren Faktor s. (2) Eine Multiplikation von links mit Eij (r) bewirkt eine Addition der r–fachen j–ten Zeile zur i–ten Zeile. (3) Eine Multiplikation von links mit Tij bewirkt eine Vertauschung von i–ter und j–ter Zeile. Analog: Spaltenumformung durch Multiplikation von rechts. 3.4.3 Folgerung. (Invarianz unter elementaren Umformungen) Bei elementaren Spalten– bzw. Zeilenumformungen ändert sich der Spalten– bzw. Zeilenraum nicht. Daher bleibt der Rang bei Spaltenumformungen gleich. Außerdem ändert sich bei elementaren Zeilenumformungen der Kern der zugehörigen linearen Abbildung nicht. Wegen der Kern-Bild-Dimensionsformel bleibt auch hier der Rang erhalten. Umformungen vom Typ 3 lassen sich auf Typ 1 und 2 zurückführen. 3.4.4 Satz. (Zeilenstufenform) Jede Matrix A läßt sich durch elementare Zeilenumformungen auf sogenannte Zeilenstufenform bringen. Genauer gibt es eine invertierbare Matrix C mit
1
0
?
0
0
?
0 ?
CA =
0 .. . .. . .. . .. . .. .
1
?
0
0
?
0 ?
0
0
1
0
?
0 ?
0
1
?
0
0
0 ? . 1 ?
0 0 .. .. . .
0 ··· ··· ··· ··· ··· 0 0 Falls A invertierbar ist, gilt insbesondere CA = E, also C = A−1 . Im nächsten Abschnitt über lineare Gleichungssysteme werden wir genauer beschreiben, wie die Umformung auf Zeilenstufenform vor sich geht. Insbesondere ist damit dann ein Verfahren zur Berechnung der inversen Matrix A−1 gegeben. 3.4.5 Definition. (Dreiecksmatrizen) Eine obere (bzw. untere) Dreiecksmatrix ist eine Matrix A = (aij ) ∈ K n×n mit aij = 0 für i > j (bzw. i < j). Eine Diagonalmatrix ist sowohl obere als auch untere Dreiecksmatrix, d. h. von
KAPITEL 3. MATRIZEN
48
der Form
r1
0 ..
D = diag (r1 , . . . , rn ) =
.
.
0
rn
3.4.6 Folgerung. (Trigonalisierung quadratischer Marizen) Jede quadratische Matrix läßt sich durch elementare Zeilenumformungen in eine obere Dreiecksmatrix transformieren. 3.4.7 Definition. Zwei Matrizen A, A0 ∈ K m×n heißen äquivalent, in Zeichen A ∼ A0 , falls es invertierbare Matrizen B und C mit A0 = CAB gibt. Der Name ist gerechtfertigt, denn ∼ ist eine Äquivalenzrelation auf K m×n . 3.4.8 Definition. (Normalform) Eine Matrix der Form Erm,n
:=
Er 0 0
!
∈ K m×n
0
heißt Normalform einer Matrix A, falls A ∼ Erm,n gilt. Speziell ist Enn,n = En die n–reihige Einheitsmatrix mit dem Rang n, und E0m,n = O ist die m × n–Nullmatrix mit dem Rang 0. 3.4.9 Beispiel. r = 2, m = 3 und n = 4:
1 0 0 0
3,4 E23,4 = 0 1 0 0 , Rang E2 = 2. 0 0 0 0
3.4.10 Satz. (Normalform und Rang) Eine Matrix A ∈ K m×n hat genau dann Rang r, wenn sie zu Erm,n äquivalent ist. In diesem Fall lässt sich A durch elementare Zeilen- und Spaltenumformungen in Erm,n transformieren. Folglich sind zwei Matrizen genau dann äquivalent, wenn sie gleichen Rang bzw. gleiche Normalform haben. Speziell ist eine quadratische Matrix A aus K n×n genau dann invertierbar, wenn sie zur Einheitsmatrix En äquivalent ist (also Rang n hat). Zwei unmittelbare, aber keineswegs triviale Konsequenzen: 3.4.11 Folgerung. (Spaltenrang = Zeilenrang) Für jede Matrix A gilt Rang A = Rang AT . 3.4.12 Folgerung. (Produktdarstellung invertierbarer Matrizen) Eine Matrix ist genau dann invertierbar, wenn sie ein Produkt von Elementarmatrizen ist.
KAPITEL 3. MATRIZEN
3.5
49
Lineare Gleichungssysteme
Zur Erinnerung: Der Zeilenraum bzw. Spaltenraum einer Matrix ist der Unterraum, der von den Zeilen bzw. Spalten der Matrix erzeugt wird. Der Spaltenraum ist also nichts Anderes als das Bild der Matrix. Den Kern der Matrix nennt man auch Nullraum. Die Matrixschreibweise ermöglicht nun eine kompakte Darstellung linearer Gleichungssysteme: 3.5.1 Definition. (Lineare Gleichungssysteme) Ein System von Gleichungen der Form a11 x1 + ... + a1n xn .. .. . .
=
b1 .. .
am1 x1 + ... + amn xn = bm heißt lineares Gleichungssystem. In Matrixschreibweise mit A = (aij ) ∈ K m×n , x ∈ Kn , b ∈ Km lautet es: Ax = b, wobei A und b gegeben sind und x gesucht ist. Die Lösungen bilden den Lösungsraum. Im Falle b = 0 heißt das Gleichungssystem homogen. 3.5.2 Satz. (Lösungsraum) Das lineare Gleichungssystem Ax = b mit A ∈ K m×n und b ∈ Kn ist genau dann lösbar, wenn der Rang von A gleich dem Rang der „geränderten” Matrix (A, b) aus K m×(n+1) ist. Der Lösungsraum ist ein affiner Teilraum. Jede Lösung setzt sich additiv aus einer speziellen Lösung von Ax = b und allen Lösungen des homogenen Gleichungssystems Ax = 0 zusammen, die einen Unterraum von Kn bilden. Um ein konkret vorgegebenes lineares Gleichungssystem zu vereinfachen und schließlich zu lösen (oder seine Unlösbarkeit festzustellen), nimmt man elementare Zeilenumformungen vor: (1) Zeilenvertauschungen, (2) Multiplikation einer Zeile mit einer von 0 verschiedenen Zahl, (3) Addition eines Vielfachen einer Zeile zu einer anderen. 3.5.3 Lemma. (Invarianz von Rang und Lösungsraum) Bei elementaren Zeilenumformungen bleibt sowohl der Zeilenraum als auch der Lösungsraum unverändert, sofern man alle Umformungen nicht nur auf die Matrix A, sondern auch auf die „rechte Seite” b anwendet. Denn elementare Zeilenumformungen werden durch Multiplikation von links mit entsprechenden Elementarmatrizen C bewirkt, und da diese invertierbar sind, gilt Ax = b ⇔ CAx = Cb.
KAPITEL 3. MATRIZEN
50
3.5.4 Algorithmus. (Gauß–Jordansches Eliminationsverfahren) Gegeben sei ein lineares Gleichungssystem Ax = b. Mit dem folgenden, nach den Mathematikern Gauß und Jordan benannten Verfahren erzeugt man so viele Nullen, dass die Lösung am Schluss „vom Himmel fällt”. (Alle Umformungen sind auch an der rechten Seite vorzunehmen!) 1. Schritt: „Regentropfen” Falls die erste Spalte nur Nullen enthält, geht man gleich zur zweiten Spalte über. Andernfalls bringt man mit Hilfe der Umformungen (1) und (2) eine 1 in die linke obere Ecke. Jetzt macht man mittels (3) alle Einträge unter der ersten 1 zu 0. Mit der nächsten Spalte verfährt man ebenso, indem man zunächst eine 1 an die zweitoberste Stelle bringt oder zur dritten Spalte übergeht. Man setzt das Verfahren fort, bis eine „Zeilenstufenform” entstanden ist, bei der unterhalb der Stufen nur Nullen und an den Stufenabsätzen jeweils Einsen stehen. 2. Schritt: „Querschuss” Jetzt kann man bereits eine Basis für der Zeilenraum der Matrix A und den Rang ablesen: Er ist gleich der Stufenzahl. Durch waagerechten Vergleich testet man, ob bei jeder Nullzeile der Matrix auch das entsprechende Element der rechten Spalte gleich 0 ist. Falls ja, läßt man diese Zeilen weg. Andernfalls hat das Gleichungssystem keine Lösung und der Algorithmus ist beendet. 3. Schritt: „Luftblasen” Analog zu Schritt 1 gewinnt man durch Erzeugung von Nullen aufwärts über den „Stufen-Einsen” Einheitsvektoren in den Stufenspalten. 4. Schritt: „Einschub” Für jede fehlende Stufe ergänzt man einen negativen Einheits–Zeilenvektor, so dass eine quadratische obere Dreiecksmatrix mit den Werten ±1 auf der Diagonale entsteht. 5. Schritt: „Streichresultat” Alle Spalten mit „Diagonal-Eins” werden gestrichen. Ergebnis: Die übrig bleibenden Spalten bilden eine Basis des Lösungsraums U des homogenen Gleichungssystems Ax = 0 . Der Lösungsraum des Gleichungssystems Ax = b ist der affine Teilraum c + U , wobei c der zuletzt erhaltene Spaltenvektor auf der rechten Seite ist.
A
b
1 1 0 0 ? 0
1 0
1 1 1
000 0
0 0 0
6
1
0 ?
0 1
0 0 1
1 ∗ 0 ∗ 0 -1 0 0 1 ∗ 0 0 0 -1
0 ∗ 0 0 0 ∗ 0 0 1 ∗ 0 0 0 0 0 -1
0 0 0
∗ ∗ ∗ -1 0 0 ∗ ∗ 0 -1 0 ∗ 0 0 -1
c
KAPITEL 3. MATRIZEN
51
3.5.5 Bemerkung. (Orthogonalräume als Lösungsräume) Eine geordnete Basis B = (b1 , ..., bn ) eines Unterraumes U von Km kann man als m × n-Matrix auffassen, und der Orthogonalraum U ⊥ ist der Lösungsraum des homogenen Gleichungssystems BT x = 0 . Umgekehrt ist für jedes homogene Gleichungssystem Ax = 0 der Lösungsraum der Orthogonalraum des Spaltenraumes von AT . Dies bestätigt die Ranggleichung Rang A = Rang AT . 3.5.6 Beispiel. (Basis eines Orthogonalraumes zur Raumdiagonalen) Gesucht ist eine Basis des Orthogonalraumes zu der Geraden durch (1, 1, 1) bzw. (1, 1, 1)T . Nur der vorletzte und letzte Schritt des Gauß-Jordan-Verfahrens ist hier noch zu vollziehen.
1
1
1
0 −1
0
1
1
0 , L = R −1 + R 0 . −1 0 0 −1
Der Orthogonalraum hierzu wird wegen U ⊥⊥ = U von dem Ausgangsvektor (1, 1, 1) erzeugt. Das kann man durch nochmaliges Lösen eines Gleichungssystems bestätigen. Wir schreiben die Basisvektoren des Lösungsraumes L als Zeilen: 1 −1 1
0
!
.
0 −1
Regentropfen: Subtraktion der ersten von der zweiten Zeile liefert 1 −1 0
0
!
.
1 −1
Luftblasen: Addition der zweiten Zeile zur ersten ergibt 1 0 −1
!
.
0 1 −1
Einschub des negativen dritten Einheitsvektors führt auf die quadratische Matrix
1 0 −1
0 1 −1
0 0 −1 ... und deren letzte Spalte erzeugt den Lösungsraum von Ax = 0 . Das ist bis auf das Vorzeichen wieder der (transponierte) ursprüngliche Vektor. 3.5.7 Beispiel. (Symmetrische Durchlaufmatrizen) Wir betrachten die Gleichungssysteme Ax = 0 mit den quadratischen Matrizen A = (aij ), wobei aij = i + j − 1. Die entsprechende 4×4–Matrix sieht so aus:
1 2 3 4
2 3 3 4
4 5
.
5 6 4 5 6 7
KAPITEL 3. MATRIZEN
52
Wir lassen die Regentropfen fallen, subtrahieren also Vielfache der ersten Zeile von den anderen Zeilen und multiplizieren diese anschließend mit −1:
1 2 3 4
0 1 0 2
2 3 . 4 6
0 3 6 9 Addition von negativen Vielfachen der zweiten Zeile zu den darunterliegenden erzeugt mehrere Nullzeilen. Wir lassen diese weg und erhalten eine Basis des Zeilenraumes: 1 2 3 4
!
.
0 1 2 3 Bleibt noch ein Luftblasenschritt: 1 0 −1 −2 0 1
2
!
.
3
Jetzt der Einschub der negativen Einheitsvektoren:
1 0 −1 −2
0 1 2 0 0 −1
3
.
0
0 −1
0 0
Und schließlich ergibt Streichen der Spalten mit Diagonal-Einsen eine Basis des Lösungsraumes, der wegen A = AT der Orthogonalraum des Spaltenraumes ist!
−1 −2
2 −1
3
.
0
0 −1
Im Falle invertierbarer Matrizen ist das Gauß-Jordan-Verfahren ebenfalls sehr nützlich: 3.5.8 Folgerung. (Matrizeninversion) Für A ∈ K n×n sind folgende Aussagen äquivalent: (a) A ist invertierbar. (b) Ax = 0 ist nur trivial (durch x = 0 ) lösbar. (c) Ax = b ist universell (für jedes b ∈ Kn ) lösbar. (d) Ax = b ist universell eindeutig lösbar (durch x = A−1 b). Sind diese Bedingungen erfüllt, so hat für jede Matrix B ∈ K n×m die Matrixgleichung AX = B die eindeutige Lösung X = A−1 B. Man findet sie, indem man auf A und B genau die gleichen elementaren Zeilenumformungen anwendet, bis aus A die Einheitsmatrix wird. Aus B ist dann die Lösungsmatrix X = A−1 B geworden. Speziell ergibt sich für B = E die Inverse A−1 . Dieses Verfahren deckt auch auf, ob es sich überhaupt um eine invertierbare Matrix handelt: Ergeben Umformungen eine Nullzeile, so ist Rang A < n, die Matrix also nicht invertierbar.
KAPITEL 3. MATRIZEN
53
3.5.9 Beispiel. (Hilbert-Matrizen) Diese nach dem Mathematiker David Hilbert benannten Matrizen spielen in zahlreichen Anwendungen eine wichtige Rolle und sind definiert durch 1 . Hn = (hij ) ∈ Rn×n mit hij = i+j−1 Sie sind stets invertierbar, obwohl die Zeilen „fast” linear abhängig sind: Die Winkel zwischen je zwei Zeilenvektoren sind sehr klein. Die inverse Hilbertmatrix Hn−1 hat stets alternierende ganzzahlige Einträge, die betragsmäßig riesengroß werden! Wir rechnen den Fall n = 3 durch: H3
E3 1 3 1 4 1 5 1 3 1 12 4 45 1 3
1
1 2 1 3 1 4 1 2 1 12 1 12 1 2
0
1
1
0
1
1
1 2
16 15 1 3
0
1
1
0
0
1
1 2
1 15 1 3
0
1
0
1 1 2 1 3
1 0 0
1
0
0
0
1
0
0
0
1
1
0
0
− 21 − 13
1
0
0
1
1
0
0
−6 12
0
−4 0 12 1
0
0
−6 12
0
2 −12 12 1
0
0
1
−6 12
0
0
1
30 −180 180
1
1 2
0
−9
0
1
0
−36 192 −180
0
0
1
30 −180 180
1
0
0
9 −36 30
0
1
0
−36 192 −180
0
0
1
30 −180 180
60 −60
H3−1
E3
Als Kuriosität und zur Demonstration, wie groß die Koeffizienten der inversen Hilbert-Matrizen werden, sei hier noch die explizite Formel erwähnt: Unter Verwendung der Binomialkoeffizienten Hn−1
n k
=
n! k!(n−k)!
n+i−1 = (gij ) mit gij = (−1)i+j (i + j − 1) n−j
gilt: !
n+j−1 n−i
!
i+j−2 i−1
!2
.
KAPITEL 3. MATRIZEN
54
3.5.10 Beispiel. (Inversion einer 2×2–Matrix) Wir testen die Wirkung des Gauß-Jordan-Algorithmus bei der Inversion einer beliebigen 2×2– Matrix. In die linke Spalte schreiben wir die jeweilige Multiplikation von links mit der geeigneten Elementarmatrix. Mult.
A
v. l.
(a 6= 0) a
Mult.
A
E
v. l.
(a = 0)
b
1
0
0
b
1
0
c d
0
1
c d
0
1
1 a
0
0
1
c d
0
1
1
1
0
0
b
1
0
d c
0
1 c
0
1
b a
0 1
c
d
0
1 0
1
−c 1
0
1 a − ac 1 a − ∆c d ∆ − ∆c
1 a
∆ = ad − bc
E
1
0
1
b a ∆ a b a
0
0
1
1
a ∆ − ab
1
0
0
1
0
1
0
1 c
0
1
1
0
1
0
b
1
0
0
1 c
1 b d − bc 1 b
0
0
A invertierbar ⇔ ∆ 6= 0
a ∆ − ∆b a ∆
A−1
E
A−1 =
1 ∆
d −b −c
1
0
1
d c
0
0
1
1
1 b − dc
0
1
1 0 0 1
1 c
0
!
E
A−1
a
Hieraus resultieren unmittelbar die Darstellungen als Produkte von Elementarmatrizen:
−1
A
=
1 − ab 0
A−1 =
1
1 − dc 0
!
!
1
1
0
0
a ∆
!
!
1 0 −c 1
1
0
0
1 b
!
1 a
!
0
(a 6= 0, ∆ 6= 0)
0 1
1 c
0
0
1
!
0
1
1
0
!
(a = 0, b 6= 0 6= c)
und daraus durch nochmalige Inversion A=
A=
a
0
0
1
0
1
1
0
!
!
1
0
c
1
c
0
0
1
!
!
1
0
0
∆ a
1
0
0
b
!
!
1
b a
0
1
1
d c
0
1
!
(a 6= 0, ∆ 6= 0) !
(a = 0, b 6= 0 6= c)
Für die letzten beiden Gleichungen beachte man, dass sich beim Invertieren eines Produkts die Reihenfolge der invertierten Faktoren umkehrt, und dass folgende Regeln allgemein für die Inversion von Elementarmatrizen gelten: Eij (r)−1 = Eij (−r) (i 6= j) Di (s)−1 = Di (s−1 ) Tij−1 = Tij