3.3 Lineare Abbildungen und Matrizen

3.3. LINEARE ABBILDUNGEN UND MATRIZEN 3.3 87 Lineare Abbildungen und Matrizen Wir wollen jetzt die numerische Behandlung linearer Abbildungen zwis...
Author: Kora Michel
32 downloads 2 Views 118KB Size
3.3. LINEARE ABBILDUNGEN UND MATRIZEN

3.3

87

Lineare Abbildungen und Matrizen

Wir wollen jetzt die numerische Behandlung linearer Abbildungen zwischen Vektorr¨ aumen beschreiben, bei der vorgegebene Basen die Hauptrolle spielen. Dazu sei daran erinnert, daß f : K V → K V 0 genau dann linear, also ein KHomomorphismus ist, kurz: f ∈ HomK (V, V 0 ), wenn f (u + v) = f (u) + f (v) und f (κv) = κf (v) gelten, f¨ ur alle u, v ∈ V und alle κ ∈ K. Es ist bereits erw¨ahnt worden, daß man diese beiden Bedingungen auch durch die einzige Bedingung f (κu + λv) = κf (u) + λf (v) ersetzen kann. Lineare Abbildungen sind also Abbildungen zwischen Vektorr¨aumen mit demselben Grundk¨ orper K, wir k¨onnen deshalb den Index K meistens weglassen. Diese Definition der Linearit¨ at kann man auch mit Hilfe des Begriffs der linearen Beziehung formulieren, was den Durchblick verbessert: f ist genau dann linear, wenn X X f( κi vi ) = κi f (vi ) i

i

P

P gilt, so daß aus i κi vi = 0, wegen f (0) = 0, folgt i κi f (vi ) = 0. Lineare Abbildungen erhalten also lineare Beziehungen, genauer: eine lineare Beziehung zwischen Urbildern vi u agt sich auf deren Bilder f (vi ) : ¨bertr¨ X X κi vi = 0 =⇒ κi f (vi ) = 0. i

i

Es gilt auch die Umkehrung: Werden lineare Beziehungen erhalten, dann ist die Abbildung linear, denn aus 0 = w − u − v folgt dann 0 = f (w) − f (u) − f (v) und damit f (u) + f (v) = f (w) = f (u + v). Analog ergibt sich f (κu) = κf (u), denn 0 = w − κu impliziert 0 = f (w) − κf (u), so daß κf (u) = f (w) = f (κu) folgt. Wir fassen dies mit weiteren sehr wichtigen Eigenschaften solcher linearen Abbildungen zusammen in 3.3.1 Satz F¨ ur K-Vektorr¨ aume V, V 0 und eine Teilmenge T von V gilt: i) Genau diejenigen f : V → V 0 sind P Plinear, die lineare Beziehungen erhalten (d.h. 0 = κi vi impliziert 0 = κi f (vi )). ii) Bilder linear unabh¨ angiger Teilmengen unter injektiven linearen Abbildungen sind linear unabh¨ angig. iii) Ist V = KhT i, f¯: T → V 0 , dann kann f¯ genau dann zu einer linearen Abbildung f : V → V 0 fortgesetzt werden, wenn f¯ lineare Beziehungen erh¨ alt. Eine solche lineare Abbildung ist gegebenenfalls eindeutig bestimmt. iv) Auf linear unabh¨ angigen Teilmengen T definierte Abbildungen sind linear fortsetzbar, auf Basen B definierte sogar eindeutig.

88 v) Ist f ∈ HomK (V, V 0 ), dann gilt f (KhT i) = Khf (T )i. vi) Ist T ⊆ K V, dann gilt: a) f ∈ EpiK (V, V 0 ), V = KhT i =⇒ V 0 = Khf (T )i, b) f ∈ MonoK (V, V 0 ), V = K  B  =⇒ f (V ) = K  f (B) , c) f ∈ IsoK (V, V 0 ), V = K  B  =⇒ V 0 = K  f (B)  . Beweis: i) wurde bereits bewiesen, ii) ist leicht nachzupr¨ ufen. Zum Beweis von iii) betrachten wir das Diagramm ι

T

- V

@ @ f¯ @

f @ R @

? V0

wobei ι: T → V, t 7→ t ist, die Einbettung von T in V. Wegen der Injektivit¨at von ι gibt es — nach dem Abbildungssatz — eine Abbildung f, f¨ ur welche dieses Diagramm kommutativ ist, die also f¯ auf V fortsetzt. Dar¨ uberhinaus ist jede Fortsetzung von f¯, d.h. jede Abbildung von V nach V 0 mit f (t) = f¯(t), eine kommutative Erg¨ anzung des Diagramms, also auch die Abbildung X X f : V → V 0, κt t 7→ κt f¯(t), t

t

wenn diese wohldefiniert ist, d.h. wenn sie lineare Beziehungen auf T erh¨alt. Und dieses f ist ganz offensichtlich eine lineare Abbildung. Weil T ganz V erzeugt, ist sie sogar eindeutig bestimmt. Das beweist iii), iv) und v) und vi) folgen hieraus unmittelbar. 2 Sind V und V 0 endlichdimensional und B, B 0 Basen, dann wird nach 3.3.1 jedes f ∈ HomK (V, V 0 ) durch Angabe der Bilder f (b), b ∈ B, vollst¨andig bestimmt. Zur systematischen numerischen Beschreibung von f ordnen wir deshalb B und B 0 zu Basisfolgen an: B = (b0 , . . . , bn−1 ), B 0 = (b00 , . . . , b0m−1 ). f ist dann vollst¨ andig bestimmt durch die Koeffizienten aik aus den Gleichungen 3.3.2

f (bk ) =

m−1 X

aik b0i .

i=0

Diese Koeffizienten aik (die von f, B und B 0 abh¨angen !) f¨ ullen die m×n−Matrix 3.3.3

M (B 0 , f, B) := (aik ).

3.3. LINEARE ABBILDUNGEN UND MATRIZEN

89

(Die dabei beachtete Konvention, das Bild des k−ten Basisvektors in die k−te Spalte zu schreiben (genauer: dessen Komponenten bzgl. B 0 ), heißt die Spaltenkonvention. Gelegentlich findet man auch B¨ ucher, in denen die Zeilenkonvention benutzt wird.) 3.3.4 Beispiele Im folgenden bezeichnen wir mit E bzw. En stets die Standardbasisfolge (e0 , . . . , en−1 ) von Kn , wobei   0  ..  .   0   ei :=  1  .   0 .  ..  0 Mit den Basisfolgen B1 := (e1 , e0 ), B10 := (

            3 1 2 4 1 4 , ), B2 := ( , ), B20 := ( , ) 3 2 3 5 3 7

von R V := R R2 =: V 0 gilt dann f¨ ur die lineare Abbildung     α y f : V → V 0, 7→ y y folgendes:  M (E, f, E) =

0 0

1 1



, M (B10 , f, B1 )

M (B20 , f, B2 )

 =

 =

−9/5 −3 6/5 2

1/3 0 0 0

 ,

 . 3

Die m×n-Matrizen beschreiben also die linearen Abbildungen, aber es gilt noch mehr, denn auch die Komposition zweier linearen Abbildungen wird durch eine Matrix beschrieben, die das Produkt der Matrizen der Kompositionsfaktoren ist. Hierzu m¨ ussen wir aber erst einmal ein Produkt definieren. Zusammen mit der (kanonischen) Addition ergibt sich dabei sogar eine Ringstruktur auf den quadratischen Matrizen vorgegebener Zeilen und Spaltenzahl! 3.3.5 Definition Ist R ein Ring, m, n ∈ N∗ , dann heißen die Elemente von Rm×n = {(aik ) | aik ∈ R, i ∈ m, k ∈ n} die m × n−Matrizen u age aik von A = (aik ) ∈ ¨ber R. Die Elemente oder Eintr¨ Rm×n werden wie folgt in Zeilen und Spalten angeordnet:   a00 a12 ... a0,n−1 a11 ... a1,n−1   a A =  10 , ... ... am−1,0 am−1,1 . . . am−1,n−1

90 i ist also der Zeilenindex, k der Spaltenindex.



3.3.6 Hilfssatz i) Rm×n ist R−Linksmodul mit der punktweisen Addition und Skalarmultiplikation: (aik ) + (bik ) := (aik + bik ), r(aik ) := (raik ). ii) Rm×m ist Ring mit der punktweisen Addition und folgender Multiplikation: m−1 X (aik) (bik ) := ( aij bjk ). j=0

Beweis: Nachrechnen. 2 Diese Produktbildung l¨aßt sich auf nicht quadratische Matrizen verallgemeinern, vorausgesetzt, die Spaltenzahl des linken Faktors gleicht der Zeilenzahl des rechten Faktors: 3.3.7 Hilfssatz Matrix

F¨ ur A ∈ Rm×n, , B ∈ Rn×p definiert man als Produkt die AB := (

n X

aij bjk ).

j=1

Die Produktbildung ist u ¨berall dort, wo sie definiert ist, assoziativ und distributiv: A(BC) = (AB)C, A(B + C) = AB + AC, (A + B)C = AC + BC. 2

Beweis: Nachrechnen. m×m

F¨ ur m > 1 ist der Ring R i.a. nicht kommutativ, z.B. dann, wenn R ein Ring mit 1 ist:             1 0 0 1 0 1 0 0 0 1 1 0 · = 6 = = · . 0 0 0 1 0 0 0 0 0 1 0 0 Ist R ein Ring mit Eins, dann ist auch Rm×m ein Ring mit Einselement   1 0 .  .. Em :=  0 1 Diese Matrix heißt Einheitsmatrix. Eine Matrix A ∈ Rm×m heißt dann invertierbar oder regul¨ ar, wenn es C ∈ Rm×m gibt mit AC = CA = Em . Die Matrix D = (dik ) ∈ Rn×m mit dik := aki heißt die zu A ∈ Rm×n transponierte Matrix und wird mit t A

3.3. LINEARE ABBILDUNGEN UND MATRIZEN

91

bezeichnet. Ist R kommutativ, dann gilt, f¨ ur A ∈ Rm×n , B ∈ Rn×p : t

(AB) = tB tA.

Sind A, B ∈ Rm×m invertierbar, dann gilt (AB)−1 = B −1 A−1 . 3.3.8 Satz Ist dim VK = n, dim VK0 = m, so gilt, f¨ ur Basisfolgen B von V, B 0 0 von V : ϕB,B0 : HomK (V, V 0 ) 'K Km×n , f 7→ M (B 0 , f, B), und die Abbildung ϕB,B : EndK (V ) → Kn×n , f 7→ M (B, f, B) ist ein Isomorphismus zwischen Ringen mit Eins. Beweis: i) Unmittelbar aus der Definition von M (B 0 , f, B) und den Definitionen der Verkn¨ upfungen in Km×n folgt, daß ϕB,B0 Homomorphismus, linear und injektiv ist. Die Surjektivit¨ at ist ebenfalls offensichtlich: Jede m × n−Matrix beschreibt eine lineare Abbildung. ii) Die Homomorphie von ϕB,B bzgl. Addition folgt aus i). F¨ ur die Multiplikation haben wir zu zeigen, daß M (B, g ◦ f, B) = M (B, g, B) · M (B, f, B). Dies ergibt sich so: (g ◦ f )(bk )

= g

X

aik bi =

X

i

=

X

aik g(bi )

i

aik bji bj =

i,j

XX ( bji aik )bj . j

i

2

Die Tatsache ϕB,B (idV ) = Em ist trivial. 0

00

Ganz analog folgt, f¨ ur endlichdimensionale V, V , V , lineare Abbildungen f ∈ HomK (V, V 0 ), g ∈ HomK (V 0 , V 00 ) und Basisfolgen B, B 0 und B 00 : 3.3.9

M (B 00 , g, B 0 )M (B 0 , f, B) = M (B 00 , g ◦ f, B),

d.h. die Matrixmultiplikation ist gerade so eingerichtet, daß das Produkt der Matrizen die Komposition der entsprechenden linearen Abbildungen beschreibt! P Ist VK = K  B  und v = b∈B κb b, dann heißen die κb die Komponenten von v bzgl. B. Im endlichdimensionalen Fall (wenn B = (b0 , . . . , bn−1 ) Basisfolge ist), ergibt sich der Isomorphismus   v0 n−1 X . ϕ: V 'K Kn , v 7→  ..  , f alls v = vi bi . i=0 vn−1

92 3.3.10 Folgerung Je zwei n-dimensionale K−Vektorr¨ aume sind also zueinander isomorph, d.h. es gibt, zu vorgegebenem K¨ orper K und vorgegebener nat¨ urlicher Zahl n, bis auf Isomorphie genau einen K-Vektorraum mit dieser Dimension. Sehr wichtig ist noch, wie man mit Hilfe der f ∈ HomK (V, V 0 ) darstellenden 0 Matrix A eines Vektors P ermittelt. P = M (B , f, B) die Komponenten des Bildes P Ist v = i vi bi , dann gilt n¨amlich, wenn f (v) = v 0 = vi0 b0i : vi0 = k aik vk , oder, in Matrixschreibweise:  0    v0 v0  ..  . 3.3.11  .  = A ·  ..  . 0 vm−1 vn−1 Sehen wir uns noch an, wie sich die eine lineare Abbildung beschreibende Matrix bei einem Basiswechsel verh¨alt: Sind B1 , B2 bzw. B10 , B20 Basisfolgen endlichdimensionaler Vektorr¨aume, und sind C = (cik ), D = (dik ) die jeweiligen ¨ Ubergangsmatrizen, d.h. es gilt X X b1k = cik b2i , b01 dik b02 k = i , i

i

dann folgt aus 3.3.9, wegen C = (cik ) = M (B2 , id, B1 ), D = (dik ) = M (B20 , id, B10 ), daß M (B20 , f, B1 ) = M (B20 , f, B2 ) · M (B2 , id, B1 ) = M (B20 , id, B10 ) · M (B10 , f, B1 ), insgesamt also die Gleichung D · M (B10 , f, B1 ) = M (B20 , f, B2 ) · C.

3.3.12

Man sich das leicht auch so klarmachen: C (V, B1 )

M (B10 , f, B1 )



? (V , B10 )

- (V, B2 )

M (B20 , f, B2 )

? - (V 0 , B 0 ) 2

0

D Ein h¨ aufig vorkommender Spezialfall ist der eines Endomorphismus: f ∈ EndK (V ) und Basisfolgen B, B 0 : 3.3.9 liefert 3.3.13

M (B 0 , id, B) · M (B, f, B) · M (B, id, B 0 ) = M (B 0 , f, B 0 ),

3.3. LINEARE ABBILDUNGEN UND MATRIZEN ¨ oder, explizit mit der Ubergangsmatrix C = (cik ), aus bk = 3.3.14

93 0 i cik bi ,

P

formuiert:

C · M (B, f, B) · C −1 = M (B 0 , f, B 0 ).

¨ Der Ubergang von der Basisfolge B zur Basisfolge B 0 entspricht also der Konju¨ gation der f beschreibenden Matrix mit der Ubergangsmtrix C.