Kapitel 2 Lineare Algebra II. 2.1 Lineare Abbildungen

Kapitel 2 Lineare Algebra II 2.1 Lineare Abbildungen Die mit der Vektorraumstruktur vertr¨aglichen Abbildungen zwischen Vektorr¨aumen werden als lin...
Author: Hansl Hofmann
10 downloads 0 Views 112KB Size
Kapitel 2 Lineare Algebra II 2.1

Lineare Abbildungen

Die mit der Vektorraumstruktur vertr¨aglichen Abbildungen zwischen Vektorr¨aumen werden als linear bezeichnet. Genauer definiert man: 2.1 Definition Eine Abbildung L: V → W zwischen zwei reellen Vektorr¨aumen V und W heisst linear , wenn f¨ ur alle v, w ∈ V , λ ∈ R, folgendes gilt: 1. L(v + w) = L(v) + L(w). 2. L(λv) = λL(v). 2.2 Bemerkung F¨ ur jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst L bildet den Nullvektor aus V auf den Nullvektor aus W ab. Beweis. Denn sei v ∈ V gew¨ahlt. Dann folgt aus der zweiten Bedingung L(0) = L(0 · v) = 0 · L(v) = 0. q.e.d. 2.3 Beispiele (a) S¨amtliche Drehungen des R2 um den Nullpunkt um einen beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar l¨angentreu und bilden Dreiecke auf kongruente Dreiecke ab. Entsprechend ist jede r¨aumliche Drehung um eine Achse durch den Nullpunkt eine lineare Selbstabbildung von R3 . (b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind nicht linear, weil sie den Nullpunkt nicht festlassen. (c) Die Projektion p: R3 → R2 , (x, y, z) 7→ (x, y) ist linear, wie man direkt nachrechnet. Auch jede andere orthogonale Projektion des Raumes auf eine Ebene, wie sie verwendet werden, um Grundrisse, Aufrisse, Seitenansichten von Geb¨auden zu zeichnen, sind linear. (d) Ein Zoom, also eine Streckung Einheiten um einen bestimmten Vergrosserungsfaktor ist linear. Dasselbe gilt f¨ ur die Reskalierung von Koordinaten mit unterschiedlichen Faktoren, also im zweidimensionalen zum Beispiel in x-Richtung um Faktor 2 und in y-Richtung um Faktor 3. (e) Der Ableitungsoperator D: C 1 [a, b] → C 0 [a, b], der einer stetig differenzierbaren Funktion f auf [a, b] jeweils ihre Ableitung f ′ zuordnet, ist linear.

2.1. Lineare Abbildungen

29

Rb (f) Auch der Integraloperator I: C 0 [a, b] → R, definiert durch I(f ) := a f (x)dx f¨ ur f ∈ C 0 [a, b], ist linear, weil Integration mit Summenbildung und Skalarmultiplikation vertauschbar ist. Drehungen, Spiegelungen und senkrechte Projektionen haben die Eigenschaft, s¨amtliche affinen Geraden wieder auf affine Geraden oder Punkte abzubilden. Das gilt auch f¨ ur jede beliebige lineare Abbildung des R2 und daher der Name. Lineare Abbildungen lassen sich durch Matrizen beschreiben. Hier ein erstes Beispiel. 2.4 Beispiel Die folgende Abbildung L: R2 → R3 ist definiert durch die Multiplikation von ebenen Vektoren mit einer festgew¨ahlten 3 × 2-Matrix:         1 2 x + 2y x x L( ) :=  −1 1  · =  −x + y  . y y 3 −2 3x − 2y Man kann leicht nachrechnen, dass diese Abbildung linear ist. Allgemeiner gilt folgendes: 2.5 Satz Jede Matrix A vom Typ m × n definiert eine lineare Abbildung LA : Rn → Rm ,

v 7→ A · v .

Umgekehrt gibt es zu jeder linearen Abbildung L: Rn → Rm eine m×n-Matrix A mit L = LA . An den Spalten von A k¨onnen wir die Bilder der kanonischen Basisvektoren ej ∈ Rn unter L ablesen. Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren mit einer festen Matrix eine lineare Abbildung liefert. Sei jetzt umgekehrt eine lineare Abbildung L: Rn → Rm vorgegeben. Um die entsprechende Matrix zu finden, schreiben wir zun¨achst die Bilder der kanonischen Basisvektoren e1 , . . . , en des Rn als Spaltenvektoren in Rm auf:     a1n a11 . . L(e1 ) =  ..  , . . . , L(en ) =  ..  . amn am1 Aus diesen n Spaltenvektoren bilden wir eine Matrix   a11 a1n . . A :=  .. . . . ..  . am1 amn Diese Matrix leistet das Gew¨ unschte, denn es gilt:     x1 x1 ..  ..     = L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A · L . . xn xn f¨ ur alle x1 , . . . , xn ∈ R.

q.e.d.

30

Kapitel 2. Lineare Algebra II

2.6 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den Winkel α lautet:   cos α − sin α . sin α cos α   x Das bedeutet, ist v = , so ist y Dα (v) =



cos α − sin α sin α cos α

     x x cos α − y sin α · = . y x sin α + y cos α

(b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix beschrieben:   0 1 . 1 0 

 5 1 (c) Die durch Multiplikation mit der Matrix definierte lineare Abbildung 1 2 hat folgende Wirkung auf das markierte Einheitsquadrat: y

L(v) L(e2 ) e2

v b

L(e ) L(e1 ) 1 b

e1

x

(d) Die Projektion p: R3 → R2 , (x, y, z) → 7 (x, y) wird durch die folgende Matrix induziert:   1 0 0 . 0 1 0

2.1. Lineare Abbildungen

31

2.7 Bemerkung Die Komposition (oder Hintereinanderausf¨ uhrung) von zwei lin s s m nearen Abbildungen L1 : K → K und L2 : K → K ist definiert durch L2 ◦ L1 (v) = L2 (L1 (v)) f¨ ur alle v ∈ Kn . Ist L1 durch die Multiplikation mit der Matrix B gegeben und L2 durch die Multiplikation mit der Matrix A, so entspricht L2 ◦L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv f¨ ur alle v ∈ Kn . 2.8 Beispiel Schauen wir uns an, welchen Effekt es hat, wenn wir die Koordinatenebene R2 zun¨achst um den Winkel −α drehen, dann an der x-Achse spiegeln und schliesslich um den Winkel α zur¨ uckdrehen. Das Produkt der entsprechenden Matrizen lautet:       cos α − sin α 1 0 cos α sin α cos(2α) sin(2α) C := = . sin α cos α 0 −1 − sin α cos α sin(2α) − cos(2α) Durch die Multiplikation mit der Produktmatrix C wird eine Spiegelung an derjenigen Geraden beschrieben, die mit der x-Achse den Winkel α bildet. Allgemeiner kann man jede lineare Abbildung zwischen endlichdimensionalen Vektorr¨aumen durch eine Matrix beschreiben. Dazu muss man aber zun¨achst Basen und damit Koordinatensysteme f¨ ur die Vektorr¨aume w¨ahlen. Ist A = (v1 , . . . , vn ) eine Basis von V , l¨asst sich jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben: v = x1 v1 + · · · + xn vn .

v

x2 v2 x1 v1 v2

b

b

v1

32

Kapitel 2. Lineare Algebra II

Die Zahlen x1 , . . . , xn sind die Koordinaten von v bezogen auf die Basis A. Den Spaltenvektor, gebildet aus den Koordinaten oder den Koeffizienten xj , bezeichnen wir als den Koeffizientenvektor von v bez¨ uglich der Basis A:   x1 . Koeff A (v) :=  ..  . xn 2.9 Satz Sei V ein Vektorraum mit Basis A = (v1 , . . . , vn ) und W ein Vektorraum mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m × n definiert eine lineare Abbildung L: V → W , die dadurch bestimmt ist, dass Koeff B (L(v)) = A · Koeff A (v) . Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix B MA (L), die L induziert. Die Spalten dieser Matrix geben die Koeffizienten der Bildvektoren L(vj ) bez¨ uglich der Basis B von W an. Ist V = W , verwendet man u ur Ausgangs- und Bildraum. ¨ blicherweise dieselbe Basis f¨ Beweis. Sei zun¨achst A eine vorgegebene m × n-Matrix und sei v = x1 v1 + · · · + xn vn ∈ V . Aus den Koeffizienten x1 , . . . , xn bilden wir den Spaltenvektor Koeff A (v), multiplizieren diesen Vektor mit der Matrix A und erhalten einen Spaltenvektor mit Eintr¨agen y1 , . . . , ym , weil A aus m Zeilen besteht. Diese Eintr¨age verwenden wir nun als Koeffizienten f¨ ur L(v), das heisst wir setzen fest: L(v) := y1 w1 + · · · + ym wm . Auf diese Weise wird eine lineare Abbildung erkl¨art. Denn jeder einzelne Schritt ist ¨ mit Addition und Skalarmultiplikation vertr¨aglich. Uberpr¨ ufen wir hier exemplarisch die Vertr¨aglichkeit mit Skalarmultiplikation. F¨ ur λ ∈ R gilt: λv = (λx1 )v1 + · · · + (λxn )vn . Das heisst Koeff A (λv) = λ Koeff A (v). Daraus folgt A · Koeff A (λv) = λA · Koeff A (v) und daher schliesslich L(λv) = λL(v). Sei jetzt umgekehrt L: V → W vorgegeben. Dann schreiben wir die Bildvektoren Pm L(v1 ), . . . , L(vn ) als Linearkombinationen der Basis B in der Form L(vj ) = i=1 aij wi . Die Koeffizientenvektoren lauten also:     a1n a11 . . Koeff B (L(v1 )) =  ..  , . . . , Koeff B (L(vn )) =  ..  . amn am1 Aus diesen Spaltenvektoren bilden wir die Matrix B MA (L) = A = (aij ). Es ist eine Matrix vom Typ m × n. Die von der Matrix induzierte Abbildung stimmt mit der Abbildung L u ¨berein, denn L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn ) und daher L(v) = x1

m X i=1

ai1 wi + · · · + xn

m X i=1

ain wi =

n X m X j=1 i=1

m X n X xj aij wi = ( aij xj )wi . i=1 j=1

2.1. Lineare Abbildungen

33

Also folgt  a11 x1 + · · · + a1n xn ..  = A · Koeff A (v) Koeff B (L(v)) =  . am1 x1 + · · · + amn xn 

f¨ ur alle v ∈ V .

q.e.d.

2.10 Beispiel Sei V die Ebene durch 0, erzeugt von zwei linear unabh¨angigen Vektoren u, v in R3 . Die Abbildung L: V → V sei festgelegt durch L(u) = 2u und L(v)  = u + v. Dann w¨ahlen  wir  als Basis A = (u, v) und lesen ab Koeff A (L(u)) = 2 1 und Koeff A (L(v)) = . Also wird L bezogen auf die Basis A hier durch die 0 1   2 1 Matrix beschrieben. Denn L(xu + yv) = x(2u) + y(u + v) = (2x + y)u + yv. 0 1 Wichtige Spezialf¨ alle: • Sind V = Rn , W = Rm und A und B die kanonischen Basen, erhalten wir die in Satz 1.24 gegebene Beschreibung wieder zur¨ uck. • Ist V = W , w¨ahlt man u ¨blicherweise A = B. Die linearen Selbstabbildungen werden auch als Endomorphismen bezeichnet und entsprechen quadratischen Matrizen. 2.11 Beispiele (a) Sei V der Raum der Polynome von H¨ochstgrad 3 mit der Basis A = (1, x, x2 , x3 ) und W der Raum der Polynome von H¨ochstgrad 2 mit Basis B = (1, x, x2 ). Die lineare Abbildung L: V → W sei definiert durch die Ableitung L(p) := p′ f¨ ur p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1, L(x2 ) = 2x, L(x3 ) = 3x2 . Daraus k¨onnen wir die Matrix von L ablesen. Sie lautet:   0 1 0 0 0 0 2 0 . B MA (L) = 0 0 0 3 (b) Sei V = W = R3 und L eine Drehung um die Achse g durch den Nullpunkt und um den Winkel α. Wir w¨ahlen f¨ ur V eine Basis A = (v1 , v2 , v3 ), so dass v1 in Richtung der Drehachse g zeigt, v2 , v3 in der zu g senkrechten Ebene einen Winkel von 90 Grad bilden und beide dieselbe L¨ange haben. Bezogen auf dieses Koordinatensystem lautet die Matrix von L: 

 1 0 0 MA (L) =  0 cos α − sin α  . 0 sin α cos α

34

Kapitel 2. Lineare Algebra II

  4 (c) Sei V = W = R2 und L die Spiegelung an der Geraden g = {λ | λ ∈ R}.    1 4 −1 Wir w¨ahlen A = B = (v1 , v2 ), wobei v1 = und v2 = . Da v1 ∈ g, 1 4 gilt L(v1 ) = v1 . Ausserdem ist L(v2 ) = −v2 , da v2 ⊥ v1 . Wir lesen daraus ab:   1 0 MA (L) = . 0 −1 Das bedeutet, dass ein Vektor der Form v = αv1 + βv2 auf den Vektor L(v) = αv1 − βv2 abgebildet wird. Jede lineare Abbildung definiert charakteristische Unterr¨aume, sowohl im Ausgangsraum als auch im Bildraum. 2.12 Satz Sei L: V → W eine lineare Abbildung. Dann gilt: 1. Das Bild(L) := {L(v) | v ∈ V } ist ein linearer Unterraum von W . 2. Der Kern(L) := {v ∈ V | L(v) = 0} ist ein linearer Unterraum von V . 3. L ist genau dann injektiv, wenn Kern(L) = {0}. Beweis. Zu 1. Das Bild von L ist nichtleer, denn wegen L(0) = 0, enth¨alt es zumindest den Nullvektor von W . Nehmen wir jetzt an w1 , w2 ∈ Bild(L). Dann gibt es Vektoren v1 , v2 ∈ V mit L(v1 ) = w1 und L(v2 ) = w2 . Aus der Linearit¨at von L folgt L(v1 + v2 ) = L(v1 ) + L(v2 ) = w1 + w2 . Also ist auch w1 + w2 im Bild von L enthalten. Schliesslich gilt f¨ ur alle λ ∈ R: L(λv1 ) = λL(v1 ) = λw1 ∈ Bild(L). ¨ zu 2. Diesen Beweisteil lassen wir als Ubung. zu 3. Ist L injektiv, so ist L(v) = 0 nur f¨ ur v = 0 m¨oglich. Das heisst Kern(L) = {0}. Sei jetzt umgekehrt Kern(L) = {0} und nehmen wir an, es sei L(v1 ) = L(v2 ) f¨ ur v1 , v2 ∈ V . Dann folgt L(v1 − v2 ) = L(v1 ) − L(v2 ) = 0 und daher v1 − v2 ∈ Kern(L). Also muss v1 = v2 sein. q.e.d. 2.13 Beispiele • Sei L: R3 → R3 die orthogonale Projektion des Raumes auf eine Ebene E in R3 durch den Nullpunkt. Dann ist das Bild von L hier die Ebene E, und der Kern besteht aus allen Vektoren, die auf E senkrecht stehen.   1 2 • Sei A =  −1 1 . Das Bild der Abbildung LA : R2 → R3 , definiert durch 3 −2 Multiplikation mit der Matrix A, ist diejenige Ebene in R3 , die von den beiden Spalten von A erzeugt wird. Der Kern besteht hier nur aus dem Nullvektor.   2 −6 1 • Sei A = . Hier definiert die Multiplikation mit A eine Ab1 −3 −1 2 bildung LA : R3 → R2 . Das  Bildist ganz R und der Kern besteht aus allen 3α Vektoren in R3 der Form  α  (α ∈ R). 0

2.1. Lineare Abbildungen

35

Es gilt der folgende Zusammenhang zwischen den Dimensionen von Kern und Bild: 2.14 Satz (Dimensionsformel ) Sei L: V → W linear und dim V = n. Dann gilt: dim Kern(L) + dim Bild(L) = n . Wir wollen diese Aussage zun¨achst f¨ ur Matrizen interpretieren. Sei also A eine n m m × n-Matrix und LA : R → R die durch Multiplikation mit A definierte lineare Abbildung. Dann gilt Kern(LA ) = {v ∈ V | A·v = 0}. Der Kern von LA stimmt also mit der L¨osungsmenge L des durch A beschriebenen homogenen Gleichungssystems u ¨berein. Weiter kann man zeigen, dass folgendes gilt: Bild(LA ) = lin(LA (e1 ), . . . , LA (en )). Das Bild von LA ist also gerade derjenige Unterraum von Rm , der von den Spaltenvektoren von A erzeugt wird. Die Dimension dieses Unterraums stimmt u ¨berein mit der maximalen Anzahl linear unabh¨angiger Spalten von A, man nennt diese Zahl auch den Spaltenrang Rang(A). Die Dimensionsformel liefert jetzt folgende Beziehung: dim L = n − Rang(A) . Bereits im ersten Paragraphen hatten wir im Zusammenhang mit dem Gaussschen Eliminationsverfahren eine ¨ahnliche Beziehung f¨ ur die Dimension des L¨osungsraumes gefunden, n¨amlich dim L = n − r, wobei r der Rang der durch elementare Zeilenumformungen auf Zeilenstufenform transformierten Matrix A′ war. Der Rang einer Matrix in Zeilenstufenform gibt die Anzahl der Nichtnullzeilen an und stimmt u ¨berein mit der maximalen Anzahl linear unabh¨angiger Zeilen, also dem Zeilenrang von A′ . Nun bleibt der Zeilenrang einer Matrix bei elementaren Zeilenumformungen aber unver¨andert. Wir erhalten also folgendes Ergebnis: 2.15 Folgerung Der Zeilen- und der Spaltenrang einer Matrix stimmen miteinander u ¨ berein. Man spricht deshalb kurz vom Rang einer Matrix. Der Rang gibt sowohl die Anzahl linear unabh¨angiger Spalten als auch die Anzahl linear unabh¨angiger Zeilen der Matrix an. Beweis der Dimensionsformel. Weil der Kern von L ein Unterraum von V ist, gilt sicher k := dim(Kern(L)) ≤ n. Ausserdem k¨onnen wir eine Basis (v1 , . . . , vk ) von Kern(L) w¨ahlen und zu einer Basis (v1 , . . . , vk , vk+1, . . . , vn ) von V erg¨anzen. Es reicht jetzt, folgende Behauptung zu beweisen: (L(vk+1 ), . . . , L(vn )) ist eine Basis f¨ ur das Bild von L. Dazu zeigen wir zun¨achst, dass die Menge ein Erzeugendensystem f¨ ur das Bild ist. Sei also w ∈ Bild(L). Dann gibt es ein v ∈ V mit L(v) P = w. Wir schreiben v als n LinearkombinationPder Basiselemente in der Form v = i=1 αi vi (αi ∈ R). Dann Pn n ur alle i ≤ k. Also folgt w = L(v) = i=1 αi L(vi ) = k+1 αi L(vi ), weil L(vi ) = 0 f¨ liegt w in der linearen H¨ ulle von (L(vk+1 ), . . . , L(vn )).

36

Kapitel 2. Lineare Algebra II

Im zweiten Schritt zeigen wir jetzt, dass die Menge linear unabh¨angig ist. Angenommen n n X X αi vi ) . αi L(vi ) = L( 0= i=k+1

i=k+1

Pn

Das bedeutet, der Vektor u := i=k+1 αi vi liegt im Kern der Abbildung L, l¨asst sich also in der Basis (v1 , . . . , vk ) schreiben. Das heisst, es gibt Zahlen β1 , . . . , βk mit u=

k X

βi vi =

i=1

n X

αi vi .

i=k+1

Daraus folgt die Relation β1 v1 + · · · + βk vk − αk+1 vk+1 − · · · − αn vn = 0 . Da (v1 , . . . , vn ) linear unabh¨angig gew¨ahlt waren, folgt β1 = · · · = βk = αk+1 = · · · = αn = 0. q.e.d. 2.16 Folgerung Seien V , W endlichdimensionale Vektorr¨aume und L: V → W linear. Dann gilt: L ist genau dann bijektiv, wenn dim V = dim W und Kern(L) = {0}. In diesem Fall ist auch die Umkehrabbildung von L linear und man bezeichnet L als Vektorraumisomorphismus. 2.17 Beispiel Sei V ein Vektorraum der Dimension n und A eine Basis f¨ ur V . Dann ist die Zuordnung V → Rn ,

v 7→ Koeff A (v)

ein Vektorraumisomorphismus. Das bedeutet, jeder endlichdimensionale Vektorraum ist zu einem der R¨aume Rn (n ∈ N0 ) isomorph. 2.18 Beispiel Eine quadratische Matrix A definiert genau dann eine bijektive lineare Abbildung LA : Kn → Kn , wenn A invertierbar ist, wenn also det A 6= 0 ist. Ist dies der Fall, wird die Umkehrabbildung durch die Multiplikation mit der inversen Matrix A−1 beschrieben. Die Matrix, die eine lineare Abbildung beschreibt, h¨angt wesentlich von der Wahl der Basen — also der Koordinatensysteme — ab! Hierzu ein einfaches Beispiel. Sei L die Spiegelung des R2 an der Winkelhalbierenden. Wie schon fr¨ uher erw¨ahnt, lautet die Matrix von L bez¨ uglich der kanonischen Basis (weil L(e1 ) = e2 und L(e2 ) = e1 ist):   0 1 M(e1 ,e2 ) (L) = . 1 0     1 −1 W¨ahlt man dagegen die Basis aus v1 = und v2 = , dann ist L(v1 ) = v1 1 1 und L(v2 ) = −v2 und daher lautet die zugeh¨orige Matrix:   1 0 M(v1 ,v2 ) (L) = . 0 −1

2.1. Lineare Abbildungen

37

Man kann durch Wahl einer g¨ unstigen Basis versuchen, die Abbildung durch eine m¨oglichst einfache Matrix zu beschreiben, an der sich wichtige Eigenschaften m¨oglichst direkt ablesen lassen. Dazu sei hier noch beschrieben, wie sich die Matrix eines Endomorphismus bei einem Basiswechsel ¨andert. 2.19 Satz Sei L: V → V ein Endomorphismus des Vektorraums V . Seien weiter A, B Basen von V und seien A := MA (L) und B := MB (L) die zugeh¨origen Matrizen. Dann gilt: B = T −1 AT , wobei die Transformationsmatrix T den Basiswechsel von B nach A beschreibt, das heisst, die Spalten von T sind die Koeffizientenvektoren der Vektoren aus B, ausgedr¨ uckt in der Basis A. Ist speziell V = Kn und A die kanonische Basis, erh¨alt man T einfach, indem man die Elemente von B als Spalten zu einer Matrix zusammenf¨ ugt. Beweis. Nach Wahl der Transformationsmatrix gilt f¨ ur jedes v ∈ V : T · Koeff B (v) = Koeff A (v) . Daraus folgt

AT Koeff B (v) = Koeff A (Lv), und das liefert, wie behauptet T −1 AT · Koeff B (v) = Koeff B (Lv) .

q.e.d. 2.20 Beispiel Sei V = R2 , A = (e1 , e2 ), L die Spiegelung an der Winkelhalbie  1 −1 renden und sei B die Basis, gebildet aus den Vektoren u = und w = . 1 1      0 1 1 −1 1 1 Dann ist A = und T = . Wegen T −1 = 12 , erhalten 1 0 1 1 −1 1 wir:   1 0 −1 B = T AT = . 0 −1 Hier ist noch ein weiteres Beispiel: 2.21 Beispiel Sei wiederum V = R2 , A = (e1 , e2 ), und sei L die lineare  Abbildung,  1 4 . Sei festgelegt durch L(e1 ) = e1 + 2e2 und L(e2 ) = 4e1 + 3e2 . Dann ist A = 2 3     1 −2 weiter B die Basis, gebildet aus den Vektoren u = und w = . Also ist 1 1      1 −2 1 2 1 2 1 hier T = und T −1 = det(T = 31 . Die Matrix von L ) 1 1 −1 1 −1 1 bezogen auf die Basis B lautet daher:   5 0 −1 B = T AT = . 0 −1 Das bedeutet, wenn wir einen Vektor durch die Basis B ausdr¨ ucken in der Form v = x˜u + y˜w, dann ist L(v) = 5˜ xu − y˜w.

38

Kapitel 2. Lineare Algebra II

y

x˜ L(u)

4

b

b

L(v)

v



b

b

2 b

u

w

7

−1 b

L(w)

x