Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

$Id: vektor.tex,v 1.7 2011/01/24 14:10:45 hk Exp $ $Id: cartesisch.tex,v 1.3 2011/01/24 14:28:24 hk Exp $

§11

Vektorr¨ aume

11.5

Lineare Abbildungen

Am Ende der letzten Sitzung hatten wir die sogenannten linearen Abbildungen f : V → W zwischen zwei Vektorr¨aumen eingef¨ uhrt, und einige ihrer direkt aus der Definition ersichtlichen Eigenschaften aufgelistet. Insbesondere hatten wir das Bild Bild(f ) := f (V ) = {f (x)|x ∈ V } und den Kern Kern(f ) := {x ∈ V |f (x) = 0} einer solcgen linearen Abbildung definiert. Das Bild mißt sozusagen die Surjektivit¨at einer linearen Abbildung, denn f ist genau dann surjektiv wenn Bild(f ) = W ist. Auf der anderen Seite mißt der Kern die Injektivit¨at, in Lemma 9.(g) wurde festgehalten das f genau dann injektiv ist wenn Kern(f ) = {0} ist. Im verbleibenden Teil dieses Abschnitts wollen wir die grundlegende Dimensionsformel herleiten, die einen Zusammenhang zwischen der Gr¨oße von Kern und Bild einer linearen Abbildung herstellt. Von besonderen Interesse werden die sogenannten Isomorphismen sein, dies sind lineare Abbildungen die zugleich surjektiv und injektiv, also bijektiv sind. Definition 11.11 (Isomorphismen von Vektorr¨ aumen) Seien V, W zwei Vektorr¨aume u ber K. Ein Isomorphismus von V nach W ist eine ¨ bijektive lineare Abbildung f : V → W . Weiter nennen wir die Vektorr¨aume V und W isomorph, geschrieben als V ' W , wenn es einen Isomorphismus von V nach W gibt. Wir kennen bereits einige Beispiele von Isomorphismen, nur dass wir diese bisher nicht so genannt haben. Ist etwa v1 , . . . , vn eine Basis von V , so ist die Koordinatenabbildung Ψ : K n → V ; x 7→

n X

xi vi

i=1

bijektiv und linear, also ein Isomorphismus. An diesem Beispiel kann man sch¨on sehen, ¨ dass Isomorphismen im wesentlichen ein Ubersetzungsmechanismus“ sind. Wollen wir ” irgendetwas im Vektorraum V untersuchen, so k¨onnen wir dies entweder in V selbst tun, oder alles in Termen der Koordinaten bez¨ uglich der Basis v1 , . . . , vn rechnen. Beide ¨ Sichtweisen sind v¨ollig gleichwertig und der Isomorphismus Ψ stellt die Ubersetzung zwischen ihnen her. Isomorphe Vektorr¨aume sind also im wesentlichen gleich, und ein Isomorphismus beschreibt in welchem Sinne sie gleich sind. 21-1

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Wir wollen auch noch ein etwas komplizierteres Beispiel eines Isomorphismus besprechen. Bei unserer Untersuchung von Reihen in §7 hatten wir den Reihenbegriff u uckgef¨ uhrt. Wir k¨onnen uns ¨ber den Begriff der Partialsummen wieder auf Folgen zur¨ ¨ das Bilden der Partialsummen also als eine Ubersetzung zwischen Folgen und Reihen vorstellen, und dies ist in Wahrheit ein Beispiel eines Isomorphismus von Vektorr¨aumen. Sei hierzu K ∈ {R, C} und betrachte den Vektorraum V := K N aller Folgen in K. uhren wir nicht ein, wir denken uns die Reihe P∞Einen eigenen ”Reihenvektorraum“ f¨ n=0 an als die Folge (an )n∈N ihrer Summanden. Die Partialsummen sind dann die Abbildung ! n X Σ : V → V ; (an )n∈N 7→ ak . k=0

n∈N

Die Abbildung Σ ist linear und auch bijektiv, also ein Isomorphismus. Zum Nachweis der Bijektivit¨at k¨onnen wir gem¨aß §3.Lemma 3 die Umkehrabbildung hinschreiben, und diese ist durch die Differenzenabbildung ∆ : V → V gegeben, die eine Folge (an )n∈N auf die durch ( an − an−1 , n ≥ 1, a0n := a0 , n=0 gegebene Folge (a0n )n∈N abbildet. Den expliziten Nachweis dieser Behauptungen k¨onnen ¨ Sie als eine Ubungsaufgabe betrachten. Nach diesen Beispielen kommen wir nun zu einem allgemeinen Satz u ¨ber das Verhalten von Basen und Dimension unter Isomorphismen. Lemma 11.10 (Grundeigenschaften von Isomorphismen) Seien V, W zwei Vektorr¨aume u ¨ber K und f : V → W eine lineare Abbildung. (a) Ist f ein Isomorphismus, so ist auch die Umkehrabbildung f −1 : W → V ein Isomorphismus. (b) Sei v1 , . . . , vn eine Basis von V . Dann ist f genau dann ein Isomorphismus wenn f (v1 ), . . . , f (vn ) eine Basis von W ist. Insbesondere ist dann auch W endlich erzeugt mit dim V = dim W . Beweis: (a) Es ist nur zu zeigen, dass f −1 : W → V wieder eine lineare Abbildung ist. Seien also x, y ∈ W und λ ∈ K gegeben. Dann ist f −1 (x+y) = f −1 (f (f −1 (x))+f (f −1 (y))) = f −1 (f (f −1 (x)+f −1 (y))) = f −1 (x)+f −1 (y) und f −1 (λx) = f −1 (λf (f −1 (x))) = f −1 (f (λf −1 (x))) = λf −1 (x), und damit ist f −1 eine lineare Abbildung. (b) Die zweite Aussage ist eine unmittelbare Folgerung der ersten Aussage, es reicht also letztere zu beweisen. 21-2

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

”=⇒” Sei also f ein Isomorphismus. Nach Lemma 9.(c) ist f (v1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ) = W , es ist also nur noch zu zeigen, Pndass diese Vektoren auch linear unabh¨angig sind. Hierzu seien λ1 , . . . , λn ∈ K mit i=1 λi f (vi ) = 0 gegeben. Dann ist auch ! n n X X f λi v i = λi f (vi ) = 0 = f (0) i=1

i=1

Pn

nach Lemma 9.(a), also ist auch i=1 λi vi = 0. Da die Vektoren v1 , . . . , vn linear unabh¨angig sind, folgt λ1 = · · · = λn = 0. Damit sind auch f (v1 ), . . . , f (vn ) in W linear unabh¨angig. ”⇐=” Nun nehmen wir an, dass die Vektoren f (v1 ), . . . , f (vn ) eine Basis von W bilden. Nach Lemma 9.(c) ist dann Bild(f ) = hf (v1 ), . . . , f (vn )i = W, d.h. f : V → W ist zumindest surjektiv. Nun sei vP∈ Kern(f ) ein Vektor im Kern von f , also f (v) = 0. Es gibt λ1 , . . . , λn ∈ K mit v = ni=1 λi vi . Wegen ! n n X X λi f (vi ) = f λi vi = f (v) = 0, i=1

i=1

ergibt Pndie lineare Unabh¨angigkeit von f (v1 ), . . . , f (vn ) auch λ1 = · · · = λn = 0, also v = i=1 λi vi = 0. Dies zeigt Kern(f ) = {0} und nach Lemma 9.(f) ist f auch injektiv. Insgesamt ist f damit bijektiv, also ein Isomorphismus. Als n¨achstes Ziel wollen wir die schon erw¨ahnte Dimensionsformel ansteuern. Diese wird insbesondere implizieren, dass es f¨ ur eine lineare Abbildung f : V → W zwischen Vektorr¨aumen gleicher Dimension, zum Test auf Isomorphie ausreicht zu zeigen, dass f injektiv oder surjektiv ist, die andere Bedingung folgt dann automatisch. Zum Beweis der Dimensionsformel ben¨otigen wir eine Hilfsaussage u ¨ber Untervektorr¨aume, die wir jetzt festhalten wollen. Lemma 11.11: Seien V ein endlich erzeugter Vektorraum u ¨ber K und U ≤ V ein Untervektorraum von V . Dann ist auch U endlich erzeugt mit m := dim U ≤ dim V =: n und es gibt eine Basis v1 , . . . , vn von V mit U = hv1 , . . . , vm i. Es ist genau dann dim U = dim V wenn U = V gilt. Beweis: Nach Korollar 7.(b) ist f¨ ur jedes System v1 , . . . , vr linear unabh¨angiger Vektoren aus U stets r ≤ n. Damit existiert ein System v1 , . . . , vm linear unabh¨angiger Vektoren in U der maximal m¨oglichen L¨ange m ≤ n. Insbesondere sind diese Vektoren maximal linear unabh¨angig in U , also ist v1 , . . . , vm nach Lemma 4 eine Basis von U . Insbesondere ist U endlich erzeugt mit dim U = m ≤ n = dim V . Nach Satz 6.(c) lassen sich die Vektoren v1 , . . . , vm zu einer Basis v1 , . . . , vn von V erg¨anzen. Es ist U = hv1 , . . . , vm i und im Fall m = n haben wir damit sogar U = hv1 , . . . , vn i = V .

21-3

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Damit ist jetzt m¨oglich die Dimensionsformel zu beweisen. Satz 11.12 (Dimensionsformel f¨ ur lineare Abbildungen) Seien V, W zwei endlich erzeugte Vektorr¨aume u ¨ber K und f : V → W eine lineare Abbildung. Dann gilt dim Bild(f ) + dim Kern(f ) = dim V.

Beweis: Nach Lemma 9.(e) und Lemma 11 existiert eine Basis v1 , . . . , vn von V mit Kern(f ) = hv1 , . . . , vm i wobei m = dim Kern(f ) ist. Wir behaupten, dass die Vektoren f (vm+1 ), . . . , f (vn ) eine Basis des Bilds von f sind. Nach Lemma 9.(c) sind die Vektoren f (v1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ), und wegen f (v1 ) = · · · = f (vm ) = 0 ist auch f (vm+1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ). Es bleibt also nur noch diePlineare Unabh¨angigkeit dieser Vektoren zu zeigen. Seien hierzu λm+1 , . . . , λn ∈ K mit ni=m+1 λi f (vi ) = 0 gegeben. Dann ist auch n X

f

i=m+1

also

n X

! λi v i

=

n X

λi f (vi ) = 0,

i=m+1

λi vi ∈ Kern(f ) = hv1 , . . . , vm i.

i=m+1

P P Pn Also existieren λ1 , . . . , λm ∈ K mit ni=m+1 λi vi = − m i=1 λi vi , also auch i=1 λi vi = 0. Da die Vektoren v1 , . . . , vn linear unabh¨angig sind, bedeutet dies λ1 = · · · = λn = 0, also insbesondere λm+1 = · · · = λn = 0. Damit sind die Vektoren f (vm+1 ), . . . , f (vn ) linear unabh¨angig, und bilden somit eine Basis von Bild(f ). Es folgt dim Bild(f ) = n − m = dim V − dim Kern(f ).

Korollar 11.13: Seien V, W zwei endlich erzeugte Vektorr¨aume u ¨ber K mit dim V = dim W und sei f : V → W eine lineare Abbildung. Dann sind die folgenden Aussagen ¨aquivalent: (a) Die Abbildung f ist ein Isomorphismus. (b) Die Abbildung f ist surjektiv. (c) Die Abbildung f ist injektiv. 21-4

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

¨ Beweis: Es reicht die Aquivalenz von (b) und (c) zu zeigen. Nach Lemma 9.(f) und ¨ Lemma 11 bestehen die Aquivalenzen: f ist injektiv ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒

§12

Kern(f ) = {0} dim Kern(f ) = 0 dim V = dim Bild(f ) dim W = dim Bild(f ) W = Bild(f ) f ist surjektiv.

Der Vektorraum K n

In Aufgabe (46) wird gezeigt, dass zwei endlich erzeugte Vektorr¨aume u ¨ber K ∈ {R, C} genau dann isomorph sind, wenn sie dieselbe Dimension haben. Insbesondere ist damit ein beliebiger n-dimensionaler Vektorraum V u ¨ber K isomorph zum Vektorraum K n der Spaltenvektoren mit n Eintr¨agen. In gewissen Sinne ist der K n damit der allge” meine“ n-dimensionale Vektorraum u urlich ¨ber K. Eine besondere Bedeutung hat nat¨ der R3 zur Beschreibung des gew¨ohnlichen“ Raums. Aber auch der Rn f¨ ur andere ” Werte von n spielt oftmals eine Rolle bei der Beschreibung r¨aumlicher Vorg¨ange. Will man beispielsweise den vollst¨andigen Zustand eines sich bewegenden Massepunktes beschreiben, so brauchen wir sowohl drei Koordinaten zur Beschreibung seiner Position als auch drei Koordinaten f¨ ur seinen Geschwindigkeitsvektor, insgesamt hat man dann einen Vektor im R6 .

12.1

Affine Teilr¨ aume des K n

Wir beginnen mit der Definition der u ¨blichen geometrischen Objekte, wie Geraden und Ebenen. Wie wir sehen werden k¨onnte man diese auf exakt dieselbe Weise auch in einem allgemeinen Vektorraum definieren, wir wollen uns hier aber auf den Spezialfall des Vektorraums K n beschr¨anken. Als Startpunkt behandeln wir Ursprungsgeraden im K n , also Geraden die durch den Nullpunkt gehen. Eine solche Gerade l ist durch einen von Null verschiedenen Richtungsvektor v ∈ K n \{0} bestimmt, und die Gerade l besteht dann gerade aus den Vielfachen von v, also l = {tv|t ∈ K} = hvi. 21-5

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

In anderen Worten sind die Ursprungsgeraden genau die eindimensionalen Untervektorr¨aume des K n . F¨ ur Ebenen e durch den Ursprung erhalten wir ein ¨ahnliches Ergebis, solche Mengen werden von zwei linear unabh¨angigen Richtungsvektoren u, v aufgespannt e = {tu + sv|t, s ∈ K} = hu, vi, es handelt sich also genau um die zweidimensionalen Untervektorr¨aume des K n . Allgemeine Geraden beziehungsweise Ebenen erhalten wir durch Verschieben der Ursprungsgeraden. Die entstehenden Teilmengen des K n sind die sogenannten affinen Teilr¨aume eines Vektorraums. Definition 12.1 (Affine Teilr¨ aume eines Vektorraums) Sei V ein Vektorraum u ¨ber K. Eine Teilmenge A ⊆ V heißt ein affiner Teilraum von V , wenn A = ∅ ist oder es einen Vektor v ∈ V und einen Teilraum U ≤ V von V mit A = v + U = {v + u|u ∈ U } gibt. Ob man die leere Menge als einen affinen Teilraum betrachten will, ist weitgehend eine Geschmacksfrage und wird nicht einheitlich gehandhabt. Der Teilraum U in der Definition eines nichtleeren affinen Teilraums A eines Vektorraums V ist dabei eindeutig bestimmt. Nehme n¨amlich an, wir h¨atten zwei Teilr¨aume U1 , U2 ≤ V und zwei Aufpunkte v1 , v2 ∈ V mit A = v1 + U1 = v2 + U2 . Wegen v2 = v2 + 0 ∈ v2 + U2 = v1 + U1 ist dann v2 − v1 ∈ U1 und f¨ ur jedes u ∈ U2 gibt es wegen v2 + u ∈ v2 + U2 = v1 + U1 ein u0 ∈ U1 mit v2 + u = v1 + u0 , also auch u = u0 − (v2 − v1 ) ∈ U1 . Dies zeigt U2 ⊆ U1 . Analog folgt auch U1 ⊆ U2 , es ist also U1 = U2 . Man nennt den eindeutig bestimmten Teilraum U ≤ V die Richtung des affinen Teilraums A von V . Insbesondere k¨onnen wir damit die Dimension eines affinen Teilraums A eines Vektorraums V als ( dim U, wenn A = v + U mit v ∈ V , U ≤ V , dim A := −1, wenn A = ∅ definieren. Hiermit definieren wir jetzt: (a) Eine Gerade im K n ist ein eindimensionaler affiner Teilraum des K n , (b) Eine Ebene im K n ist ein zweidimensionaler affiner Teilraum des K n , (c) und eine Hyperebene im K n ist ein (n − 1)-dimensionaler affiner Teilraum des K n . Im K 2 sind also Hyperebenen und Geraden dasselbe und im K 3 sind Ebenen und Hyperebenen dasselbe. Wir gewohnt kann man eine Gerade durch einen Aufpunkt und einen Richtungsvektor angeben, und eine Ebene durch einen Aufpunkt und zwei 21-6

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Richtungsvektoren. Die Richtungsvektoren sind dabei nicht eindeutig festgelegt, aber der von ihnen aufgespannte Untervektorraum ist eindeutig bestimmt, er ist ja gerade die Richtung des affinen Teilraums. Als Aufpunkt kann man dagegen einen beliebigen Punkt des affinen Teilraums nehmen, d.h. ist A 6= ∅ ein affiner Teilraum von V mit Richtung U ≤ V und v ∈ A ein beliebiger Punkt von A, so ist A = v + U . Nach Definition eines affinen Teilraums gibt es n¨amlich u ¨berhaupt einen Vektor w ∈ V mit A = w + U . Wegen v ∈ A gibt es weiter einen Vektor u ∈ U mit v = w + u. Da U ein Untervektorraum von V ist, gilt u + U ⊆ U und wegen −u ∈ U auch −u ∈ U also −u + U ⊆ U und somit U ⊆ u + U . Dies zeigt u + U = U , und somit folgt auch A = w + U = w + u + U = v + U. Im R3 ist der Schnitt einer Ebene und einer Geraden normalerweise ein Punkt und der Schnitt zweier Ebenen normalerweise eine Gerade. Es gibt nat¨ urlich auch Ausnahmef¨alle wie parallele Ebenen, was die allgemeine Situation etwas verkompliziert. Wir wollen einen Satz u ¨ber das Schnittverhalten affiner Teilr¨aume herleiten. Der Hauptteil hiervon ist in Aufgabe (47) enthalten, dort ist zu zeigen das f¨ ur zwei Teilr¨aume U, W eines endlich erzeugten Vektorraums V die Dimensionsformel dim(U ∩ V ) + dim(U + W ) = dim U + dim W gilt. Die affine Schnittdimensionsformel ist etwas komplizierter, da die Summe“ affiner ” Teilr¨aume von ihrer Lage zueinander abh¨angt. Beispielsweise k¨onnen sich nicht schneidende Geraden im R3 entweder parallel oder windschief sein, im ersten Fall erzeugen sie eine Ebene und im zweiten Fall den ganzen R3 . Im oben erw¨ahnte Normalfall“ ” haben die Richtungen der beiden Teilr¨aume eine Summe gr¨oßtm¨oglicher Dimension, beziehungsweise gleichwertig einen Schnitt kleinstm¨oglicher Dimension. Satz 12.1 (Schnitte affiner Teilr¨ aume) Sei V ein endlich erzeugter Vektorraum u ¨ber K und seien A, B ⊆ V zwei affine Teilr¨aume von V . (a) Die Menge A ∩ B ist wieder ein affiner Teilraum von V . (b) Ist v ∈ A ∩ B und bezeichnet U die Richtung von A und W die Richtung von B, so ist AB := v + (U + W ) der kleinste A und B enthaltende affine Teilraum von V . Insbesondere ist AB unabh¨angig vom speziell gew¨ahlten v ∈ A ∩ B. (c) Ist A ∩ B 6= ∅, so gilt die Dimensionsformel dim(A ∩ B) + dim(AB) = dim A + dim B.

Beweis: Ist A ∩ B = ∅, so ist A ∩ B trivialerweise ein affiner Teilraum von V , wir k¨onnen also A ∩ B 6= ∅ annehmen. W¨ahle v ∈ A ∩ B. Zun¨achst behaupten wir, dass A ∩ B = v + (U ∩ W ) 21-7

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

gilt. Es ist v + (U ∩ W ) ⊆ v + U = A und ebenso v + (U ∩ W ) ⊆ B, also v + (U ∩ W ) ⊆ A ∩ B. Nun sei umgekehrt x ∈ A ∩ B = (v + U ) ∩ (v + W ). Dann existieren u ∈ U , w ∈ W mit x = v + u und x = v + w. Insbesondere ist u = x − v = w ∈ U ∩ W , also x = v + u ∈ v + (U ∩ W ). Damit ist diese Aussage bewiesen, und insbesondere ist A ∩ B ein affiner Teilraum von V mit Richtung U ∩ W . Wir kommen jetzt zu Aussage (b). Zun¨achst ist v+(U +W ) ⊆ V ein affiner Teilraum von A = v +U ⊆ v +(U +W ) und B = v +W ⊆ v +(U +W ). Ist andererseits C ⊆ V ein beliebiger affiner Teilraum von V mit A, B ⊆ C, so ist insbesondere v ∈ A∩B ⊆ A ⊆ C, also C = v + T mit einem Teilraum T ≤ V , und wegen v + U = A ⊆ C = v + T und v + W = B ⊆ C = v + T , sind auch U, W ⊆ T , also U + W ⊆ T und v + (U + W ) ⊆ v + T = C. Damit ist (b) bewiesen, und die Dimensionsformel ergibt sich jetzt mit der Dimensionsformel f¨ ur Untervektorr¨aume dim(A∩B)+dim(AB) = dim(U ∩W )+dim(U +W ) = dim U +dim W = dim A+dim B.

Angenommen wir wollen wissen was normalerweise der Durchschnitt zweier dreidimensionaler affiner Teilr¨aume A, B des R5 ist. Im Regelfall ist AB = R5 und A ∩ B 6= ∅, und die Dimensionsformel besagt damit dim(A ∩ B) = 2 · 3 − 5 = 1, d.h. zwei solche R¨aume schneiden sich in der Regel in einer Geraden. Wir k¨onnen unsere bisher erzielten Ergebnisse u ¨ber lineare Gleichungssysteme jetzt in der Sprache affiner Teilr¨aume formulieren, und erhalten den folgenden Satz. Satz 12.2 (L¨ osungsr¨ aume linearer Gleichungssysteme) Seien K ∈ {R, C}, n, m ∈ N mit n, m ≥ 1 und betrachte ein lineares Gleichungssystem Ax = b mit aus m Gleichungen in n Unbekannten mit Koeffizientenmatrix A ∈ K m×n und rechter Seite b ∈ K m . Weiter sei r die Anzahl von Null verschiedener Zeilen nach Anwendung des Gaußsschen Eliminationsverfahrens auf A. Dann hat Ax = b entweder keine L¨osung oder die Menge L := {x ∈ K n |Ax = b} ist ein (n − r)-dimensionaler affiner Teilraum des K n , dessen Richtung die L¨osungsmenge des zugeh¨origen homogenen linearen Gleichungssystems Ax = 0 ist. ¨ Beweis: Dies ist klar nach §9.Satz 3 und unseren Uberlegungen zur Dimension des L¨osungsraums eines homogenen linearen Gleichungssystems in §11.3. Umgekehrt ist jeder affine Teilraum des K n als L¨osungsraum eines linearen Gleichungssystems mit n Unbekannten darstellbar. F¨ ur den leeren affinen Teilraum ist dies klar, wir betrachten also einen affinen Teilraum T ⊆ K n der Dimension m mit 0 ≤ m ≤ n. Sei U ≤ K n die Richtung von T und w¨ahle einen Aufpunkt a ∈ T . Nach §11.Lemma 11 existiert eine Basis v1 , . . . , vn des K n mit U = hv1 , . . . , vm i. Sei C die Transformationsmatrix von der kanonischen Basis e1 , . . . , en des K n zur Basis v1 , . . . , vn . Ein Vektor v ∈ K n liegt genau dann in U wenn die hinteren n − m Koordinaten von v bez¨ uglich der Basis v1 , . . . , vn gleich Null sind. Ist also A die aus den unteren m − n Zeilen von C 21-8

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

bestehende (n−m)×n Matrix u ¨ber K, so ist U genau der L¨osungsraum des homogenen linearen Gleichungssystems Ax = 0. Verwenden wir dann b := Aa ∈ K n−m also rechte Seite, so ist T genau der L¨osungsraum von Ax = b. Das beschriebene Verfahren ist effektiv leicht durchf¨ uhrbar. Wir nehmen an die Richtung U des affinen Teilraums ist gegeben. Dann bestimmt man eine Basis v1 , . . . , vm von U . Ist U beispielsweise durch ein Erzeugendensystem gegeben, so wissen wir das wir nur linear abh¨angige Vektoren entfernen m¨ ussen bis eine Basis u ¨brig bleibt. Im n¨achsten n Schritt muss v1 , . . . , vm dann zu einer Basis v1 , . . . , vn des K erg¨anzt werden, und nach dem Steinitzschen Austauschsatz §11.Lemma 5 wissen wir das wir hierbei mit Erg¨anzen ¨ geeigneter der e1 , . . . , en auskommen. Die Ubergangsmatrix von der Basis v1 , . . . , vn zur kanonischen Basis e1 , . . . , en ist dann einfach die Matrix C deren Spalten die Vektoren ¨ v1 , . . . , vn sind, und die gesuchte Ubergangsmatrix von der Basis e1 , . . . , en zur Basis −1 v1 , . . . , vn ist die inverse Matrix C . Als ein konkretes Beispiel betrachten wir den zweidimensionalen affinen Teilraum       1 1 0 + *  −1       +  2 , 1  T =  0   −1   2  1 1 −2 des R4 . Richtung und Aufpunkt sind hier direkt angegeben. Wegen 1 0 1 0 2 1 0 2 2 1 0 0 1 = −1 = 5 6= 0 2 1 = − −1 2 0 1 1 −2 1 −2 0 1 −2 0 0 ist v1 , v2 , e1 , e3 eine Basis des R4 wobei v1 , v2 die beiden Erzeuger der Richtung von T ¨ sind. Die gesuchte Ubergangsmatrix erhalten wir durch Invertieren  −1   1 0 1 0 0 2 0 1  2  1 0 0  1 0 −2    = 1 0 .   −1  2 0 1 5 −2 0 −1  5 1 −2 0 0 0 0 5 5 Die Koeffizientenmatrix unseres linearen Gleichungssystems besteht aus den unteren beiden Zeilen dieser Matrix, also   1 5 −2 0 −1 A= 0 5 5 5 0 und die rechte Seite ist 

b=

1 5



5 −2 0 −1 0 0 5 5



 1    −1  1 6  ·  0 = 5 5 . 1

21-9

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Multiplizieren wir noch die erste Gleichung mit 5, so ergibt sich das lineare Gleichungssystem 5x − 2y − v=6 u + v=1 dessen L¨osungsmenge genau der affine Teilraum T ist.

12.2

Lineare Abbildungen und Matrizen

Wir wollen jetzt alle linearen Abbildungen f : K n → K m explizit bestimmen. Sei A ∈ K m×n eine m × n Matrix u ur jeden Spaltenvektor x ∈ K n k¨onnen wir ¨ber K. F¨ dann das Produkt Ax ∈ K m bilden, und erhalten auf diese Weise eine Abbildung fA : K n → K m ; x 7→ Ax. Diese Abbildung ist linear, denn sind x, y ∈ K n und λ ∈ K so haben wir nach den Rechenregeln der Matrixmultiplikation fA (x+y) = A·(x+y) = Ax+Ay = fA (x)+fA (y) und fA (λx) = A·λx = λ·Ax = λfA (x). Damit geh¨ort zu jeder m × n Matrix A u ¨ber K eine lineare Abbildung fA ∈ K m×n . Umgekehrt hat u ¨berhaupt jede lineare Abbildung f : K n → K m diese Form. Sei n n¨amlich f : K → K m eine lineare Abbildung. F¨ ur jedes 1 ≤ i ≤ n schreiben wir dann   a1i  ..  f (ei ) =  .  ∈ K m ami und bilden die m × n Matrix 

 a11 · · · a1n  ..  , ... A :=  ... .  am1 · · · amn deren Spalten die Vektoren f (e1 ), . . . , f (en ) sind. F¨ ur jedes x ∈ K n rechnen wir dann f (x) = f (x1 e1 + · · · + xn en ) = x1 f (e1 ) + · · · + xn f (xn )       a11 x1 + · · · + a1n xn a11 a1n       .. = x1 ·  ...  + · · · + xn ·  ...  =   . am1 x1 + · · · + amn xn am1 amn = Ax = fA (x), d.h. wir haben f = fA . Damit kann u ¨berhaupt jede lineare Abbildung f : K n → K m durch eine m × n Matrix beschrieben werden, und zwar so, dass die Spalten der Matrix genau die Bilder der kanonischen Basisvektoren e1 , . . . , en sind. Umgekehrt ist fA (ei ) = Aei f¨ ur jedes 1 ≤ i ≤ n gerade die i-te Spalte von A, wir haben also eine bijektive Entsprechung Lineare Abbildungen f : K n → K m = m × n-Matrizen u ¨ber K. 21-10

Mathematik f¨ ur Physiker I, WS 2010/2011

Wir wollen die nebenstehend gezeigten Beispiele linearer Abbildungen R2 → R2 behandeln. Die Identit¨at ist dabei nur zum Vergleich angegeben. Wir beginnen mit den Skalierungen, bei diesen werden x- und y-Achse mit Faktoren a, b ∈ R gestreckt. Ist dabei a oder b negativ, so treten auch noch Spiegelungen an den Koordinatenachsen auf. Um die Matrix dieser linearen Abbildung zu sehen, m¨ ussen wir die Bilder der kanonischen Basisvektoren e1 , e2 als Spalten verwenden. Dabei liegt e1 auf der xAchse, wird also um den Faktor a gestreckt und hat das Bild ae1 . F¨ ur e2 ergibt sich analog das Bild be2 , und wir erhalten die Matrix   a Sa,b = . b

Montag 24.1

Phy I Skaliert

Phy I Identisch

Phy I Scherung

y Ph

I

Rotiert

Wir kommen zu den Scherungen l¨angs der x-Achse. Diese lassen jede zur x-Achse parallele Gerade fest, und bewirken auf diesen eine Verschiebung um einen zur H¨ohe y proportionalen Wert. Die Proportionalit¨atskonstante sei dabei t ∈ R. Auf der x-Achse selbst ist die H¨ohe 0 und es liegt u ¨berhaupt keine Verschiebung vor, d.h. e1 wird auf e1 abgebildet. Dagegen liegt e2 in der H¨ohe 1, wird also um t in x-Richtung verschoben und somit auf te1 + e2 abgebildet. Die Scherungsmatrix ist damit   1 t St = . 1 Der letzte zu untersuche Abbildungstyp ist die e2 Drehung um den Nullpunkt mit dem Winkel φ ∈ R. v2 Dies ist eine lineare Abbildung, was klar ist wenn sie etwa an die Interpretation der Addition von Vekv1 toren in einem Parallelogram denken. Zur Bestimmung der Drehmatrix Dφ m¨ ussen wir uns wieder die Bilder der beiden Einheitsvektoren anschauen. e1 F¨ ur das Bild von e1 erhalten wir das rechts gezeigte rechtwinklige Dreieck mit Hypothenuse 1 dessen Ankathete und Gegenkathete zum Winkel φ gerade die x- und y-Koordinaten des Bildes von e1 sind, d.h. e1 wird auf cos(φ)e1 + sin(φ)e2 abgebildet. F¨ ur das Bild von e2 liegt eine ¨ahnliche Situation vor, nur das Ankathete und Gegenkathete diesmal die y- beziehungsweise die negative xKoordinate des Bildes sind, das Bild von e2 ist also − sin(φ)e1 + cos(φ)e2 . Insgesamt ergibt sich die Drehmatrix   cos φ − sin φ Dφ = . sin φ cos φ 21-11

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Kommen wir zur allgemeinen Situation der Gleichheit von Matrizen und linearen Abbildungen K n → K m zur¨ uck. Im Lichte dieser Korrespondenz ist es dann nat¨ urlich zu fragen wie sich Eigenschaften der linearen Abbildung in Eigenschaften der zugeh¨origen Matrix u ¨bersetzen. Wir wollen einige dieser Entsprechungen kurz durchgehen. 1. Sind A, B ∈ K m×n zwei m × n-Matrizen u ¨ber K, so k¨onnen wir ihre Summe A + B bilden. Die zugeh¨orige lineare Abbildung ist gegeben als fA+B (x) = (A + B) · x = Ax + Bx = fA (x) + fB (x), also ist fA+B = fA + fB die Summe der zugeh¨origen linearen Abbildungen. Entsprechend ergibt sich f¨ ur jeden Skalar λ ∈ K auch fλA = λfA . 2. Nun sei zus¨atzlich r ≥ 1 und betrachte Matrizen A ∈ K m×n und B ∈ K n×r . Dann k¨onnen wir das Produkt AB dieser beiden Matrizen bilden, und erhalten eine m × r-Matrix. F¨ ur die zugeh¨orige lineare Abbildung rechnen wir fAB (x) = (AB)x = A(Bx) = fA (fB (x)) f¨ ur jedes x ∈ K n , es ist also fAB = fA ◦ fB die Hintereinanderausf¨ uhrung der zugeh¨origen linearen Abbildungen. Dies zeigt Hintereinanderausf¨ uhrung linearer Abbildungen = Multiplikation von Matrizen. Tats¨achlich ist diese Beobachtung der Grund daf¨ ur das die Multiplikation von Matrizen u ¨berhaupt so definiert wird, wie wir sie definiert haben. 3. Zur Einheitsmatrix geh¨ort offenbar die identische Abbildung idK n . Kombinieren wir dies mit der Kennzeichnung der Bijektivit¨at gem¨aß §3.Lemma 3 so folgt f¨ ur n×n eine quadratische Matrix A ∈ K fA ist Isomorphismus ⇐⇒ A ist invertierbar und in diesem Fall gilt dann fA−1 = fA−1 . 4. Sei A ∈ K m×n . Was sind dann Kern und Bild der linearen Abbildung fA ? F¨ ur das Bild erhalten wir mit §11.Lemma 9.(c) Bild(fA ) = hfA (e1 ), . . . , fA (en )i = hAe1 , . . . , Aen i, d.h. das Bild von fA ist der von den Spalten von A aufgespannte Untervektorraum des K m . Kombinieren wir dies mit der Tatsache §11.Satz 6.(b) das wir jedes Erzeugendensystem zu einer Basis ausd¨ unnen k¨onnen, so folgt dim Bild(fA ) = Dimension des Aufspanns der Spalten von A = Maximale Anzahl linear unabh¨angiger Spalten von A. 21-12

Mathematik f¨ ur Physiker I, WS 2010/2011

Montag 24.1

Auch den Kern k¨onnen wir mit bekannten Objekten in Zusammenhang bringen. Der Kern von fA ist die Menge aller x ∈ K n mit fA (x) = 0, also aller x ∈ K n mit Ax = 0. Dies bedeutet Kern(fA ) = L¨osungsmenge des homogenen linearen Gleichungssystems Ax = 0. Auch die Dimension des Kerns k¨onnen wir damit berechnen. F¨ uhren wir das Gaußsche Eliminationsverfahren mit der Matrix A durch und bezeichnen die Anzahl der am Ende u ¨brig bleibenden, von Null verschiedenen, Zeilen wieder mit r, so wissen wir schon dass der L¨osungsraum von Ax = 0 die Dimension n − r hat. Damit ist auch dim Kern(fA ) = n − r.

21-13