09 Prof. Dr. M. Griesemer

Ho ¨here Mathematik I Universit¨at Stuttgart, WS 2008/09 Prof. Dr. M. Griesemer Empfehlungen zum Studium der HM I Der Vorlesung folgen (d.h. alles ...
Author: Elke Kolbe
7 downloads 6 Views 3MB Size
Ho ¨here Mathematik I Universit¨at Stuttgart, WS 2008/09 Prof. Dr. M. Griesemer

Empfehlungen zum Studium der HM

I

Der Vorlesung folgen (d.h. alles jetzt verstehen)

I

Vorlesungsstoff aufarbeiten

I I

Aufgaben l¨ osen Pru ¨fungsvorbereitung

I

Ausgleich zum Studium

Literatur

1. B¨arwolff: H¨ ohere Mathematik 2. Blatter: Ingenieur-Analysis (www.math.ethz.ch/ blatter/) 3. Brauch, Dreyer, Haacke: Mathematik fu ¨r Ingenieure 4. Fischer, Kaul: Mathematik fu ¨r Physiker (3Bd.) 5. Kerner, von Wahl: Mathematik fu ¨r Physiker 6. Kimmerle, Stroppel: Analysis / Lineare Algebra 7. Meyberg, Vachenauer: H¨ohere Mathematik (2Bd.)

Quantendynamik

∂2 ∂ i ψ(x, t) = − 2 ψ(x, t), ∂t ∂x

ψ(0, t) = 0 = ψ(π, t).

Aussagenlogik

Aussagen

Eine Aussage ist ein Satz in Worten oder Zeichen, welche eindeutig als wahr oder falsch deklariert werden kann. Aussagen sind: I

2+2=5

I

Durch zwei verschiedene Punkte gibt es genau eine Gerade

I

Morgen scheint die Sonne

Keine Aussagen sind: I

Elektronen sind blau

I

Die Beatles waren bessere Musiker als Beethoven

Aussagen Ein Axiom oder ein Postulat ist eine Aussage, welche gem¨aß Vereinbarung wahr ist. Beispiele: I

Zu jeder Geraden g und zu jedem nicht auf g liegenden Punkt P gibt es genau eine Gerade, welche durch P verl¨auft und zu g parallel ist.

I

Die Lichtgeschwindigkeit im Vakuum ist unabh¨angig vom Bewegungszustand von Quelle und Beobachter.

Ein Theorem, Satz, Lemma oder Korollar ist eine wahre Aussage, welche aus den Axiomen hergeleitet werden kann. Eine Aussagenform ist ein Satz in Worten oder Zeichen, welcher mindestens eine Variable enth¨alt, und fu ¨r jede zul¨assige Belegung der Variablen zu einer Aussage wird (Bsp.: x < 1).

Nicht, und, oder Wir benutzen a, b, c . . . zur Abku ¨rzung von Aussagen (a := 5 ist ” eine Primzahl.“) Die m¨ oglichen Wahrheitswerte einer Aussage bezeichnen wir mit 1 (wahr) und 0 (falsch). Die Wahrheitswerte der neuen Aussagen: ¬a a∨b a∧b

nicht a“ ” a oder b“ ” a und b“ ”

¬a 1 0 1 0

a 0 1 0 1

b 0 0 1 1

a∨b 0 1 1 1

a∧b 0 0 0 1

h¨angen nur von den Wahrheitswerten von a und b ab, und sind definiert durch obige Wahrheitswertetabelle.

¨ Implikation und Aquivalenz Seien a und b zwei Aussageformen. a⇒b : a⇔b :

aus a folgt b“ ” bedeutet: falls a wahr ist, dann ist auch b wahr, a ist ¨aquivalent zu b“ ” bedeutet: a ist genau dann wahr, wenn b wahr ist.

Bemerkung: a ⇒ b und a ⇔ b sind keine Aussagen, sondern beschreiben Beziehungen zwischen den Aussageformen a und b. (siehe Vortragsu ¨bung)

Satz 1.1 Die Implikation a ⇒ b und deren Kontraposition ¬b ⇒ ¬a sind logisch ¨aquivalent. Beweis: Vortragsu ¨bung.

Satz 1.2 (De Morgansche Regeln)

¬(a ∧ b) ⇔ ¬a ∨ ¬b ¬(a ∨ b) ⇔ ¬a ∧ ¬b

Satz 1.3 (Distributivgesetze)

a ∧ (b ∨ c) ⇔ (a ∧ b) ∨ (a ∧ c) a ∨ (b ∧ c) ⇔ (a ∨ b) ∧ (a ∨ c).

Quantoren Sei a(x) eine Aussageform. ∀x : a(x)

fu ¨r alle x gilt a(x)“ ”

ist dieVund-Verknu ¨pfung aller Aussagen a(x). Man schreibt daher auch x : a(x). ∃x : a(x)

es gibt ein x, so dass a(x) gilt“ ”

ist dieWoder-Verknu ¨pfung aller Aussagen a(x). Man schreibt daher auch x : a(x). De Morgansche Regeln: ¬∀x : a(x) ⇔ ∃x : ¬a(x), ¬∃x : a(x) ⇔ ∀x : ¬a(x).

Mengen

Eine Menge M ist eine Zusammenfassung von Objekten m, genannt Elemente von M, zu einem Ganzen. m∈M : m 6∈ M :

m ist Element von M“ ” m ist nicht Element von M“. ”

∅ bezeichnet die leere Menge (sie enth¨alt kein Element). Mengen kann man beschreiben durch Aufz¨ahlung der Elemente: {1, 3, 7} = {3, 1, 7} = {1, 1, 3, 7} oder mit Hilfe einer Aussageform a(x): M := {x ∈ X |a(x)} ist die Menge der Elemente x ∈ X fu ¨r welche die Aussage a(x) wahr ist.

Wichtige Beispiele

N := {1, 2, 3, . . .}

Menge der natu ¨rlichen Zahlen,

N0 := {0, 1, 2, 3, . . .} Z := {0, ±1, ±2, . . .} Menge der ganzen Zahlen, m Q := { |(m ∈ Z) ∧ (n ∈ N)} Menge der rationalen Zahlen, n R := Menge der reellen Zahlen, C := Menge der komplexen Zahlen.

Teilmengen Eine Menge A heißt Teilmenge der Menge B: A⊂B falls jedes Element von A auch ein Element von B ist. Dabei ist A = B erlaubt. Es gilt also: ∅ ⊂ A,

A ⊂ A.

Beispiele: N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C. Die Menge aller Teilmengen einer Menge A heißt Potenzmenge von A und wird mit P(A) bezeichnet. Beispiel:  P({1, 3, 7}) = ∅, {1}, {3}, {7}, {1, 3}, {1, 7}, {3, 7}, {1, 3, 7} .

Mengenoperationen Seien A und B zwei Mengen. A ∩ B := {x|x ∈ A ∧ x ∈ B}

Durchschnitt

A ∪ B := {x|x ∈ A ∨ x ∈ B}

Vereinigung

A\B := {x|x ∈ A ∧ x 6∈ B} =

Differenz

{x ∈ A|x 6∈ B}.

Die Mengen A und B heißen disjunkt, falls A ∩ B = ∅. Falls A Teilmenge einer Grundmenge X ist, u ¨ber welche kein Zweifel besteht, dann heißt Ac := X \A, das Komplement von A.

Kartesisches Produkt Das kartesische Produkt von zwei Mengen A, B ist die Menge A × B := {(x, y )|x ∈ A, y ∈ B} der geordneten Paare (a, b). Also B × A 6= A × B. Fu ¨r n Mengen A1 , . . . An ist A1 × A2 × · · · An := {(a1 , . . . , an )|ai ∈ Ai } die Menge der geordneten n-Tupel (a1 , . . . , an ), und An := |A × A{z × · · · A} . n Faktoren

Abbildungen

Seien A, B zwei beliebige Mengen. Eine Abbildung oder Funktion f von A nach B, in Zeichen: f : A → B, ist eine Vorschrift, welche jedem Element x ∈ A ein Element y ∈ B zuordnet. Man schreibt y = f (x),

oder f : x 7→ f (x).

A heißt Definitionsbereich, f (A) := {f (x)|x ∈ A} heißt Wertebereich oder Bildmenge von f . f ist der Name der Funktion und f (x) ist der Wert der Funktion an der Stelle x. Fu ¨r U ⊂ A und V ⊂ B ist f (U) := {f (x)|x ∈ U} f −1 (V ) := {x|f (x) ∈ V }

Bild von U, Urbild von V .

Der Graph der Abbildung f ist die Menge G(f ) := {(x, y )|x ∈ A, y = f (x)}.

Die Umkehrabbildung Eine Abbildung f : A → B heißt injektiv, falls fu ¨r alle x, y ∈ A gilt: f (x) = f (y )



x = y.

f heißt surjektiv, falls f (A) = B, und f heißt bijektiv, falls f injektiv und surjektiv ist. Ist f bijektiv, dann existiert die Umkehrabbildung f −1 : B → A, definiert durch y = f (x)



x = f −1 (y ).

Es gilt also f −1 (f (x)) = x

und f (f −1 (y )) = y .

Vorsicht: f −1 (y ) 6= f (y )−1 ! Im Fall A, B ⊂ R bekommt man den Graphen von f −1 durch Spiegelung des Graphen von f an der Geraden y = x in R2 .

Einschr¨ankung einer Funktion Sei f : A → B gegeben und sei U ⊂ A. Die Einschr¨ ankung oder Restriktion von f auf U ist die neue Abbildung f  U : U → B,

(f  U)(x) = f (x).

Bemerkungen. I

Durch geeignete Wahl von U kann eine nicht-injektive Funktion injektiv gemacht werden.

I

Falls B w¨ahlbar ist, dann wird f durch die Wahl B = f (A) surjektiv.

Beispiel. Mit f (x) = x 2 meint man in der Regel eine Funktion, mit A = B = R. f ist also weder injektiv noch surjektiv. Durch die √ Wahl A = B = {x ∈ R|x ≥ 0} wird f bijektiv und f −1 (x) = x.

Komposition von Funktionen Sind f : X → Y und g : Y → Z zwei gegebene Abbildungen, dann ist die Verknu ¨pfung (Zusammensetzung, Komposition) g ◦f :X →Z von f und g definiert durch (g ◦ f )(x) := g (f (x)).

Satz 1.4 Die Verknu ¨pfung von Abbildungen ist assoziativ. D.h., wenn f : X → Y , g : Y → Z und h : Z → W , dann (h ◦ g ) ◦ f = h ◦ (g ◦ f ).

Satz 1.5 Sind f : X → Y und g : Y → Z bijektiv, dann ist auch g ◦ f : X → Z bijektiv und es gilt (g ◦ f )−1 = f −1 ◦ g −1 .

Reelle Zahlen

Vollst¨andige Induktion Die Elemente von N := {1, 2, 3. . . .} heißen nat¨ urliche Zahlen. Alle Eigenschaften der natu ¨rlichen Zahlen, z.B. I

m, n ∈ N ⇒ m + n ∈ N, m · n ∈ N

I

Jede nichtleere Teilmenge von N hat ein kleinstes Element.

lassen sich aus fu ¨nf Axiomen herleiten (Peanosche Axiome, siehe B¨arwolff). Das wichtigste fu ¨r uns ist das Induktionsaxiom: Falls M ⊂ N, 1 ∈ M und n ∈ M ⇒ (n + 1) ∈ M, dann gilt M = N. Beweisprinzip der vollst¨ andigen Induktion: Sei n0 ∈ Z und fu ¨r jedes n ≥ n0 sei a(n) eine Aussage. Falls: 1. a(n0 ) ist wahr, 2. a(n) ⇒ a(n + 1), dann ist a(n) wahr fu ¨r alle n ≥ n0 . (W¨ahle M = {k ∈ N|a(n0 − 1 + k) ist wahr} im Induktionsaxiom)

Rekursive Definitionen Fakult¨at: (n + 1)! = n! · (n + 1)

0! = 1, Potenzen: a0 := 1,

an+1 := an · a,

fu ¨r alle a ∈ R.

Summen und Produktzeichen: n X

n Y

ak = a1 + a2 + . . . + an ,

k=1

ak = a1 a2 · · · an

k=1

werden rekursiv definiert: 1 X k=1 1 Y

ak := a1 ,

ak := a1 ,

k=1

n+1 X k=1 n+1 Y k=1

ak :=

ak :=

n X k=1 n Y



ak + an+1 

ak · an+1

k=1

Binomialkoeffizienten Fu ¨r k, n ∈ N0 mit k ≤ n definiert man   n n! n(n − 1) . . . (n − k + 1) = := k k!(n − k)! k! Es gilt     n n =1= , 0 n

    n n = . k n−k

Lemma 1.6 Fu ¨r alle k, n ∈ N mit k ≤ n gilt       n+1 n n = + . k k −1 k Bemerkung: diese Rekursionsbeziehung fu ¨hrt auf das Pascalsche Dreieck.

Binomische Formel

Satz 1.7 Fu ¨r beliebige a, b ∈ R und jede natu ¨rliche Zahl n gilt n   X n n−k k (a + b)n = a b . k k=0

Rationale und irrationale Zahlen Reelle Zahlen, die sich schreiben lassen als m/n mit m ∈ Z und n ∈ N heißen rationale Zahlen. Reelle Zahlen, welche sich nicht so schreiben lassen heißen irrationale Zahlen. Die Summe m/n + p/q und das Produkt m/n · p/q von zwei rationalen Zahlen ist wieder eine rationale Zahl, und wenn m/n 6= 0, dann ist auch die Inverse n/m eine rationale Zahl. Es √ gibt aber auch irrationale Zahlen! Zum Beispiel: 2, π, e = 2.71828 . . .

Satz 1.8 Eine reelle Zahl ist genau dann rational, wenn sie eine abbrechende oder eine periodische Dezimalbruchdarstellung hat. Es gilt 0.b1 b2 . . . bk =

b1 b2 . . . bk 99 . . . 9

mit k Neunen im Nenner. Wir stellen uns reelle Zahlen als Punkte auf der Zahlengeraden vor.

Intervalle Seien a, b ∈ R. a < b, sprich a ist kleiner als b“, bedeutet dass ” b − a > 0, und a ≤ b ⇔ (a < b) ∨ a = b. Eine Teilmenge I ⊂ R heißt Intervall, falls x, y ∈ I ∧ (x < t < y ) ⇒ t ∈ I . Fu ¨r a, b ∈ R definiert man [a, b] := {x ∈ R|a ≤ x ≤ b}

abgeschlossenes Intervall

(a, b) := {x ∈ R|a < x < b}

offenes Intervall

[a, b) := {x ∈ R|a ≤ x < b} (a, b] := {x ∈ R|a < x ≤ b} [a, ∞) := {x ∈ R|a ≤ x} (a, ∞) := {x ∈ R|x > a}, und analog fu ¨r (−∞, b] und (−∞, b). Die Intervalle [a, b) und (a, b] nennt man halboffen. (±∞ sind keine reelle Zahlen!)

Schranken und Vollst¨andigkeitsaxiom Sei S ⊂ R. S heißt nach oben beschr¨ ankt, falls ein b ∈ R existiert, mit S ⊂ (−∞, b]

(d.h. x ∈ S ⇒ x ≤ b)

Die Zahl b nennt man dann eine obere Schranke von S. Die Menge S heißt nach unten beschr¨ankt, falls eine Zahl a ∈ R existiert, mit S ⊂ [a, ∞), und dann heißt a eine untere Schranke. Die Menge S heißt beschr¨ ankt, wenn sie eine untere Schranke a und eine obere Schranke b hat, so dass S ⊂ [a, b]. Vollst¨ andigkeitsaxiom: Jede nicht leere, nach oben beschr¨ankte Menge S ⊂ R, hat eine kleinste obere Schranke, genannt Supremum von S, sup(S).

Bemerkungen: I Das Vollst¨ andigkeitsaxiom garantiert die Existenz irrationaler √ Zahlen, wie z.B. 2: √ 2 = sup{x ∈ Q|x 2 < 2}. I

Aus dem Vollst¨andigkeitsaxiom folgt, dass jede nach unten beschr¨ankte Menge U ⊂ R eine gro¨sste untere Schranke hat. Man nennt Sie Infimum von U, inf(U). Es gilt inf(U) = − sup{−u|u ∈ U}.

I

I

Wenn β := sup(S) in S liegt, dann heißt β gro¨ßtes oder maximales Element von S. Man schreibt dann β = max(S). Wenn α = inf(U) in U liegt, dann heißt α kleinstes oder minimales Element von U und man schreibt α = min(U). Um auszudru ¨cken, dass S nicht nach oben und U nicht nach unten beschr¨ankt ist, schreibt man auch sup(S) = ∞,

inf(U) = −∞.

Ungleichungen Fu ¨r alle rellen Zahlen x, y , a, b gilt x ≤ y, a ≤ b ⇒ x + a ≤ y + b x ≤ y , 0 ≤ a ⇒ xa ≤ ya x ≤y 0 m.

Satz 1.17 Die Koeffizienten eines Polynoms sind eindeutig bestimmt: aus n X

k

ak x =

k=0

n X

bk x k

fu ¨r alle x ∈ R

k=0

folgt, dass ak = bk , fu ¨r k = 0 . . . n.

Fundamentalsatz der Algebra Satz 1.18 (Fundamentalsatz der Algebra) Jedes Polynom p vom Grad n ≥ 1 hat mindestens eine Nullstelle. D.h. es gibt eine komplexe Zahl α mit p(α) = 0. (Beweis in HM3)

Satz 1.19 Jedes Polynom p(x) = Faktorisierung u ¨ber C:

Pn

k=0 ak x

k

von Grad n ≥ 1, besitzt die

p(x) = an (x − α1 )m1 (x − α2 )m2 · · · (x − αr )mr , mit den verschiedenen Nullstellen αi der Vielfachheit mi , (i = 1, . . . , r ), m1 + m2 + . . . + mr = n. Ein Polynom vom Grad n ≥ 1 hat also genau n Nullstellen in C, wobei jede Nullstelle so oft gez¨ahlt wird, wie ihre Vielfachheit angibt.

Polynome mit reellen Koeffizienten

Satz 1.20 Ist α eine Nullstelle der Vielfachheit m eines Polynoms mit reellen Koeffizienten, dann ist auch α eine Nullstelle der Vielfachheit m.

Satz 1.21 P Jedes Polynom p(x) = nk=0 ak x k mit n ≥ 1, ak ∈ R, an 6= 0 hat die Faktorisierung u ¨ber R p(x) = an (x−b1 )m1 · · · (x−br )mr (x 2 +c1 x+d1 )k1 · · · (x 2 +cs x+ds )ks mit reellen Nullstellen bi der Vielfachheit mi (i = 1 . . . r ) und quadratischen Polynomen x 2 + ci x + di der Vielfachheit ki (i = 1 . . . s), die in R keine Nullstellen haben.

Rationale Funktionen Ein Quotient zweier Polynome p(x) an x n + . . . + a1 x + a0 = , q(x) bm x m + . . . + b1 x + b0

an 6= 0, bm 6= 0,

(3)

heißt rationale Funktion. Der Definitionsbereich von p/q ist die Menge {x ∈ C | q(x) 6= 0}.

Satz 1.22 Jede rationale Funktion (3) mit Z¨ahlergrad ≥ Nennergrad (n ≥ m), l¨asst sich darstellen in der Form p(x) r (x) = h(x) + q(x) q(x) mit einem Polynom h und einem Restpolynom r wobei r = 0 oder Grad(r ) < Grad(q). Diese Darstellung ist eindeutig.

Lineare Algebra

Rn und Cn als Vektorr¨aume Sei K = R oder K = C. Wir definieren in K n = K × . . . × K eine Addition von zwei n-Tupeln ~x = (x1 , . . . , xn ) und ~y = (y1 , . . . , yn ) durch ~x + ~y := (x1 + y1 , . . . , xn + yn ), und eine Multiplikation von einer Zahl λ ∈ K mit einem n-Tupel ~x = (x1 , . . . , xn ) durch λ~x := (λx1 , . . . , λxn ). Die Elemente von K n versehen mit diesen Operationen nennt man Vektoren (statt n-Tupel). Der Vektor ~0 = (0, . . . , 0) heißt Nullvektor. Man definiert ~x − ~y := ~x + (−~y ).

Fu ¨r die Vektoroperationen in K n gelten folgende Rechenregeln: I

Die Vektoraddition ist kommutativ und assoziativ, ~x + ~0 = ~x fu ¨r alle x ∈ K n ,

I

~x + (−~x ) = ~0 fu ¨r alle x ∈ K n .

I

Ausserdem gilt fu ¨r alle λ, µ ∈ K und alle ~x , ~y ∈ K n : I

λ(~x + ~y ) = λ~x + λ~y ,

I

(λ + µ)~x = λ~x + µ~x ,

I

(λµ)~x = λ(µ~x ),

I

1~x = ~x .

Damit wird K n zu einem n-dimensionalen Vektorraum (vgl. sp¨atere Definition abstrakter Vektorr¨aume)

Lineare Gleichungssysteme Ein reelles lineares Gleichunssystem mit m Gleichungen und n Unbekannten ist von der Form a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. .. . . . am1 x1 + am2 x2 + . . . + amn xn = bm wobei aik , bi , fu ¨r 1 ≤ i ≤ m, 1 ≤ k ≤ n gegebene reelle Zahlen sind. Das System heißt homogen, wenn b1 = b2 = · · · = bm = 0, sonst heißt es inhomogen. Wir interessieren uns fu ¨r die L¨osungsmenge, d.h. die Menge der n-Tupel (x1 , . . . , xn ), welche alle m Gleichungen gleichzeitig l¨osen.

Das Gauß’sche L¨osungsverfahren

Bei folgenden Umformungen ¨andert sich die L¨osungsmenge eines lineare Gleichungssystems nicht. Wir sagen: das Gleichungssystem geht in ein ¨aquivalentes Gleichungssystem u ¨ber. 1. Vertauschung zweier Gleichungen. 2. Multiplikation einer Gleichung mit λ 6= 0. 3. Addition des λ-fachen der iten Gleichung zur j-ten Gleichung. Diese Feststellung ist die Grundlage Gauß’sches L¨osungsverfahren.

Matrizen Eine reelle m × n-Matrix ist ein rechteckiges Schema von reellen Zahlen   a11 a12 a13 . . . a1n  a21 a22 a23 . . . a2n    A= . .. .. ..  = (aik ). .  . . . .  am1 am2 am3 . . . amn Das Element aik steht in der i-ten Zeile und der k-ten Spalte. Man definiert die Summe von zwei m × n Matrizen A = (aik ) und B = (bik ) durch A + B := (aik + bik ) und das Produkt einer Matrix A = (aik ) mit einer Zahl λ ∈ R durch λA := (λaik ). Weiter ist A − B := A + (−B).

Diese Addition und die skalare Multiplikation von m × n Matrizen unterscheidet sich nicht von den entsprechenden Operationen in Rnm . Somit gilt fu ¨r alle m × n Matrizen A, B und alle λ, µ ∈ R: I Die Matrixaddition ist kommutativ und assoziativ, I

A+0=A

I

A + (−A) = 0

I

λ(A + B) = λA + λB,

I

(λ + µ)A = λA + µA,

I

(λµ)A = λ(µA),

I

1A = A.

Hier bezeichnet 0 die m × n-Nullmatrix deren Elemente lauter Nullen sind.

Eine m × 1 Matrix 

 a1  a2     ..  ∈ Rm  .  am nennt man auch Spaltenvektor. Eine 1 × n-Matrix (a1 , a2 , . . . , an ) ∈ Rn heißt Zeilenvektor. Wir definieren das Produkt eines Zeilenvektors aus Rn mit einem Spaltenvektor aus Rn durch   b1 n b2  X   (a1 , a2 , . . . , an )  .  := ak bk .  ..  k=1

bn

Ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten l¨asst sich somit schreiben als      a11 a12 . . . a1n x1 b1  a21 a22 . . . a2n  x2   b2        .. ..   ..  =  ..  .  . .  .   .  am1 am2 . . .

bm

xn

amn

Links steht die Koeffizientenmatrix A = (aij ) angewandt auf den Spaltenvektor ~x mit den unbekannten Komponenten xi , d.h, jede Zeile von A wird multipliziert mit dem Spaltenvektor ~x . Kurz A~x = ~b wobei

  x1  x2    ~x :=  .  ,  .. 

 b1  b2   ~b :=   ..  .  . 

xn



bm

Die Umformungen des Gauß’schen L¨osungsverfahrens lassen sich u ¨bersichtlich ausfu ¨hren an der erweiterten Koeffizientenmatrix:   a11 a12 . . . a1n b1  a21 a22 . . . a2n b2    ~ (A, b) :=  . . . .. ..   ..  am1 am2 . . .

amn bm

Die Gleichungsumformungen entsprechen den folgenden elementaren Zeilenumformungen: 1. Vertauschen von zwei Zeilen 2. Multiplikation einer Zeile mit einer Zahl λ 6= 0, 3. Addition (Subtraktion) des λ-fachen einer Zeile zu einer anderen Zeile.

Das homogene System A~x = ~0 Im Fall ~b = ~0 genu ¨gt die einfache“ Koeffizientenmatrix: ”   a11 a12 . . . a1n  a21 a22 . . . a2n     .. ..  .  . .  am1 am2 . . .

amn

artselimination: Vorw¨ I

Zeilen vertauschen bis a11 6= 0, (bzw bis a12 6= 0, falls a11 = . . . = am1 = 0),

I

subtrahiere

I

subtrahiere

I

etc.

Das Resultat ist:

a21 a11 -faches a31 a11 -faches

der ersten Zeile von zweiter Zeile, der ersten Zeile von dritter Zeile,



 • ∗ ∗ ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗     ..  .  A1 0 ∗ ∗ ∗ ∗ ∗

An der •-Stelle ist eine Zahl 6= 0, u ¨ber die Zahlen an den ∗-Stellen wird nichts ausgesagt, und A1 bezeichnet eine (m − 1) × (n − 1) Matrix. Falls A1 die Nullmatrix ist, ist man fertig. Sonst wiederholt man das Eliminationsverfahren mit A1 . Nach h¨ochstens m − 1 Eliminationsschritten gelangt man zu einer Matrix M in Zeilenstufenform, z.B. auf:   • ∗ ∗ ∗ ∗ ∗ 0 0 • ∗ ∗ ∗  M= 0 0 0 • ∗ ∗ . 0 0 0 0 0 0

R¨ uckw¨ artssubstitution I

Die Unbekannten zu den Spalten ohne • sind freie Variablen. Wir bezeichnen sie mit λ1 , . . . , λn−r .

I

Im Gleichungssystem das der Matrix M entspricht bringt man die freien Variablen λ1 , . . . , λn−r auf die rechte Seite und berechnet der Reihe nach, von unten nach oben, die zu den •-Stellen geho ¨renden abh¨angigen Variablen (in Abh¨angigkeit von λ1 , . . . , λn−r ).

Die so bestimmte Lo ¨sung heißt allgemeine L¨osung des Systems.

Der Rang der m × n-Matrix A, RangA, ist die Anzahl der von Null verschiedenen Zeilen in der Zeilenstufenmatrix M, welche aus A mittels Gauß-Elimination erzielten wurde. Offensichtlich ist RangA ≤ m.

Satz 2.1 Sei A eine m × n Matrix. Dann enth¨alt allgemeine L¨osung des homogenen Systems A~x = ~0: n − RangA

frei w¨ahlbare Parameter.

Falls RangA = n dann ist ~0 ist die einzige L¨osung. Fu ¨r RangA < n, z.B. wenn m < n, dann gibt es von Null verschiedene L¨osungen.

Das inhomogene System A~x = ~b I

Vorw¨artselimination an der Matrix (A, ~b) liefert   • ∗ ∗ ∗ ∗ ∗ d1 0 0 • ∗ ∗ ∗ :  ~  (M, d) =   0 0 0 • ∗ ∗ dr  . 0 0 0 0 0 0 dm

I

Falls eine der Zahlen dr +1 , . . . , dm verschieden von 0 ist, dann ist M~x = ~d nicht l¨ osbar, also hat auch A~x = ~b keine L¨osung Die Ru ¨cksubstitution im Fall dr +1 = . . . = dm = 0 wird analog wie bei homogenen Systemen durchgefu ¨hrt. Alternative: man berechne zuerst eine spezielle L¨osung ~v0 ∈ Rn , z.B. mit λ1 = . . . = λn−r = 0, und dann die allgemeine L¨ osung ~u (λ1 , . . . , λn−r ) von M~x = ~0. Dann ist

I

~v0 + ~u (λ1 , . . . , λn−r ) die allgemeine L¨ osung von M~x = ~d.

Satz 2.2 Sei A eine reelle m × n Matrix und sei ~b ∈ Rm . (a) A~x = ~b ist genau dann l¨osbar, wenn Rang(A, ~b) = Rang(A).

(b) Falls A~x = ~b l¨osbar ist, dann ist die allgemeine L¨osung von der Form ~v = ~v0 + ~u wobei ~v0 eine spezielle L¨osung von A~x = ~b und ~u die allgemeine L¨osung von A~x = 0 ist. ~v0 + ~u enth¨alt n − Rang(A) frei w¨ahlbare Parameter. (c) Ist A~x = ~b l¨osbar und Rang(A) = n =Anzahl der Variablen, dann ist die L¨osung eindeutig.

Das Produkt zweier Matrizen Das Produkt C := AB einer m × n Matrix A = (aij ) und einer n × r Matrix B = (bjk ) ist eine m × r Matrix C = (cij ) definiert durch cik :=

n X

aij bjk = ai1 b1k + . . . + ain bnk .

j=1

I

Im allgemeinen ist AB 6= BA.

I

Ist A eine m × n Matrix und ist ~x ∈ Rn ein Spaltenvektor, dann ist A~x ein Matrixprodukt.

I

Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist ein Spezialfall des Matrixprodukts.

Die n × n Einheitsmatrix En = (δij ) ist definiert durch  1, i = j, δij = 0, i 6= j. δij heißt Kroneckersymbol.

Satz 2.3 Seien A, A1 , A2 m × n Matrizen, B, B1 , B2 n × r Matrizen und sei C eine r × s Matrix. Dann gilt: (a) (A1 + A2 )B = A1 B + A2 B, (b)

λ(AB) = (λA)B = A(λB),

(c)

(AB)C = A(BC ),

(d)

Em A = AEn = A.

A(B1 + B2 ) = AB1 + AB2 , (λ ∈ R),

Transponierte einer Matrix Sei A eine m × n Matrix. Dann ist AT die n × m Matrix, welche aus A durch Spiegelung an der Diagonalen ensteht: die i-te Spalte von AT ist die die i-te Zeile von A, (AT )ji = Aij . AT heißt die zu A transponierte Matrix. Insbesondere ist   a1   (a1 , . . . , an )T =  ...  , an

 T b1  ..   .  = (b1 , . . . , bn ) bn

Satz 2.4 Seien A, B m × n Matrizen und sei C eine n × r Matrix. Dann gilt: (a) (A + B)T = AT + B T , (b) (λA)T = λAT , (c) (AT )T = A, (d) (AC )T = C T AT .

Eine n × n Matrix heißt symmetrisch, falls AT = A, sie heißt schiefsymmetrisch (antisymmetrisch), falls AT = −A. Offensichtlich gilt AT = A ⇔ aij = aji AT = −A ⇔ aij = −aji . I

Ist A schiefsymmetrisch, dann ist aii = 0 fu ¨r alle i = 1, . . . , n.

I

Fu ¨r jede n × n Matrix, sind A + AT , AT A und AAT symmetrisch, und A − AT ist schiefsymmetrisch.

I

Die Einheitsmatrix En ist symmetrisch.

Invertierbare Matrizen Im folgenden ist E := En und auch alle anderen Matrizen sind quadratisch.

Satz 2.5 Seien A, B, C n × n Matrizen mit BA = E = AC . Dann gilt B = C . Eine n × n Matrix A heißt invertierbar, falls eine n × n Matrix B existiert mit AB = E = BA. Nach Satz 2.5 ist B eindeutig durch A bestimmt. B heißt Inverse von A und wird mit A−1 bezeichnet. Beispiele: 1. Fu ¨r λ 6= 0 ist λE invertierbar und (λE )−1 = λ−1 E . 2. Falls ad − bc 6= 0, dann hat     1 a b d −b −1 A= die Inverse A = . c d −c a ad − bc

Satz 2.6 (a) Ist A invertierbar, dann auch A−1 , und (A−1 )−1 = A. (b) Sind A, B invertierbar, dann auch AB, und (AB)−1 = B −1 A−1 . (c) AT ist genau dann invertierbar, wenn A invertierbar ist, und dann gilt (AT )−1 = (A−1 )T .

Satz 2.7 Folgende Aussagen u ¨ber eine n × n Matrix A sind ¨aquivalent: (a) A ist invertierbar. (b) Es gibt eine n × n Matrix B mit AB = E . (c) Es gibt eine n × n Matrix C mit CA = E . (d) A~x = 0 ⇒ ~x = ~0. (e) RangA = n.

Diagonalmatrizen Eine Matrix der Form  a1 0 · · ·  0 a2  diag(a1 , . . . , an ) :=  . ..  .. . 0 ···

0



  ..  . an

heißt Diagonalmatrix. Z.B. ist En = diag(1, . . . , 1) und es gilt diag(a1 , . . . , an ) diag(b1 , . . . , bn ) = diag(a1 b1 , . . . , an bn ). Falls ai 6= 0 fu ¨r alle i, dann ist diag(a1 , . . . , an ) invertierbar und es gilt diag(a1 , . . . , an )−1 = diag(

1 1 , . . . , ). a1 an

Dreiecksmatrizen

Quadratische Matrizen der Form   ∗ ∗ ∗ ∗ 0 ∗ ∗ ∗   0 0 ∗ ∗ , 0 0 0 ∗

 ∗ ∗  ∗ ∗

0 ∗ ∗ ∗

0 0 ∗ ∗

 0 0 , 0 ∗

heißen Dreiecksmatrizen. Jede Diagonalmatrix ist eine Dreiecksmatrix.

Satz 2.8 Eine Dreiecksmatrix A = (aij ) ist genau dann invertierbar, wenn alle Diagonalelemente aii verschieden von Null sind.

Der abstrakte Vektorraum Se K = R oder K = C. Eine nichtleere Menge V fu ¨r deren Elemente eine Addition a + b und eine Multiplikation λa mit Zahlen λ ∈ K definiert ist heißt K -Vektorraum, oder Vektorraum u ¨ber K , wenn folgende Axiome erfu ¨llt sind: (V1) Die Addition ist kommutativ und assoziativ. (V2) Es gibt ein Element 0 ∈ V , genannt Nullvektor, mit a + 0 = a fu ¨r alle a ∈ V . (V3) Zu jedem a ∈ V gibt es ein Element −a ∈ V mit a + (−a) = 0. (V4) 1a = a fu ¨r alle a ∈ V . (V5) λ(µa) = (λµ)a fu ¨r alle λ, µ ∈ K , a ∈ V . (V6) λ(a + b) = λa + λb fu ¨r alle λ ∈ K , a, b ∈ V . (V7) (λ + µ)a = λa + µa fu ¨r alle λ, µ ∈ K , a ∈ V . Die Elemente eines Vektorraums nennt man Vektoren; statt a + (−b) schreibt man a − b.

Beispiele von Vektorr¨aumen I I

I

Rn ist eine Vektorraum u ¨ber R, Cn ist ein Vektorraum u ¨ber C. Die Mengen der reellen m × n Matrizen bilden einen Vektorraum u ¨ber R. Die Menge aller Funktionen f : [a, b] → R bei festen a, b ∈ R zuammen mit den Operationen (f + g )(x) := f (x) + g (x),

(λf )(x) := λf (x),

ist eine R-Vektorraum. I

Die Menge der Polynome vom Grad ≤ n, Pn := {a0 + a1 x + . . . + an x n | ai ∈ K } bilden einen Vektorraum u ¨ber K .

Sei V ein Vektorraum u ¨ber K . Eine nichtleere Teilmenge U ⊂ V heißt Unterraum von V , wenn (U1) u, v ∈ U



(U2) u ∈ U, λ ∈ K

u + v ∈ U, ⇒

λu ∈ U.

Bemerkungen: I

Ein Unterraum eines K -Vektorraums ist wieder ein K -Vektorraum.

I

Jeder Unterraum enth¨alt den Nullvektor. Jeder Vektorraum V hat die Unterr¨aume U = {0} und U = V.

I

Jede aus endliche vielen Vektoren v1 , . . . , vk ∈ V gebildete Summe k X

λi vi ,

λi ∈ K ,

i=1

heißt Linearkombination der vi . Die Menge aller Linearkombinationen der vi , Lin(v1 , . . . , vk ) :=

k nX

o λi vi λi ∈ K

i=1

heißt lineare H¨ ulle der vi . Lin(v1 , . . . , vk ) ist ein Unterraum von V .Ein Unterraum U wird von den Vektoren v1 , . . . , vk erzeugt, falls U = Lin(v1 , . . . , vk ). Man sagt auch, {v1 , . . . , vk } ist ein Erzeugendensystem von U.

Lineare Unabh¨angigkeit Endliche viele Vektoren v1 , . . . , vk heißen linear abh¨ angig, wenn es PkZahlen λ1 , . . . , λk ∈ K gibt, nicht alle gleich Null, so dass aquivalent dazu, dass sich i=1 λi vi = 0. Im Fall k > 1 ist das ¨ einer der Vektoren vi als Linearkombination der anderen schreiben l¨asst. Z.B. k−1 X vk = µi v i . i=1

Endliche viele Vektoren v1 , . . . , vk heißen linear unabh¨ angig, wenn sie nicht linear abh¨angig sind, d.h., wenn k X

λi vi = 0



λ1 = λ2 . . . = λk = 0.

i=1

Satz 2.9 Ist A eine m × n Matrix in Zeilenstufenform, dann sind die von Null verschiedenen Zeilenvektoren linear unabh¨angig.

Satz 2.10 Fu ¨r eine n × n Matrix sind folgende Aussagen ¨aquivalent: I A ist invertierbar I I

Die Spalten von A sind linear unabh¨angig. Die Zeilen von A sind linear unabh¨angig.

Satz 2.11 Fu ¨r Vektoren v1 , . . . , vk , w ∈ V gilt: (a) Lin(v1 , . . . , vk , w ) = Lin(v1 , . . . , vk ) ⇔ w ∈ Lin(v1 , . . . , vk ). (b) v1 , . . . , vk sind linear unabh¨angig ⇔ zur Erzeugung von Lin(v1 , . . . , vk ) kann kein vi weggelassen werden.

Basis und Dimension Eine Familie von linear unabh¨angigen Vektoren v1 , . . . , vn ∈ V mit V = Lin(v1 , . . . , vn ) heißt Basis von V .

Satz 2.12 Ist v1 , . . . , vn eine Basis von V , dann hat jeder Vektor a ∈ V eine Darstellung a = λ1 v1 + λ2 v2 + · · · + λn vn . wobei die Zahlen λ1 , . . . , λn ∈ K eindeutig bestimmt sind. Jede Familie von m > n Vektoren ist linear abh¨angig. Sind v1 , . . . , vn und w1 , . . . , wm zwei Basen von V , dann folgt aus Satz 2.12, dass m = n. Die Anzahl Vektoren einer Basis heißt Dimension von V . Die Dimension von {0} ist per Vereinbarung gleich Null.

Existenz einer Basis Ein Vektorraum V heißt endlich erzeugt, wenn es endlich viele Vektoren w1 , . . . , wr gibt, mit V = Lin(w1 , . . . , wr ).

Satz 2.13 Jedes Erzeugendensystem w1 , . . . , wr von V l¨asst sich (durch Weglassen von Vektoren) zu einer Basis von V reduzieren und dim Lin(w1 , . . . , wr ) ist die Maximalzahl linear unabh¨angiger Vektoren die in w1 , . . . , wr gefunden werden k¨onnen. Insbesondere hat jeder endlich erzeugte Vektorraum eine Basis.

Satz 2.14 Sei V ein endlich erzeugter Vektorraum. Dann l¨asst sich jede Familie linear unabh¨angiger Vektoren v1 , . . . , vk ∈ V zu einer Basis von V erweitern.

Aus den S¨atzen 2.13 und 2.14 folgt sofort:

Satz 2.15 Sei V ein Vektorraum der Dimension n. (a) Ist V = Lin(v1 , . . . , vn ), dann bilden v1 , . . . , vn eine Basis. (b) Sind die Vektoren v1 , . . . , vn linear unabh¨angig, dann bilden sie eine Basis.

Satz 2.16 Ist U ein Unterraum eines endlich dimensionalen Vektorraums V und U 6= V , dann ist U endlich dimensional und dim U < dim V .

Zeilen- und Spaltenraum einer Matrix Sei A eine m × n Matrix. Der durch die Spaltenvektoren a1 , . . . , an von A aufgespannte Unterraum von Rm ist der Spaltenraum von A = Lin(a1 , . . . , an ) = {Ax | x ∈ Rn }. Der durch die Zeilenvektoren z1 , . . . , zm von A aufgespannte Unterraum von Rn ist der Zeilenraum von A = Lin(z1 , . . . , zn ) = {y T A | y ∈ Rm }. Der Kern der Matrix A ist der Unterraum von Rn definiert durch KernA := {x ∈ Rn | Ax = 0}.

Satz 2.17 Sei A eine m × n Matrix. (a) Entsteht M aus A durch endliche viele elementare Zeilenumformungen, dann gibt es eine invertierbare m × m Matrix P mit M = PA. (b) Entsteht N aus A durch endlich viele elementare Spaltenumformungen, dann gibt es eine invertierbare n × n Matrix Q mit N = AQ.

Satz 2.18 Bei elementaren Zeilenumformungen ¨andert sich der Zeilenraum nicht, bei elementaren Spaltenumformungen ¨andert sich der Spaltenraum nicht. Insbesondere gilt RangA = Dimension des Zeilenraums von A.

Theorem 2.19 Sei A eine m × n Matrix. Dann gilt (a) RangA = Dimension des Zeilenraums von A, = Dimension des Spaltenraums von A. (b) RangA + dim(KernA) = n. (c) Es gibt eine invertierbare m × m Matrix P und eine invertierbare n × n Matrix Q, derart dass   Er 0 PAQ = , r = RangA. 0 0

Determinanten Die Determinante einer 2 × 2 Matrix   a1 b1 A= ist det A := a1 b2 − a2 b1 . a2 b2 Also ist A genau dann invertierbar, wenn det A 6= 0. Die Determinate einer 3 × 3 Matrix   a1 b1 c1 A = a2 b2 c2  a3 b3 c3 ist definiert durch       b2 c2 b1 c1 b1 c1 det A :=a1 det − a2 det + a3 det b3 c3 b3 c3 b2 c2 =a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1

Rekursive Definition der Determinante

Sei A = (aij ) eine n × n Matrix. I

Fu ¨r n = 1, d.h. A = (a11 ), ist die det A = a11 .

I

Fu ¨r n ≥ 2 ist (Entwicklung nach der ersten Spalte): det A =

n X

(−1)i+1 ai1 det Ai1

i=1

= a11 det A11 − a21 det A21 + . . . (−1)n+1 an1 det An1 , wobei Ai1 die (n − 1) × (n − 1) Matrix ist, welche aus A durch Entfernen der i-ten Zeile und der erste Spalte ensteht.

Rechenregeln fu¨r Determinanten Satz 2.20 Fu ¨r jede n × n Matrix A gilt: ˜ aus A durch vertauschen zweier Zeilen, dann gilt (a) Entsteht A ˜ = − det A. det A (b) det A ist linear als Funktion der Zeilenvektoren von A. D.h.,     a1 λa1     det  a2  = λ det a2  , .. .. . .       a1 + b1 a1 b1  a2  a2  a2  det   = det   + det   .. .. .. . . . und analog fu ¨r die anderen Zeilen von A.

Folgerungen: I Sind zwei Zeilenvektoren von A gleich, dann ist det A = 0. I det(λA) = λn det A wenn A eine n × n Matrix ist.

Korollar 2.21 Die elementaren Zeilenumformungen: 1. Vertauschen von zwei Zeilen, 2. Multiplikation einer Zeile mit λ 6= 0, 3. Addition des λ-fachen einer Zeile zu einer anderen Zeile, ver¨andern die Determinante um den Faktor −1, λ bzw. 1. Eine Elementarmatrix P ist eine quadratische Matrix, welche eine elementare Zeilenumformung erzeugt. Die Determinante von P stimmt u ¨berein mit dem Zahlenfaktor −1, λ bzw. 1 um welchen die Determinante sich ¨andert bei der P entsprechenden Zeilenumfomung. Es gilt also: det(PA) = det(P) det(A).

Satz 2.22 Jede invertierbare Matrix ist das Produkt von Elementarmatrizen.

Theorem 2.23 Fu ¨r n × n Matrizen A, B gilt: (a) A ist genau dann invertierbar wenn det A 6= 0. (b) det AT = det A und Satz 2.20 gilt auch fu ¨r die Spaltenvektoren einer Matrix. (c) det(AB) = det(A) det(B).

Satz 2.24 Das durch die Vektoren a, b ∈ R2 aufgespannte Parallelogramm hat den Fl¨acheninhalt | det(a, b)|. Das durch die Vektoren a, b, c ∈ R3 aufgespannte Parallelepiped (Spat) hat das Volumen | det(a, b, c)|.

Folgerungen aus Theorem 2.23: Seien A, B, C n × n-Matrizen. Dann gilt det(AB) = det(BA), det(Ak ) = det(A)k ,

k ∈ N,

det(A−1 ) = det(A)−1 , det(C −1 AC ) = det(A),

falls A invertierbar ist, falls C invertierbar ist.

wobei Ak durch A0 = E und Ak+1 = Ak A definiert ist. Ist A eine k × k, D C eine (n − k) × k  A det 0

eine (n − k) × (n − k), B eine k × (n − k) und Matrix, dann gilt    B A 0 = det A det D = det D C D

Entwicklung von det A nach beliebiger Spalte/Zeile Sei A = (aij ) eine n × n Matrix und sei Aij die (n − 1) × (n − 1) Matrix welche aus A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. Dann gelten folgende Entwicklungsformeln: Entwicklung nach der j-ten Spalte: det A =

n X

(−1)i+j aij det Aij

i=1

Entwicklung nach der i-ten Zeile: det A =

n X j=1

(−1)i+j aij det Aij

Cramersche Regel und inverse Matrix Sei A = (a1 , . . . , an ) eine invertierbare n × n Matrix und sei b ∈ Rn . Dann ist die (eindeutige) L¨osung des Gleichungssystems Ax = b gegeben durch die Cramersche Regel xi =

1 det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ). det A

(i-te Spalte von A durch b ersetzt.)

Satz 2.25 Sei A eine invertierbare n × n Matrix. Dann gilt: (A−1 )ik =

1 (−1)i+k det Aki det A

wobei rechts die Reihenfolge der Indizes i, k gegenu ¨ber links vertauscht ist.

Permutationen Eine Permutation der Zahlen {1, . . . , n} ist eine bijektive Abbildung σ : {1, . . . , n} → {1, . . . , n}. Die Permutation σ wird durch das Schema   1 2 3 ... n σ(1) σ(2) σ(3) . . . σ(n) vollst¨andig beschrieben. Es gibt n! verschiedene Permutationen von {1, . . . , n}. Das Signum einer Permutation, sgn(σ), ist definiert durch sgn(σ) = (−1)r wobei r die Anzahl Vertauschungen zweier Elemente ist, welche notwendig ist um {1, . . . , n} in die Reihenfolge {σ(1), . . . , σ(n)} zu bringen. Die Permutation σ heißt gerade, wenn sgn(σ) = +1 und ungerade wenn sgn(σ) = −1.

Die zyklischen Permutationen von {1, 2, 3}:       1 2 3 1 2 3 1 2 3 , , , 1 2 3 2 3 1 3 1 2 sind gerade, die anderen drei Permutationen sind ungerade.

Satz 2.26 Die Determinate einer n × n Matrix A = (aij ) l¨asst sich schreiben als X det A = sgn(σ)a1σ(1) a2σ(2) · · · anσ(n) σ

wobei u ¨ber alle Permutationen σ von {1, . . . , n} zu summieren ist.

Rn als Euklidischer Vektorraum Seien x, y ∈ Rn , x = (x1 , . . . , xn )T , y = (y1 , . . . , yn )T . Die Zahl T

x · y := x y =

n X

xi yi

i=1

heißt Skalarprodukt (inneres Produkt ) von x und y , und √ |x| := x · x heißt Betrag (oder L¨ange) von x. Ein Vektor x ∈ Rn heißt normiert oder Einheitsvektor, wenn |x| = 1. Vorsicht: (x · y )z 6= x(y · z).

Satz 2.27 Fu ¨r alle x, y , z ∈ Rn und alle λ ∈ R gilt (a) x · x ≥ 0 und x · x = 0 ⇔ x = 0. (b) x · y = y · x (c) x · (y + z) = x · y + x · z, und x · (λy ) = λ(x · y ),

Satz 2.28 Fu ¨r alle x, y ∈ Rn und alle λ ∈ R gilt (a) |x| ≥ 0 und |x| = 0 ⇔ x = 0. (b) |λx| = |λ||x|, (c) |x · y | ≤ |x||y |

(Cauchy-Schwarzsche Ungleichung),

(d) |x + y | ≤ |x| + |y |

(Dreiecksungleichung).

Satz 2.29 Seien x, y ∈ Rn und sei ϕ ∈ [0, π] der Winkel zwischen x und y . Dann gilt x · y = |x||y | cos ϕ. Zwei Vektoren x, y ∈ Rn heißen orthogonal, in Zeichen x ⊥ y , wenn x · y = 0. Der Nullvektor ist othogonal zu allen Vektoren. Sind x und y orthogonal, dann gilt |x + y |2 = |x|2 + |y |2 .

Satz 2.30 (Satz von Pytagoras) Sind x1 , . . . , xk ∈ Rn paarweise othogonal, d.h. xi · xj = 0 fu ¨r i 6= j, dann gilt 2 k k X X xi = |xi |2 i=1

i=1

Gram-Schmidtsches Orthogonalisierungsverfahren Eine Familie von Vektoren b1 , . . . , bk ∈ Rn heißt orthogonal wenn bi · bj = 0 f u ¨r i 6= j und sie heißt orthonormal, wenn wenn sie othogonal ist und alle Vektoren normiert sind, d.h. wenn bi · bj = δij .

Satz 2.31 I

Jede orthogonale Familie {b1 , . . . , bk } ⊂ Rn ohne den Nullvektor ist linear unabh¨angig.

I

Ist b1 , . . . , bn eine orthonormale Basis (ONB) von Rn , dann gilt fu ¨r jeden Vektor x ∈ Rn : n X x= (x · bi )bi i=1

Zu jedem System linear unabh¨angiger Vektoren a1 , . . . , ak ∈ Rn gibt es ein orthonormales System b1 , . . . , bk mit Lin{a1 , . . . , ak } = Lin{b1 , . . . , bk }. Insbesondere hat jeder Unterraum U ⊂ Rn eine ONB. Gram-Schmidtsches Orthogonalisierungsverfahren: b1 := a20

a1 |a1 |

:= a2 − (a2 · b1 )b1 ,

a30 := a3 − (a3 · b1 )b1 − (a3 · b2 )b2 , .. . ak0

a20 b2 := 0 |a2 | a30 b3 := 0 |a3 |

.. . k−1 X := ak − (ak · bi )bi , i=1

ak0 bk := 0 |ak |

Orthogonale Projektion Ist U ⊂ Rn eine beliebige Teilmenge und x ⊥ y fu ¨r alle y ∈ U, dann schreiben wir x ⊥ U.

Satz 2.32 Sei U ein Unterraum von Rn . Dann hat jeder Vektor x ∈ Rn eine eindeutige Zerlegung x = xU + yU ,

mit xU ∈ U, yU ⊥ U.

Ist {b1 , . . . , bk } eine ONB von U, dann gilt xU =

k X

(x · bi )bi .

i=1

xU heißt heißt orthogonale Projektion von x auf U.

Das Vektorprodukt in R3 Das Vektorprodukt a ∧ b von zwei Vektoren a, b ∈ R3 , a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T ist definiert durch   a2 b3 − a3 b2 a ∧ b := a3 b1 − a1 b3  a1 b2 − a2 b1 Offenbar gilt fu ¨r alle Vektoren a, b, c ∈ R3 die Identit¨at (a ∧ b) · c = det(a, b, c). Der Betrag des Spatprodukt (a ∧ b) · c ist nach Satz 2.24 das Volumen des durch a, b, c aufgespannten Spats.

Folgerungen: I

a ∧ b ist orthogonal zu a und b.

I

|a ∧ b| = |a||b| sin ϕ wobei ϕ ∈ [0, π] der Winkel zwischen a und b ist.

I

Die drei Vektoren a, b, a ∧ b bilden ein Rechtssystem, d.h. sie sind gleich orientiert wie e1 = (1, 0, 0), e2 = (0, 1, 0) und e3 = (0, 0, 1).

Satz 2.33 Fu ¨r alle a, b, c ∈ R3 gilt: (a) a ∧ b = −b ∧ a, also a ∧ a = 0, (b) λ(a ∧ b) = (λa) ∧ b = a ∧ (λb) fu ¨r alle λ ∈ R, (c) a ∧ (b + c) = a ∧ b + a ∧ c, (a + b) ∧ c = a ∧ c + b ∧ c, (d) |a ∧ b|2 = |a|2 |b|2 − (a · b)2 .

Satz 2.34 Fu ¨r alle a, b, c, d ∈ R3 gelten die Identit¨aten: a ∧ (b ∧ c) = (a · c)b − (a · b)c

(Grassmann)

(a ∧ b) · (c ∧ d) = (a · c)(b · d) − (a · d)(b · c)

(Lagrange).

Das Vektorprodukt a ∧ b in der Darstellung       a2 b2 a1 b1 a1 b1 a ∧ b = e1 det − e2 det + e3 det a3 b3 a3 b3 a2 b2 mit der Standardbasis e1 , e2 , e3 von R3 sieht aus wie die Determinante einer 3 × 3 Matrix deren erste Spalte aus e1 , e2 und e3 besteht, d.h. formal   e1 a1 b1 a ∧ b = det e2 a2 b2  . e3 a3 b3

Lineare Abbildungen Seien V , W zwei Vektorr¨aume u ¨ber K (K = R oder K = C). Eine Abbildung F : V → W heißt linear falls fu ¨r alle u, v ∈ V and alle λ ∈ K, F (λv ) = λF (v ), F (u + v ) = F (u) + F (v ). Fu ¨r jede lineare Abbildung F ist F (0) = 0 und ! n n X X F λi vi = λi F (vi ). i=1

i=1

Der Kern {v ∈ V | F (v ) = 0} und das Bild {F (v ) | v ∈ V } einer linearen Abbildung F : V → W sind Unterr¨aume von V bzw. W .

Bemerkungen: (a) Sind F , G : V → W linear, dann sind auch F + G und λF linear. Somit ist die Menge der linearen Abbildungen von V nach W , Hom(V , W ) := {F : V → W |F ist linear} selbst auch ein Vektorraum u ¨ber K (Raum der Homomorphismen). (b) Sind F : V → W und G : U → V linear, dann ist auch F ◦ G : U → W linear. (c) Ist F : V → W linear und bijektiv, dann ist auch F −1 : W → V linear.

Matrizen linearer Abbildungen

Satz 2.35 Zu jeder linearen Abbildung F : K n → K m gibt es eine m × n Matrix A = (aij ), aij ∈ K , so dass F (x) = Ax,

fu ¨r alle x ∈ K n .

(4)

Umgekehrt wird durch jede m × n Matrix A via (4) eine lineare Abbildung F : K n → K m definiert. Die Spalten von A sind die Bilder der Basisvektoren e1 , . . . , en von K n .

Bemerkungen: (a) Sind F , G : K n → K m linear mit F (x) = Ax und G (x) = Bx, dann ist A + B die Matrix von F + G und λA ist die Matrix von λF . (b) Sind F : K n → K m und G : K l → K n linear mit F (x) = Ax und G (x) = Bx, dann ist AB die Matrix von F ◦ G , d.h (F ◦ G )(x) = ABx,

fu ¨r alle x ∈ K l .

(c) Eine lineare Abbildung F : K n → K n mit F (x) = Ax ist genau dann bijektiv, wenn die Matrix A invertierbar ist, und dann gilt F −1 (x) = A−1 x.

Satz 2.36 Sei F : K n → K m linear mit F (x) = Ax. Dann gilt (a) F ist genau dann injektiv wenn KernA = {0}. (b) F ist genau dann surjektiv wenn RangA = m. Aus diesem Satz und der Dimensionsformel RangA + dim(KernA) = n (Theorem 2.19) folgt sofort:

Satz 2.37 Fu ¨r eine lineare Abbildung F : K n → K n (quadratische Matrix!) sind ¨aquivalent: (a) F ist injektiv, (b) F ist surjektiv, (c) F ist bijektiv.

Orthogonale Abbildungen Eine reelle n × n Matrix A und auch die zugeh¨orige lineare Abbildung F : Rn → Rn heißen orthogonal wenn AT = A−1 . Das wird durch folgenden Satz erkl¨art:

Satz 2.38 Sei A eine reelle n × n Matrix. Dann sind ¨aquivalent: (a) A ist orthogonal, (b) (Ax) · (Ay ) = x · y fu ¨r alle x, y ∈ Rn , (c) |Ax| = |x| fu ¨r alle x ∈ Rn , (d) die Spalten von A bilden eine ONB von Rn . (e) die Zeilen von A bilden eine ONB von Rn .

Ist A orthogonal, dann gilt det A = ±1, denn aus E = AT A folgt 1 = det E = det AT A = (det A)2 . O(n) := Menge der orthogonalen n × n Matrizen, heißt orthogonale Gruppe des Rn . SO(n) := {A ∈ O(n) | det A = +1} heißt spezielle orthogonale Gruppe. Orthogonale Abbildungen sind I

l¨angentreu winkeltreu

I

volumentreu

I

Spiegelungen und Drehungen Die Spiegelung s : Rn → Rn am Ursprung 0 ∈ Rn , s(x) = −x, hat die orthogonale Matrix −E mit Determinante det(−E ) = (−1)n . Die Spiegelung an der Ebene a · x = 0 mit |a| = 1: s : R3 → R3 ,

s(x) = x − 2a(a · x)

hat die orthogonale Matrix   1 − 2a12 −2a1 a2 −2a1 a3 E − 2aaT = −2a2 a1 1 − 2a22 −2a2 a3  −2a3 a1 −2a3 a2 1 − 2a32 mit det(E − 2aaT ) = −1. Offensichtlich ist diese Matrix symmetrisch. Das muss so sein, denn s −1 = s und somit gilt S T = S −1 = S fu ¨r S = E − 2aaT .

Eine Drehungen in der Ebene um 0 ∈ R2 wird beschrieben durch eine orthogonale Matrix:   cos ϕ − sin ϕ D(ϕ) = , det D(ϕ) = 1. sin ϕ cos ϕ Drehungen um die x, y und z-Achse werden dargestellt durch SO(3) Matrizen     1 0 0 cos β 0 sin β 1 0  D1 (α) = 0 cos α − sin α , D2 (β) =  0 0 sin α cos α − sin β 0 cos β   cos γ − sin γ 0 D3 (γ) =  sin γ cos γ 0 0 0 1 Die Vorzeichen sind so gew¨ahlt, dass ein positiver Winkel zu einer Drehung im Gegenuhrzeigesinn fu ¨hrt wenn man gegen der Achse blickt.

Die Drehung im Raum um die Achse parallel zu einem gegebenen Einheitsvektor a ∈ R3 mit Winkel ϕ ist eine orthogonale Abbildung d : R3 → R3 gegeben durch d(x) = (cos ϕ)x + (1 − cos ϕ)(x · a)a + (sin ϕ)a ∧ x. Die zugeh¨ orige Matrix ist: 

 0 −a3 a2 0 −a1  D = (cos ϕ)E + (1 − cos ϕ)aaT + (sin ϕ)  a3 {z } | −a2 a1 0 symmetrisch | {z } antisymmetrisch

(5) Man kann zeigen, dass D ∈ SO(3)



D ist Drehmatrix.

Somit ist jede jede SO(3) Matrix von der Form (5).

Ist D = (dij ) eine gegebene SO(3)-Matrix dann kann man den zugeh¨ orige Drehwinkel ϕ und den Vektor a aus den Elementen der Matrix D berechnen. Nach (5) gilt 1 cos ϕ = (SpurD − 1) mit 2

SpurD := d11 + d22 + d33

was einen Winkel ϕ ∈ [0, π] festlegt, und der zugeh¨orige Vektor a ist gegeben durch   d32 − d23 d a= , mit d := d13 − d31  |d| d21 − d12

falls ϕ 6= π

und fu ¨r ϕ = π kann fu ¨r a eine normierte Lo¨sung von (D − E )a = 0 gew¨ahlt werden.

Euler-Winkel Sind b1 , b2 , b3 ∈ R3 orthonormierte Vektoren welche ein Rechtsystem bilden, zum Beispiel bk = Dek wobei D eine Drehmatrix ist, dann sind die Eulerschen Winkel ψ, ϕ, θ definiert durch folgende Figur, worin die Achsen x1000 , x2000 , x3000 durch die Vektoren b1 , b2 , b3 definiert sind.

Es gilt also bk = D3 (ψ)D1 (θ)D3 (ϕ)ek . Jede Drehmatrix D l¨asst sich somit schreiben als D = D3 (ψ)D1 (θ)D3 (ϕ) .

Basiswechsel Sei {e1 , . . . , en } die Standardbasis von K n und sei {b1 , . . . , bn } eine zweite Basis vonP K n . Dann l¨asst sich jeder Vektor x = (x1 , . . . , xn )T = ni=1 xi ei darstellen in der Form x=

n X

xk0 bk ,

(6)

k=1

mit eindeutig bestimmten Koordinaten xk0 ∈ K . Der Spaltenvektor x 0 := (x10 , . . . , xn0 )T heißt Koordinatenvektor von x bezu ¨glich der Basis {b1 , . . . , bn }. Aus (6) folgt, dass x = Bx 0 , x 0 = B −1 x,

B := (b1 , . . . , bn )

P denn nk=1 xk0 bk = Bx 0 , wenn B die Matrix gebildet aus den Spaltenvektoren b1 , . . . , bn bezeichnet.

Bemerkungen: I

Im Fall der Standardbasis stimmt der Koordinatenvektor x 0 mit dem zugeh¨ origen Vektor x ∈ K n u ¨berein.

I

Bei einem Basiswechsel ¨andert sich nur der Koordinatenvektor. Der Vektor selbst bleibt unver¨andet!

Die Matrix A einer lineare Abbildung F : K n → K n besteht aus den Spaltenvektoren Ae1 , . . . , Aen . Diese Spaltenvektoren sind Koordinatenvektoren von F (e1 ), . . . , F (en ) bezu ¨glich der Standardbasis. Ist {b1 , . . . , bn } eine beliebige Basis von K n , dann ist die Abbildungsmatrix C von F bez¨ uglich {b1 , . . . , bn } definiert durch  C = F (b1 )0 , . . . , F (bn )0 . F (bk )0 = Koordinatenvektor von F (bk ) bezu ¨glich {b1 , . . . , bn }.

Satz 2.39 Ist C die Abbildungsmatrix einer linearen Abbildung F : K n → K n bezu ¨glich der Basis {b1 , . . . , bn }, dann gilt F (x)0 = Cx 0 ,

und

C = B −1 AB,

wobei x 0 , F (x)0 Koordinatenvektoren bezu ¨glich der Basis {b1 , . . . , bn } sind, und A die Abbildungsmatrix von F bezu ¨glich der Standardbasis von K n bezeichnet. Zwei n × n-Matrizen A, C heißen ¨ ahnlich, wenn es eine invertierbare Matrix B gibt, so dass C = B −1 AB.

Eigenwerte und Eigenvektoren Sei A = (aij ) eine komplexe (oder reelle) n × n Matrix. Eine Zahl λ ∈ C heißt Eigenwert von A, wenn es einen Vektor b ∈ Cn , b 6= 0, gibt Ab = λb. Jeder Vektor b 6= 0 der diese Gleichung erfu ¨llt heißt Eigenvektor von A zum Eigenwert λ.

Satz 2.40 Eine komplexe Zahl λ ist genau dann ein Eigenwert der n × n Matrix A, wenn det(A − λE ) = 0. Zur Berechnung der Eigenwerte von A sind also die Nullstellen des charakteristisches Polynom χA (λ) := det(A − λE ) von A zu bestimmen.

 Fu ¨r eine 2 × 2-Matrix A =

a b c d

 gilt

  a−λ b χA (λ) = det = λ2 − (a + d)λ + (ad − bc) c d −λ = λ2 − (SpurA)λ + det A, und allgemein χA (λ) = (−λ)n + (SpurA)(−λ)n−1 + . . . + det A

(7)

wobei die Spur von A definiert ist durch Spur(A) := a11 + a22 + . . . + ann .

Berechnung der Eigenwerte und Eigenvektoren I

Nach Satz 1.19 hat χA eine Faktorisierung χA (λ) = (λ1 − λ)m1 · · · (λr − λ)mr .

(8)

Die Zahlen λ1 . . . , λr sind die Nullstellen von χA und somit die Eigenwerte von A. Die Vielfachheit mi der Nullstelle λi heißt algebraische Vielfachheit des Eigenwerts λi . I

Die Eigenvektoren zum Eigenwert λi sind die von Null verschiedenen L¨ osungen des homogenen linearen Gleichungssystems (A − λi E )x = 0. Der L¨osungsraum V (λi ) := Kern(A − λi E ) heißt Eigenraum zu λi . dim V (λi ) heißt geometrische Vielfachheit des Eigenwerts λi .

Durch Ausmultiplizieren von (8) und Vergleich mit (7) bekommt man r r X Y i SpurA = mi λi , det A = λm i . i=1

i=1

Also gilt: SpurA = Summe der Eigenwerte det A = Produkt der Eigenwerte wenn in der Summe und im Produkt jeder Eigenwert so oft aufgenommen wird wie seine algebraische Vielfachheit angibt.

Satz 2.41 Sei A eine komplexe oder reelle n × n-Matrix. (a) Sei b ein Eigenvektor von A mit Eigenwert λ. Dann ist b auch ein Eigenvektor von am Am + . . . + a1 A + a0 E und der zugeh¨orige Eigenwert ist am λm + . . . + a1 λ + a0 . (b) A, AT und B −1 AB haben dasselbe charakteristische Polynom und deshalb auch dieselben Eigenwerte. Ist b ein Eigenvektor von A, dann ist B −1 b eine Eigenvektor von B −1 AB und umgekehrt. (c) A ist genau dann invertierbar wenn 0 keine Eigenwert von A ist. Ist λ ein Eigenwert von A mit Eigenvektor b, dann ist λ−1 eine Eigenvektor von A−1 mit demselben Eigenvektor b.

Satz 2.42 Eigenvektoren b1 , . . . , br zu paarweise verschiedenen Eigenwerten λ1 , . . . , λr der Matrix A sind linear unabh¨angig.

Satz 2.43 Sei A eine komplexe oder reelle n × n-Matrix. Falls A n linear unabh¨angige Eigenvektoren b1 , . . . , bn hat mit nicht notwendig verschiedenen Eigenwerten λ1 , . . . , λn , dann gilt   λ1 0 · · · 0  0 λ2    −1 B AB =  . , . . . . ..   ..  0

···

λn

wobei B = (b1 , . . . , bn ). Anwendung von Satz 2.43: Berechnung von Ak .

Symmetrische Matrizen und quadratische Formen Theorem 2.44 Fu ¨r jede symmetrische reelle n × n Matrix A gilt: (a) Alle Eigenwerte sind reell. (b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. (c) Algebraische und geometrische Vielfachheit jedes Eigenwerts stimmen u ¨berein.

Korollar 2.45 Ist A eine symmetrische reelle n × n-Matrix, dann gibt es eine ONB von Rn bestehend aus Eigenvektoren von A. Nach Korollar 2.45 l¨asst sich eine symmetrische 3 × 3 Matrix durch eine Drehung des Koordinatensystems diagonalisieren, d.h. auf Diagonalgestalt bringen.

Satz 2.46 Zwei symmetrische n × n Matrizen A, C mit AC = CA lassen sich gleichzeitig (orthogonal) diagonalisieren, d.h. es gibt eine ONB {b1 , . . . , bn } von Rn , so dass B −1 AB und B −1 CB Diagonalmatrizen sind wenn B = (b1 , . . . , bn ). Eine quadratische Form q ist eine Abbildung q : Rn → R mit q(x) = x T Ax wobei A eine reelle, symmetrische n × n Matrix ist. q heißt rein quadratisch wenn A eine Diagonalmatrix ist. Bemerkung: I

Wenn die Matrix A nicht symmetrisch ist, dann kann man sie ersetzen durch die symmetrische Matrix (A + AT )/2 ohne dass sich dabei die quadratische Form q(x) = x T Ax ¨andert.

I

Eine Funktion f : Rn → R deren Graph bei 0 eine horizontale Tangentialeben hat, kann dort durch eine quadratische Form q : Rn → R approximiert werden (HM2). Das Studium von q gibt Aufschluss daru ¨ber, ob f bei 0 ein Maximum, ein Minimum oder keines von beidem hat.

Basiswechsel. Sei b1 , . . . , bn eine Basis von Rn , B := (b1 , . . . , bn ), und sei x = By , d.h. y1 , . . . , yn sind die Koordinaten von x ∈ Rn bezu ¨glich der neuen Basis. Dann gilt q(x) = x T Ax = (By )T ABy = y T (B T AB)y =: q˜(y ). Die quadratische Form q wir also bezu ¨glich der Basis b1 , . . . , bn dargestellt durch die Matrix ˜ = B T AB A Bemerkungen: I

I

Die Matrix einer quadratischen Form transformiert sich bei Basiswechsel nicht so wie die Matrix einer linearen Abbildung, ausser B T = B −1 . ˜ = B T AB und A haben nicht dieselben Die Matrizen A Eigenwerte, ausser B T = B −1 , d.h. ausser {b1 , . . . , bn } eine ONB von Rn .

Eine ONB {b1 , . . . , bn } heißt Hauptachsensystem von q, wenn q in dieser Basis rein quadratisch ist. Aus Korollar 2.45 folgt Jede quadratische Form hat ein Hauptachsensystem. Bestimmung eines Hauptachsensystems von q(x) = x T Ax: 1. Man bestimme die Eigenwerte λ1 , . . . , λr von A. 2. Zu jedem der verschiedenen Eigenwerte λi bestimmt man eine (i) (i) ONB {b1 , . . . , br } von V (λi ) = Kern(A − λi E ). (i)

(i)

3. Die Vereingung ∪ri=1 {b1 , . . . , br } der Teilbasen ist ein Hauptachsensystem.

Die Signatur einer symmetrischen Matrix A ist die das Zahlentripel (p, q, s) bestehend aus: p = Anzahl positiver Eigenwerte von A, q = Anzahl negativer Eigenwerte von A, s = Vielfachheit des Eigenwerts 0.

Satz 2.47 (Tr¨agheitssatz von Sylvester) Ist A eine symmetrische und W eine invertierbare n × n Matrix, dann haben A und W T AW die selbe Signatur Beweis: Siehe Meyberg, Vachenauer

PageRank: die Bewertung einer Webpage durch Google Problemstellung: Sei n die Anzahl existierender Webseiten (ein paar Milliarden). Gesucht ist fu ¨r jede Webpage i ∈ {1, . . . , n} eine Bewertung xi ≥ 0, welche ein Mass fu ¨r die relative Wichtiggkeit der Seite darstellt. Suchmaschinen ben¨otigen eine solche Bewertung um die gefundenen Webseiten nach Wichtigkeit zu ordnen. 

1 es gibt einen Link von Seite j auf die Seite i. 0 sonst. n X nj := Lji = Anzahl Links von Seite j auf andere Seiten,

Lji :=

i=1 n X

Lji = Anzahl Links von anderen Seiten auf die Seite i.

j=1

Lii := 0.

Idee: Die Bewertungen x1 , . . . , xn sollen den Gleichungen n X 1 xi = Lji xj nj

i = 1, . . . , n,

(9)

j=1

genu ¨gen. D.h. xi ist groß, wenn viele oder wichtige andere Webseiten einen Link auf die Seite i haben. Dabei ist der Wert eines Links reduziert wenn er von einer Seite mit vielen Links kommt. Gleichung (9) ist ¨aquivalent zum Eigenwertproblem x = Ax,

Aij :=

1 Lji , nj

x := (x1 , . . . , xn )T .

Die Matrix A hat die Eigenschaften Aij ≥ 0 und Spaltensumme:

n X

Aij = 1,

i=1

Man nennt solche Matrizen stochastisch.

fu ¨r alle

j.

(10)

Satz 2.48 Sei A eine stochastische Matrix. Dann gilt: (a) Fu ¨r alle Eigenwerte λ ∈ C von A gilt |λ| ≤ 1. (b) λ = 1 ist ein Eigenwert von A und es gibt einen Eigenvektor x = (x1 , . . . , xn ) mit xi ≥ 0. (c) Wenn Aij > 0 fu ¨r alle i, j, dann hat der P Eigenwert 1 die n Vielfachheit 1 und fu ¨r jedes v ∈ R , i vi 6= 0, ist der Limes lim Ak v

k→∞

ein Eigenvektor von A zum Eigenwert 1. Problem: Die Bedingung Aij > 0 ist nicht erfu ¨llt fu ¨r die Matrix Aij = Lji /nj . Die Lo ¨sung von (10) ist daher in der Regel nicht eindeutig und der Limes in Teil (b) des obigen Satzes braucht nicht zu existieren.

L¨ osung: Die Bedingung an x wir wie folgt modifiziert: x = αAx + (1 − α)e,

e = (1, . . . , 1)T ,

(11)

wobei α ∈ (0, 1). In der Praxis wird α = 0.85 gew¨ahlt. Jede Webseite hat also ein Gewicht von 0.15 unabh¨angig von der Linkstruktur des www. Die L¨osung des Gleichungssystems (11) ist x = (1 − α)(E − αA)−1 e.

(12)

Weil die Berechnung der Inversen von E − αA zu aufwending ist berechnet man (12) durch Iteration der Gleichung (11): wenn x (k+1) := αAx (k) + (1 − α)e, dann ist limk→∞ x (k) die L¨osung von (11) und zwar unabh¨angig von der Wahl von x (0) . Also, a PageRank for 26 million web pages can be computed in a few hours on a medium size workstation. (http://infolab.stanford.edu/ backrub/google.html)

Problemstellung Welche der folgenden quadratischen Formen q : R2 → R sind bei (0, 0) minimal, d.h. q(x, y ) ≥ 0 fu ¨r alle (x, y )? (a) q(x, y ) = x 2 + 2y 2 , -1.0

-0.5

0.0

0.5

(b) q(x, y ) = 2x 2 + 3xy − y 2

1.0 4

4 2 3

0 2

-2 1

-4 -1.0

0 -1.0

1.0 -0.5

0.5

-0.5 0.0

0.0

0.0 -0.5

0.5

0.5

1.0 -1.0

1.0

Welche der folgenden quadratischen Formen q : R2 → R sind bei (0, 0) minimal, d.h. q(x, y ) ≥ 0 fu ¨r alle (x, y )? (c) q(x, y ) = x 2 +6xy + 2y 2 ,

q(x, y ) = 2x 2 −4xy +3y 2

(d)

1.0

1.0

0.5

0.5

0.0 0.0

-0.5 -0.5

-1.0 10

-1.0 10

5

5 0

0 -1.0

-1.0

-0.5

-0.5

0.0

0.0

0.5

0.5 1.0

1.0

Terminologie fu ¨r quadratische Formen q : Rn → R mit q(x) = x T Ax, bzw. fu ¨r symmetrische Matrizen A: fu ¨r alle x 6= 0 gilt q(x) > 0 q(x) ≥ 0 q(x) ≤ 0 q(x) < 0 q(x1 ) > 0, q(x2 ) < 0

q bzw. A heißt positiv definit positiv semidefinit negativ semidefinit negativ definit indefinit.

Diese Eigenschaften einer symmetrischen Matrix sind unabh¨angig von der Wahl der Basis, denn es gilt: A ist positiv definit ⇔ W T AW ist positiv definit wenn W eine invertierbare Matrix ist, und analog fu ¨r positiv semidefinit, negativ semidefinit, etc.

Sei A eine symmetrische n × n Matrix und b1 , . . . , bn ein Hauptachsensystem von A, d.h. eine ONB mit Abi = λi bi . Sei B = (b1 , . . . , bn ), dann ist A positiv definit genau dann wenn B T AB positiv definit ist und T

T

x (B AB)x =

n X

λi xi2 .

i=1

Satz 2.49 Fu ¨r jede symmetrische n × n Matrix A gilt: (i)

A ist positiv definit ⇔ alle EW sind > 0,

(ii)

A ist positiv semidefinit ⇔ alle EW sind ≥ 0,

(iii)

A ist negativ semidefinit ⇔ alle EW sind ≤ 0,

(iv )

A ist negativ definit ⇔ alle EW sind < 0,

(v )

A ist indefinit ⇔ es gibt positive und negative EW.

Typische Graphen -1.0

-0.5

0.5

0.0

1.0

2.0

1.5

q(x, y ) = x 2 + y 2 , positiv definit

1.0

0.5

0.0 -1.0 -0.5 0.0 0.5 1.0

-1.0

-0.5

1.0

0.5

0.0

1.0

0.5

q(x, y ) = x 2 , positiv semidefinit

0.0 -1.0 -0.5 0.0 0.5 1.0

-1.0

-0.5

0.0

1.0

0.5

1.0

0.5

0.0

-0.5

q(x, y ) = x 2 − y 2 , indefinit

-1.0 -1.0 -0.5 0.0 0.5 1.0

Sei A = (aij ) eine symmetrische n × n Matrix. Dann gilt: A ist positiv definit



aii > 0, fu ¨r alle i.

Die Positivit¨at der Diagonalelemente aii ist aber nicht hinreichend dafu ¨r, dass A positiv definit ist. Folgender Satz gestattet zu pru ¨fen ob eine Matrix positiv definit ist, ohne die Eigenwerte zu berechnen:

Satz 2.50 (Jacobi) Eine symmetrische n × n Matrix A = (aij ) ist genau dann positiv definit, wenn die n Hauptuntermatrizen H1 = a11 ,   a . . . a   11 1k a11 a12  .. ..  , . . . , H = A H2 = , . . . , Hk =  . n .  a21 a22 ak1 . . . akk positive Determinanten haben.

Quadriken

Transformation von Punktkoordinaten Jeder Punkt X = (x1 , . . . , xn ) ∈ Rn entspricht einem Ortsvektor x = (x1 , . . . , xn )T und umgekehrt. Aber man muss zwischen Koordinaten eines Punktes (oder Ortsvektors) und Koordinaten eines Vektors unterscheiden, da sie sich verschieden verhalten unter Basiswechsel. Ein affines Koordinatensystem K = (P; b1 , . . . , bn ) von Rn besteht aus einem Punkt P ∈ Rn und einer Basis {b1 , . . . , bn } von Rn (als Vektorraum). Die Koordinaten x10 , . . . , xn0 von X ∈ Rn bezu ¨glich K sind bestimmt durch die Gleichung x =p+

n X

xi0 bi .

i=1

Wir schreiben XK := (x10 , . . . , xn0 ) und x 0 := B = (b1 , . . . , bn ) dann gilt offenbar: x = p + Bx 0 ,

Pn

0 i=1 xi bi .

x 0 = B −1 (x − p).

Ist

Quadriken Eine Funktion p : Rn → R der Form T

T

p(x) = a0 + a x + x Ax = a0 +

n X

ai xi +

X

i=1

aij xi xj

i,j

mit a0 ∈ R, a ∈ Rn und AT = A = (aij ) heißt quadratisches Polynom in den Variablen x1 , . . . , xn . Insbesondere ist jede quadratische Form q(x) = x T Ax ein quadratisches Polynom. Die Menge aller Punkte x = (x1 , . . . , xn ) ∈ Rn , welche eine Gleichung der Form p(x) = x T Ax + aT x + β = 0, erfu ¨llen, nennt man eine Quadrik (oder Hyperfl¨ache zweiter Ordnung). Jede Niveaufl¨ache {x ∈ Rn | p(x) = const} eines quadratischen Polynoms p ist also eine Quadrik.

Beispiele von Quadriken in R2 1.0

0.8

x 2 + 2xy + 3y 2 − 2y − x = 0

0.6

0.4

0.2

-0.4

-0.2

0.2

0.4

0.6

0.8

1.0

-0.2

-0.4

1.0

0.5

x 2 − 6xy + 9y 2 − 2 = 0

-1.0

-0.5

0.5

1.0

-0.5

-1.0

0.5

-1.5

21 y2 −x + + xy + 4x + y − =0 2 20

-2.0

2

-2.5

-3.0

1.0

1.5

2.0

Normalform von Quadriken Die Quadrik x T Ax + aT x + β = 0 liegt in Normalform vor, wenn x T Ax rein quadratisch ist, und aT x + β durch keine affine Substitution verku ¨rzt werden kann. Fu ¨r eine Tabelle von Quadriken in Normalform siehe Meyberg/Vachenauer. Transformation auf Normalform: I

Hauptachsentransformation: Bestimmung der Eigenwerte λ1 , . . . , λn von A und einer ONB zugeh¨origer Eigenvektoren b1 , . . . , bn . Die Quadrikengleichung im Koordinatensystem (0; b1 , . . . , bn ) lautet: λ1 y12 + . . . + λn yn2 + γ1 y1 + . . . + γn yn + β = 0 P wobei γi = bi · a und x = nk=1 yk bk .

I

Quadratische Erg¨ anzung: Sei λ1 , . . . , λr 6= 0 und λr +1 , . . . , λn = 0. Durch quadratische Erg¨anzung erhalten wir r X

λk yk2 + γk yk + β = 

k=1

r X k=1

wobei zk := yk + (γk /2λk ) und γ := b − I

λk zk2 + γ γk2 k=1 4λk .

Pr

Reduktion des linearen Anteils. Falls γk 6= 0 fu ¨r eine k ≥ r + 1, z.B. γn 6= 0, dann wird γ eliminiert durch γn yn + γ = γn zn mit zn := yn + (γ/γn ). Wir setzen zk := yk fu ¨r die u ¨brigen k’s und erhalten n X k=r +1

 γk yk + γ =

γ Pn

k=r +1 γk zk

alle γk = 0 ein γk 6= 0.

Die Normalform wird angenommen im Koordinatensystem (Bu; b1 , . . . , bn ) wobei uk = −γk /2λk , k ≤ r , und fu ¨r k ≥ r + 1, uk = 0 oder uk = −γ/γk .

Zahlenfolgen und Grenzwerte

Beispiele von Zahlenfolgen Fu ¨r n ∈ N sei an :=

1 , n

bn = (−1)n−1 ,

cn =

√ n

n!

Graphische Darstellung (Graphen): ì ì ì

3

ì ì

2

ì ì

1

æ à ì

à æ

-1

æ

à æ

æ

à æ

æ

æ

2

4

6

8

à

à

à

à

Zahlenfolgen Eine Folge reeller Zahlen ist eine Abbildung N → R,

n 7→ an .

Man schreibt dafu ¨r (an )n∈N ,

(an )n≥1 ,

(an ),

oder a1 , a2 , a3 . . .

Die Zahlen an heißen Glieder der Folge. Eine Folge braucht nicht mit a1 zu beginnen; z.B. nennt man auch a5 , a6 , a7 , . . . eine Folge, da man durch die Umnumerierung der Glieder bn := an+4 , n ≥ 1, eine Folge in obigem Sinn definieren kann. Eine Folge heißt beschr¨ ankt, wenn es eine Zahl K gibt, mit |an | ≤ K

fu ¨r alle

n ∈ N.

Folgen und Fl¨achenberechnung 1.0

1.0

1.0

1.0

0.8

0.8

0.8

0.8

0.6

0.6

0.6

0.6

0.4

0.4

0.4

0.4

0.2

0.2

0.2

0.2

0.2

0.4

0.6

0.8

1.0

0.2

0.4

0.6

0.8

1.0

a1 = 0.433013,

0.2

0.4

0.6

0.8

1.0

a2 = 0.623927,

0.2

0.4

0.6

0.8

1.0

a3 = 0.709955.

an = Gesamtfl¨ache der 2n − 1 Rechtecke unterhalb des Viertelskreises. Je gr¨ oßer n ist, desto besser wird die Fl¨ache des Viertelskreises durch an approximiert. Wir werden sp¨ater sehen, das an →

π = 0.785398 . . . , 4

(n → ∞).

Konvergenz Eine Folgen (an ) konvergiert (oder strebt) gegen die Zahl a, in Zeichen oder an → a,

lim an = a,

n→∞

(n → ∞),

falls es zu jeder noch so kleinen Zahl ε > 0 einen Indexwert n0 ∈ N gibt, so dass n ≥ n0 ⇒ |an − a| < ε. æ Die Zahl a heißt Grenzwert der Folge (an ). Eine Folge heißt konvergent wenn sie einen Grenzwert hat, sonst heißt sie divergent. Eine Folge mit Grenzwert 0 heißt Nullfolge. Wichtigstes Beispiel: 1 = 0. n→∞ n lim

Illustrationen von Konvergenz und Divergenz 1.6 1.4

æ

æ æ

1.2

æ

1.0 æ

0.8

æ æ æ æ

æ

æ

æ æ æ æ æ æ æ æ æ æ

0.6 5 æ

10

15

æ

 lim

n→∞ 2.0 1.5 1.0 0.5 -0.5 -1.0 -1.5

æ

æ

æ

æ

æ

5 æ

æ

æ

æ

æ

æ

æ

æ

15 æ

æ

25

20 sin(n) 1+ n2

æ

10 æ

20

æ

 = 1.

æ

æ

20 æ

æ

25 æ

æ

æ

Die Folge an = (−1)n hat weder den Grenzwert 1 (siehe Figur) noch irgend einen anderen Grenzwert. Sie ist daher divergent.

Satz 3.1 (a) Der Grenzwert einer konvergenten Folge ist eindeutig: falls limn→∞ an = a und limn→∞ an = b dann gilt a = b. (b) Jede konvergente Folge ist beschr¨ankt.

Korollar 3.2 Ist die Folge (an ) unbeschr¨ankt, dann ist sie divergent. Die Folge (an ) divergiert gegen ∞ (oder strebt gegen ∞), in Zeichen lim an = ∞ oder an → ∞,

n→∞

(n → ∞)

falls zu jeder noch so großen Zahl K ∈ R eine Indexwert n0 ∈ N existiert, so dass n ≥ n0 ⇒ an > K . Divergenz gegen −∞ ist analog definiert.

Geometrische Folge und geometrische Reihe Fu ¨r jede reelle Zahl x gilt:  x > 1,  ∞ n 0 −1 < x < 1, lim x = n→∞  unbestimmt x ≤ −1.

(13)

Fu ¨r jede reelle Zahl x 6= 1 gilt 1 − x n+1 sn := 1 + x + x + . . . + x = . 1−x 2

n

(14)

Die Folge (14) heißt geometrische Reihe. Sie ist konvergent fu ¨r |x| < 1 und divergent fu ¨r |x| ≥ 1. Nach (13) gilt ∞ X k=0

x k := lim (1 + x + x 2 + . . . + x n ) = n→∞

1 , 1−x

|x| < 1.

Teilfolgen und H¨aufungspunkte

Ist (an )n≥1 eine Folge und n1 < n2 < n3 , . . . eine aufsteigende Indexfolge, dann heißt die Folge an1 , an2 , an3 , . . . Teilfolge der Folge (an ).

Satz 3.3 Hat die Folge (an ) den Grenzwert a, dann konvergiert auch jede Teilfolge von (an ) gegen a. Eine Zahl a ∈ R heißt H¨ aufungspunkt der Folge (an ), wenn eine Teilfolge existiert, welche gegen a konvergiert. Insbesondere ist der Grenzwert einer Folge auch ein H¨aufungspunkt.

Konvergenzkriterien und Rechenregeln Satz 3.4 (Vergleichskriterien) (a) Falls |an | ≤ bn fu ¨r alle n ≥ n1 und limn→∞ bn = 0, dann gilt lim an = 0

n→∞

(b) Falls an ≤ bn ≤ cn fu ¨r n ≥ n1 und limn→∞ an = L = limn→∞ cn , dann gilt lim bn = L.

n→∞

(c) Falls limn→∞ an = a, limn→∞ bn = b, und an ≤ bn fu ¨r alle n ≥ n1 , dann gilt a ≤ b. Bemerkung: Wenn an < bn fu ¨r alle n ≥ n1 in Teil (c), dann folgt trotzdem nur a ≤ b. Das sieht man am Beispiel an = 0, bn = 1/n.

æ

æ

1.5

-

1.0

0.5

æ

0.0 -

-

æ æ -

- æ æ - - - - æ æ æ - - - - æ æ æ - - - æ æ æ æ æ æ æ æ æ æ æ æ - - - - -

5

10

-



15

20

25

1 1 + 2 sin(n) 3 ≤ ≤ . n n n

Satz 3.5 (a) limn→∞ an = a



limn→∞ |an | = |a|.

(b) an ≥ 0 und limn→∞ an = a ⇒ √ (c) limn→∞ n a = 1 fu ¨r alle a > 0. √ (d) limn→∞ n n = 1.

limn→∞



an =

√ a.

Satz 3.6 (Rechenregeln) Seien (an ) und (bn ) konvergente Folgen mit limn→∞ an = a und limn→∞ bn = b. Dann gilt (a) limn→∞ (an + bn ) = a + b. (b) limn→∞ (an bn ) = ab. (c) Falls b 6= 0, dann gibt es ein n1 mit bn 6= 0 fu ¨r n ≥ n1 und a an = . n→∞ bn b lim

Monotone Folgen Eine Folge (an )n≥1 heißt monoton wachsend, wenn an ≤ an+1 ,

fu ¨r alle n ≥ 1.

Sie heißt monoton fallend wenn an ≥ an+1 fu ¨r alle n ≥ 1.

Theorem 3.7 Jede beschr¨ankte monotone Folge ist konvergent. Die Eulersche Zahl ∞ X 1 e := = 2, 71828 . . . k! k=0

ist derPGrenzwert der beschr¨ankten, monoton wachsenden Folge 1 sn = nk=0 k! .

Lemma 3.8 (Bernoullische Ungleichung) Fu ¨r alle n ∈ N und alle x ≥ −1 gilt: (1 + x)n ≥ 1 + nx. Illustration fu ¨r n = 2 und n = 3:

-2.0

-1.5

-1.0

2.0

2.0

1.5

1.5

1.0

1.0

0.5

0.5

-0.5

0.5

1.0

-2.0

-1.5

-1.0

-0.5

0.5

-0.5

-0.5

-1.0

-1.0

1.0

Satz 3.9 Die Folge (1 + n1 )n ist monoton wachsend, beschr¨ankt und   n X 1 n 1 lim 1 + = lim = e. n→∞ n→∞ n k! k=0

Satz 3.10 Fu ¨r alle x ∈ R existiert der Limes exp(x) := lim



n→∞

x n 1+ n

und es gilt exp(0) = 1, exp(x) > 0 und exp(−x) = 1/ exp(x).

Satz 3.11 Fu ¨r alle x ∈ R und alle rationalen Zahlen r gilt exp(xr ) = exp(x)r . Fu ¨r rationale Zahlen r gilt nach Satz 3.9 und Satz 3.11, exp(r ) = exp(1)r = e r . Man definiert daher fu ¨r alle x ∈ R: e x := exp(x).

Graph der Exponentialfunktion: 3.0 2.5 2.0 1.5 1.0 0.5

-4

-3

-2

-1

0

1

2

Zinseszins Ein Guthaben a > 0 wird fu ¨r ein Jahr zum Zinssatz r ∈ (0, 1), also 100r Prozent, angelegt. Das Endguthaben h¨angt davon ab, wie oft Zins ausgeschu ¨ttet wird: Zinsausschu ¨ttung j¨ahrlich monatlich t¨aglich jede Stunde jede Sekunde kontinuierlich

Endbetrag a(1 + r ) r 12 a(1 + 12 ) r 365 a(1 + 365 ) r a(1 + 8760 )8760 r a(1 + 31536000 )31536000 limn→∞ a(1 + nr )n = ae r

Da die Folge (1 + nr )n monoton wachsend ist, ist der Endbetrag umso gr¨ oßer, je ¨ ofter Zins ausgeschu ¨ttet wird.

Wurzelberechnung Satz 3.12 Sei b > 0, a0 > 0, und sei an+1

1 = 2

  b an + . an

Dann gilt a1 ≥ a2 ≥ a3 ≥ . . . und √ lim an =

n→∞

Zur Berechnung von



b.

3 w¨ahlen wir x0 = 2 und erhalten:

x1 = 1.75 x2 = 1.7321... x3 = 1.732050810 x4 = 1.732050808

Limes superior und Limes inferior Sei (an ) eine Folge reeller Zahlen. Dann ist bn := sup ak = sup{ak | k ≥ n} k≥n

offensichtlich eine monoton fallende Folge. Wenn sie beschr¨ankt ist, dann ist sie konvergent. Sonst ist entweder bn = ∞ fu ¨r alle n, oder limn→∞ bn = −∞. In jedem Fall ist also der Limes superior   lim sup an := lim sup ak . n→∞

n→∞

k≥n

wohldefiniert. Die Folge bn := inf k≥n ak = inf{ak | k ≥ n} ist monoton wachsend. Also existiert auch der Limes inferior   lim inf an := lim inf ak . n→∞

I

n→∞

k≥n

Im allgemeinen gilt lim inf n→∞ an ≤ lim supn→∞ an . Fu ¨r eine beschr¨ankte Folge gilt lim inf an = kleinster H¨aufungspunkt von (an ), n→∞

lim sup an = gr¨oßter H¨aufungspunkt von (an ). n→∞

I

Eine Folge (an ) ist genau dann konvergent, wenn sie beschr¨ankt ist und lim inf an = lim sup an , n→∞

(15)

n→∞

und dann ist (15) der Grenzwert der Folge. I

Jede beschr¨ankte Folge (an ) hat eine konvergente Teilfolge. Z.B. die Teilfolge welche gegen den H¨aufungspunkt lim supn→∞ an konvergiert. (Satz von Bolzano - Weierstraß.)

Das Cauchy-Kriterium Eine Folge (an ) heißt Cauchy-Folge, wenn zu jedem ε > 0 ein Indexwert n0 ∈ N existiert, so dass n, m ≥ n0



|an − am | < ε.

Theorem 3.13 Eine Folge reeller Zahlen ist genau dann konvergent, wenn sie eine Cauchy-Folge ist. Beweisidee: Mit Hilfe der Dreiecksungleichung ist es leicht zu zeigen, dass eine konvergente Folge das Cauchy-Kriterium erfu ¨llt, ¨ und dass jede Cauchy-Folge beschr¨ankt ist (Ubung). Fu ¨r eine Cauchy-Folge (an ) sind somit lim inf n→∞ an und lim supn→∞ an endlich und, wegen dem Cauchy-Kriterium, sogar gleich. Also ist jede Cauchy-Folge konvergent.

Bestimmte Divergenz und Konsequenzen Satz 3.14 (a) Wenn limn→∞ an = ∞ und (bn ) beschr¨ankt ist, dann gilt lim (an + bn ) = ∞,

n→∞

bn = 0. n→∞ an lim

(b) Wenn limn→∞ an = 0, an > 0 und limn→∞ bn = b 6= 0, dann gilt bn =∞ n→∞ an bn lim = −∞ n→∞ an lim

b>0 b < 0.

Grenzwerte von Funktionen

Beispiele 1.5 1.0 0.5

-2

-1

1

2

1

2

-0.5

lim (x 3 − x) = 0

x→0

-1.0 -1.5 1.5 1.0 0.5

-2

-1

lim f (x) = −1,

-0.5

x→0+

lim f (x) = 1

-1.0

x→0−

-1.5 1.5

1.0 0.5

-1.0

-0.5

0.5 -0.5 -1.0 -1.5

1.0

lim sin(1/x) existiert nicht

x→0

Eine Funktion f hat fu ¨r x gegen a ≥ −∞ den rechtsseitigen Grenzwert c, in Zeichen: lim f (x) = c

x→a+

oder f (x) → c fu ¨r x → a+,

wenn xn → a, (n → ∞) xn > a

(16)

 ⇒ lim f (xn ) = c. n→∞

Dazu braucht f nur fu ¨r a < x < a + ε definiert zu sein. Auch wenn f in a definiert ist, ist der Wert f (a) irrelevant fu ¨r (16). Der linksseitige Grenzwert limx→a− f (x) = c ist analog definiert. Die Funktion f hat fu ¨r x gegen a den Grenzwert c, in Zeichen: lim f (x) = c

x→a

oder f (x) → c,

x → a,

wenn limx→a+ f (x) = c = limx→a− f (x).

Aus Satz 3.4 folgt:

Satz 3.15 (Vergleichskriterien) (a) Wenn |f (x)| ≤ p(x) fu ¨r x nahe a und limx→a p(x) = 0, dann gilt limx→a f (x) = 0. (b) Wenn f (x) ≤ g (x) ≤ h(x) fu ¨r x nahe a und limx→a f (x) = c = limx→a h(x), dann gilt limx→a g (x) = c. (c) Wenn f (x) ≤ g (x) fu ¨r x nahe a, limx→a f (x) = c und limx→a g (x) = d, dann gilt c ≤ d. Diese Aussagen gelten auch fu ¨r einseitige Grenzwerte und wenn a = ±∞. 0.4

0.2

0.1

-0.2

-0.4

0.2

0.3

0.4

0.5

lim x sin

x→0

1 x

= 0.

Wichtige Beispiele: lim cos x = 1,

x→0

lim sin x = 0,

(17)

sin x = 1. x→0 x

(18)

x→0

cos x − 1 = 0, x→0 x lim

lim

1.5 1.0 0.5

-15

-10

-5

5

10

15

-0.5 -1.0

Graph von (sin x)/x

Aus Satz 3.6 folgt:

Satz 3.16 (Rechenregeln) Aus limx→a f (x) = c und limx→a g (x) = d mit c, d ∈ R folgt (a) limx→a [f (x) + g (x)] = c + d (b) limx→a f (x)g (x) = cd (c) Falls d 6= 0, dann c f (x) = . x→a g (x) d lim

Diese Aussagen gelten auch fu ¨r einseitige Grenzwerte und wenn a = ±∞.

Eine Funktion heißt monoton wachsend, wenn x1 < x2



f (x1 ) ≤ f (x2 ).

f heißt streng monoton wachsend, wenn x1 < x2



f (x1 ) < f (x2 ).

Monoton fallend und streng monoton fallend sind analog definiert. Eine Funktion heißt monoton, wenn sie entweder monoton wachsend oder monoton fallend ist.

Satz 3.17 (Monotoniekriterium) Ist f : (a, b) → R monoton und beschr¨ankt, dann existieren die einseitigen Grenzwerte f (a+) = lim f (x), x→a+

f (b−) = lim f (x). x→b−

Stetigkeit

Sei I ⊂ R ein Intervall. Eine Funktion f : I → R heißt stetig in x0 ∈ I , wenn lim f (x) = f (x0 ). x→x0

Ist x0 ein Randpunkt von I , dann ist limx→x0 f (x) als einseitiger Grenzwert zu verstehen. Die Funktion f ist stetig auf I , wenn sie in jedem Punkt x0 ∈ I stetig ist. Eine Funktion heißt stetig, wenn sie auf ihrem Definitionsbereich stetig ist. Beispiele stetiger Funktionen von x: 1 , x

|x|,

x n,



x.

sin x,

cos x.

Die Stetigkeit dieser Funktionen folgt aus Satz 3.5, Satz 3.6 und (17).

Klassifikation von Unstetigkeiten

f (x0 −) = f (x0 +) 6= f (x0 )

f (x0 −) 6= f (x0 +) (Sprungstelle)

f (x0 −) oder f (x0 +) existiert nicht. (Unstetigkeit zweiter Art.)

Satz 3.18 Sei I ⊂ R ein Intervall. (a) Sind f , g stetig auf I , dann auch f + g , αf (α ∈ R) und fg . Die Funktion f /g ist stetig auf {x ∈ I : g (x) 6= 0}. (b) Sind f : I → R und g : D → R stetig, wobei g (D) ⊂ I , dann ist auch die Komposition h : D → R, h(x) = f (g (x)) auf D stetig. Satz 3.18 (a) folgt aus Satz 3.16.

Korollar 3.19 (a) Jedes Polynom p(x) = an x n + . . . + a1 x + a0 ist auf ganz R stetig. (b) Jede rationale Funktion p/q ist stetig in allen x ∈ R mit q(x) 6= 0.

Theorem 3.20 Fu ¨r jede auf einem abgeschlossenen, beschr¨ankten Intervall [a, b] ⊂ R stetige Funktion f gilt: (a) Beschr¨ anktheit. Es gibt eine Schranke K mit |f (x)| ≤ K fu ¨r alle x ∈ [a, b]. (b) Maximum und Minimum werden angenommen. Es gibt stets Punkte x0 , x1 ∈ [a, b] mit f (x0 ) ≤ f (x) ≤ f (x1 ),

alle x ∈ [a, b].

(c) Zwischenwertsatz. Wenn f (x0 ) < c < f (x1 ) dann gibt es einen Punkt x¯ ∈ [a, b] mit f (¯ x ) = c. (d) Gleichm¨ aßige Stetigkeit. Zu jedem ε > 0 gibt es ein δ > 0, so dass |x − x 0 | < δ



|f (x) − f (x 0 )| < ε.

Gegenbeispiele 10

Die Funktion f : (0, 1) → R, f (x) = 1/x, ist stetig aber sie hat keine der Eigenschaften (a),(b),(d) aus dem Theorem. Grund: (0, 1) ist nicht abgeschlossen.

8

6

4

2

0.0

0.2

0.4

0.6

0.8

1.0

1.0

0.8

Die Funktion f : [1, ∞) → R, f (x) = 1/x, ist stetig aber sie nimmt kein Minimum an. Grund: [1, ∞) ist unbeschr¨ ankt.

0.6

0.4

0.2

2

4

6

8

10

Die Funktion f : [−1, 1] → R mit  −1, −1 ≤ x ≤ 0 f (x) = 1 00 2

f(

an + bn , bn+1 := bn , 2 an + bn := , an+1 := an . 2

dann an+1 := dann bn+1

x¯ = limn→∞ an = limn→∞ bn ist eine Nullstelle von f .

Differentialrechnung

Vorbemerkungen Im folgenden ist es wichtig zu unterscheiden zwischen einer Funktion f : I → R und dem Funktionswert f (x): f f (x)

ist die Funktion, ist der Wert der Funktion an der Stelle x,

wobei x ∈ I fest aber beliebig ist, sofern nichts anderes gesagt wird. Mit der Sprechweise “die Funktion 1/x” meint man “die Funktion f gegeben durch f (x) = 1/x”.– Addition, Multiplikation und Division von zwei Funktionen f , g : I → R sind punktweise definiert. D.h. (f + g )(x) := f (x) + g (x) (fg )(x) := f (x)g (x)   f (x) f (x) := g g (x) wobei f /g den Definitionsbereich {x ∈ I | g (x) 6= 0} hat.

Die Ableitung Sei I ⊂ R ein Interval und sei x0 ∈ I . Eine Funktion f : I → R heißt in x0 differenzierbar, wenn der Grenzwert f (x) − f (x0 ) f (x0 + h) − f (x0 ) = lim x→x0 h→0 h x − x0 lim

existiert und endlich ist. Dieser Grenzwert heißt Ableitung von f an der Stelle x0 und wird mit f 0 (x0 )

oder

df (x0 ) dx

bezeichnet. Die Funktion f ist auf I differenzierbar, wenn f in jedem Punkt von I differenzierbar ist. In diesem Fall wird durch x 7→ f 0 (x) eine neuen Funktion erkl¨art, welche mit f0

oder

df dx

bezeichnet wird, und Ableitung von f heißt.

Geometrische Interpretation der Ableitung f (x) − f (x0 ) x − x0 0



Steigung der Sekante durch (x0 , f (x0 )) und (x, f (x))



Steigung der Tangente an den Graphen von f im Punkt (x0 , f (x0 )).

=

f (x0 ) =

Gleichung der Tangente durch (x0 , f (x0 )):

Tangente fHxL

y = f (x0 ) + f 0 (x0 )(x − x0 )

fHx0 L

Sekante

x0

x

Physikalische Interpretation der Ableitung Sei s(t) ∈ R die Position eines Teilchens zur Zeit t. Dann ist s˙ (t0 ) :=

s(t) − s(t0 ) ds (t0 ) = lim t→t0 dt t − t0 = Geschwindigkeit zur Zeit t0 .

Wird das Argument eine Funktion f nicht mit x, sondern mit t bezeichnet, dann schreibt man oft f˙ statt f 0 fu ¨r die Ableitung. Beispiel:

g 2 t ⇒ s˙ (t) = v0 − gt 2 Hier ist s(t) die H¨ ohe eines Steins u ¨ber Boden, wenn er zur Zeit t = 0 mit Geschwindigkeit v0 von der H¨ohe 0 aufgeworfen wird. g = 9.81m/s 2 . s(t) = v0 t −

Analytische Interpretation der Ableitung Wenn f in x0 differenzierbar ist, dann gilt f (x0 + h) = f (x0 ) + f 0 (x0 )h + R(h) wobei f (x0 + h) − f (x0 ) R(h) = − f 0 (x0 ) −→ 0, h h

(h → 0).

Also ist R(h) klein im Vergleich zu |h|, wenn |h| klein ist. In diesem Sinn gilt: f (x0 + h) ≈ f (x0 ) + f 0 (x0 )h,

|h| klein

Umgekehrt, wenn f (x0 + h) = f (x0 ) + mh + R(h) wobei m ∈ R und R(h)/h → 0 fu ¨r h → 0, dann ist f in x0 differenzierbar mit Ableitung m.

Das Differential fHx0 +hL

df=f'Hx0 Lh

fHx0 L

Df

x0 x0 +h

dx = ∆x = x − x0 = h

Zuwachs des Arguments

∆f = f (x) − f (x0 ) tats¨achlicher Zuwachs von f df = f 0 (x)h lineare Approximation des Zuwachses von f . Somit gilt: df = f 0 (x0 )dx. Die lineare Abbildung df : h 7→ f 0 (x0 )h heißt Differential von f an der Stelle x0 .

Satz 4.1 Ist f : I → R ein x0 ∈ I differenzierbar, dann ist f dort auch stetig.

Satz 4.2 Sind f , g : I → R differenzierbar und c ∈ R, dann sind auch f + g , cf , fg und f /g differenzierbar, und es gilt (a)

(f + g )0 = f 0 + g 0

(b)

(cf )0 = cf 0

(c) (d)

(fg )0 = f 0 g + fg 0  0 f f 0 g − fg 0 = , g g2

 0 1 g0 = − 2. g g

Ist nur bekannt, dass f , g in x0 ∈ I differenzierbar sind, dann sind f + g , fg und, falls g (x0 ) 6= 0, f /g an der Stelle x0 differenzierbar und es gelten (a)–(d) an der Stelle x0 .

Korollar 4.3 Jedes Polynom und jede rationale Funktion ist differenzierbar und d (an x n + . . . + a1 x + a0 ) = nan x n−1 + . . . + a1 , dx d 1 n ( n ) = − n+1 , n ∈ N. dx x x

Satz 4.4 sin, cos, tan, cot sind differenzierbar und sin0 x = cos x, 1 , tan0 x = (cos x)2

cos0 x = − sin x, 1 cot0 x = − , (sin x)2

Lemma 4.5 Fu ¨r alle x < 1 gilt 1 + x ≤ ex ≤

1 . 1−x

H1-xL-1 1+x

Theorem 4.6 Die Exponentialfunktion ist differenzierbar, es gilt e x+y = e x e y fu ¨r alle x, y ∈ R und d x e = ex . dx

Satz 4.7 (Kettenregel) Die Komposition f ◦ g : x 7→ f (g (x)) von zwei differenzierbaren Funktionen f und g ist ebenfalls differenzierbar und d f (g (x)) = f 0 (g (x))g 0 (x). dx

(19)

Folgerungen: I

d dx f (g (x))

6= f 0 (g (x)), ausser wenn g 0 (x) = 1, und somit auch d df f (g (x)) 6= (g (x)). dx dx

I

Sind f , g und h differenzierbar, dann auch x 7→ f (g (h(x))) und d d f (g (h(x))) = f 0 (g (h(x))) g (h(x)) = f 0 (g (h(x)))g 0 (h(x))h0 (x). dx dx

H¨ohere Ableitungen Seien f : I → R und f 0 : I → R differenzierbar. Die Ableitung (f 0 )0 der Ableitung f 0 heißt zweite Ableitung von f und wird mit f 00 , f (2) oder   d d d 2f := f dx 2 dx dx bezeichnet. Die n-te Ableitung ist rekursiv definiert durch: f

(0)

:= f ,

f

(n)

d nf d  (n−1)  := n := f dx dx

Die Funktion f heißt n Mal differenzierbar, wenn alle Ableitungen von f bis zur n-ten Ableitung, f (n) , existieren. Die Funktion f heißt n Mal stetig differenzierbar, wenn sie n Mal differenzierbar ist und f (n) noch stetig ist.

Satz 4.8 (Leibnizsche Regel) Sind f , g : I → R n Mal differenzierbar, dann ist auch fg n Mal differenzierbar und es gilt (fg )(n)

n   X n (k) (n−k) = f g . k k=0

Beispiel: (fg )0 = f 0 g + fg 0 (fg )00 = f 00 g + 2f 0 g 0 + fg 00 (fg )000 = f 000 g + 3f 00 g 0 + 3f 0 g 00 + fg 000 .

Der Mittelwertsatz und Anwendungen der Differentialrechnung

Maxima und Minima einer Funktion Die Zahl f (a) heißt globales Maximum von f : D → R, wenn f (x) ≤ f (a)

fu ¨r alle x ∈ D.

Dann ist a ∈ D eine globale Maximalstelle. (Statt “global” sagt man auch “absolut”.) Die Zahl f (a) heißt lokales Maximum von f , wenn es ein δ > 0 gibt, so dass f (x) ≤ f (a)

fu ¨r x ∈ D, |x − a| < δ.

Globales und lokales Minimum sind analog definiert. Extremum ist der gemeinsame Oberbegriff fu ¨r Maximum und Minimum. Ein Punkt x0 ∈ D heißt station¨ arer Punkt (oder kritischer Punkt) von f , wenn f 0 (x0 ) = 0.

x0

x1 x2

x3

x4

x5 x6

f (x1 ) = globales Minimum, f (x5 ) = globales Maximum, f (x1 ), f (x2 ), f (x4 ), f (x6 ) = lokale Minima, f (x0 ), f (x3 ), f (x5 ) = lokale Maxima, x2 , x3 , x4 , x5 = station¨are Punkte.

Satz 4.9 Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt: x0 ist lokale Extremstelle ⇒ f 0 (x0 ) = 0. Umgekehrt braucht ein station¨arer Punkt keine Extremstelle zu sein. Z.B. ist x = 0 ist ein station¨arer Punkt von f (x) = x 3 aber keine lokale Extremstelle. Kandidaten fu ¨r Extremstellen von f : I → R sind: (a) Die Randpunkte von I , (b) Die Punkte von I , wo f nicht differenzierbar ist, (c) die station¨aren Punkte aus dem Inneren von I .

Der Mittelwertsatz Theorem 4.10 (Mittelwertsatz) Sei f : [a, b] → R stetig und in (a, b) differenzierbar. Dann gibt es einen inneren Punkt x0 ∈ (a, b) mit f (b) − f (a) = f 0 (x0 ). b−a

a

x0

b

Satz 4.11 Sei I ein Intervall und sei f : I → R differenzierbar. Dann gilt: f 0 = 0 ⇔ f ist konstant, f 0 ≥ 0 ⇔ f ist monoton wachsend, f 0 ≤ 0 ⇔ f ist monoton fallend, f 0 > 0 ⇒ f ist streng monoton wachsend, f 0 < 0 ⇒ f ist streng monoton fallend. Mit f 0 = 0 ist gemeint, dass f 0 (x) = 0 fu ¨r alle x ∈ I , f 0 ≥ 0 bedeutet f 0 (x) ≥ 0 fu ¨r alle x ∈ I , etc. I

In den letzten beiden Aussagen ist die Umkehrung “⇐” im allgemeinen falsch. Das sieht man am Beispiel der Funktionen f (x) = ±x 3 . Sie sind streng monoton obwohl f 0 (0) = 0.

I

Alle Aussagen sind falsch wenn I kein Intervall ist.

Korollar 4.12 Ist I ein Interval und sind f , g : I → R differenzierbar, dann gilt: (a) f 0 = g 0 auf I ⇔ f = g + c wobei c eine Konstante ist. (b) f (n) = 0 ⇔ f ist ein Polynom vom Grad n − 1 oder kleiner.

Theorem 4.13 Ist f : R → R differenzierbar, dann gilt f0 =f wobei c = f (0).



f (x) = ce x

Satz 4.14 Sei f : (a, b) → R differenzierbar, x0 ∈ (a, b) und f 0 (x0 ) = 0. Falls es ein δ > 0 gibt, so dass f 0 (x) < 0, f 0 (x) > 0,

x0 − δ < x < x0 , x0 < x < x0 + δ,

f'