Lineare Gleichungssysteme
Grundlagen der Numerik
festes Ende Feder k1 Masse m1 k2 m2 k3 m3 k4 festes Ende
Beispiel: Feder–Masse–System u0 = 0 Federkraft y1 Verschiebung u1 y2 u2 y3 u3 y4 u4 = 0
66
Feder–Masse–System Bezeichnungen u y e f
= = = =
(u1, u2, u3) (y1, y2, y3, y4) (e1, e2, e3, e4) (f1, f2, f3)
= = = =
Verschiebungen der Massen Kr¨ afte in den Federn Ausdehnungen der Federn Gravitationskr¨ afte
Aufstellen der Gesetze Ausdehnung der Feder = Differenz der Verschiebungen Hookesches Gesetz Kr¨ aftegleichgewicht Grundlagen der Numerik
67
Feder–Masse–System Ausdehnung der Feder = Differenz der Verschiebungen Erste Feder: Zweite Feder: Dritte Feder: Vierte Feder:
oder kurz
e1 e2 e3 e4
= = = =
u1 da u0 = 0 u 2 − u1 u 3 − u2 −u3 da u4 = 0
e1 1 0 0 u1 0 e 2 −1 1 = · u2 e 3 0 −1 1 u3 e4 0 0 −1 e=A·u
Grundlagen der Numerik
68
Feder–Masse–System Hookesches Gesetz Erste Feder: Zweite Feder: Dritte Feder: Vierte Feder:
oder kurz
y1 y2 y3 y4
= = = =
k1 e1 k2 e2 k3 e3 k4 e4
y1 k1 0 0 0 e1 y 0 0 0 k 2 e2 2 = · y3 0 0 k3 0 e3 y4 e4 0 0 0 k4 y =K·e
Grundlagen der Numerik
69
Feder–Masse–System Kr¨ aftegleichgewicht: ¨ aussere Kr¨ afte = innere Kr¨ afte Erste Masse: Zweite Masse: Dritte Masse:
oder kurz
f1 = y 1 − y 2 = m 1 g f2 = y 2 − y 3 = m 2 g f3 = y 3 − y 4 = m 3 g
y1 1 −1 0 0 f1 y2 f2 = 0 1 −1 0 · y3 f3 0 0 1 −1 y4 f = AT · y
Grundlagen der Numerik
70
Feder–Masse–System Berechnung der Verschiebungen e = Au y = Ke f = AT y
also
ergibt
−k2 k1 + k2 k2 + k3 −k2 0 −k3 Grundlagen der Numerik
AT K A u = f
0 u1 f1 −k3 · u2 = f2 k3 + k4 u3 f3 71
Numerische L¨ osung linearer Gleichungssysteme Geg.: Ax = b,
A ∈ Rn,n, b ∈ Rn,
osung x Ges.: eindeutige L¨
A regul¨ ar
(= A−1b)
Beobachtung: h¨ aufig Teilaufgabe innerhalb umfangreicherer Problemstellungen, z.B. treten sie auf bei der numerischen Behandlung nichtlinearer GS mittels Newton-Verfahren, bei der numerischen Behandlung von Differentialgleichungen usw. Folgerung: Die Bereitstellung von numerischen Methoden fu ¨r diese Aufgabe ist ein zentrales Anliegen der Numerischen Mathematik. Grundlagen der Numerik
72
Beobachtungen: 1. Berechnung von A−1 ist zu aufwendig! 2. Cramersche Regel xi =
Di det A
,
i = 1, ..., n.
wobei Di Determinanten, die durch Ersetzen der i-ten Spalte von A durch b entstehen → zu hoher Aufwand L¨ osung: 2 Typen von Verfahren Direkte Verfahren: L¨ osung nach endlich vielen Schritten Iterative Verfahren: Berechnung einer konvergenten Folge Grundlagen der Numerik
73
Direkte Verfahren: Gaußscher Algorithmus Idee: Sukzessive Elimination der Unbekannten. Beispiel
5 1 4 7 x1 = · x 2 5 8 −1 2 x3 0 3 6 10 A
·
x
=
Betrachte die erweiterte Matrix: 1 4 7 5 2 5 8 −1 3 6 10 0 Grundlagen der Numerik
b
74
Gaußscher Algorithmus Eliminiere x1: 1 4 7 1 4 7 5 ⇒ −2 ∗ 1. Zeile −1 2 5 8 0 −3 −6 −3 ∗ 1. Zeile 0 −6 −11 3 6 10 0
Eliminiere x2: 1 4 7 0 −3 −6 0 −6 −11
Grundlagen der Numerik
5 −11 −15
5 1 4 7 5 −11 0 −3 −6 −11 −15 −2 ∗ 2. Zeile ⇒ 0 0 1 7
75
5 1 4 7 x1 = · −11 x 0 −3 −6 2 x3 7 0 0 1 R
·
x
=
z
R: Obere Dreiecksmatrix. Sukzessives Einsetzen ⇒ x Ru ¨cksubstitution: x3 = 7 : 1 = 7 x2 = (−11 + 6 ∗ x3) : (−3) = −
31 3
x1 = (5 − 7 ∗ x3 − 4 ∗ x2) : 1 = − Grundlagen der Numerik
8 3 76
Gaußsche Eliminationsmethode Jetzt: Betrachten allgemeines regul¨ ares lineares GS Ax = b a11x1 + a12x2 + ... + a1nxn = b1 a21x1 + a22x2 + ... + a2nxn = b2 ..
(∗)
an1x1 + an2x2 + ... + annxn = bn Ziel: Umformung von (∗) auf obere Dreiecksgestalt, dann Ru ¨cksubstitution.
Grundlagen der Numerik
77
Gaußsche Eliminationsmethode Sei a11 6= 0. Dann 1. Gleichung nach x1 aufl¨ osen: x1 = −
a12 a11
x2 − ... −
a 1n a11
xn +
b1 a11
Einsetzen in die i-te Zeile fu ¨hrt auf
a i1 −
a12 a11
x2 − ... −
a 1n a11
xn +
b1 a11
+ ai2x2 + ... + ainxn = bi
und nach Umordnung auf a i 1 a 1n a i1 b 1 ai1a12 0·x1 + ai2 − x2 +...+ ain − xn = bi − a11 a11 a11
Grundlagen der Numerik
78
Gaußsche Eliminationsmethode Damit neue i-te Zeile = alte i-te Zeile − li1 · alte erste Zeile mit li 1 =
a i1 a11
,
i = 2, ..., n zugeh¨ origer Eliminationskoeffizient.
Bemerkungen: 1. Der Koeffizient bei x1 wird also in den Zeilen 2 bis n Null, d.h. diese Gleichungen enthalten kein x1 mehr. 2. Das Element a11 heißt Pivotelement, die erste Zeile Pivotzeile. (“pivot” aus dem engl. ≈ Dreh- oder Angelpunkt) Grundlagen der Numerik
79
Gaußsche Eliminationsmethode Im ersten Schritt wird das System Ax = b mit
A = A(1)
=
Grundlagen der Numerik
(1) a11 (1) a21
(1) a12 (1) a22
(1)
(1)
..
..
··· ···
(1) a1n (1) a2n
..
an1 an2 · · · a(1) nn
,
b = b(1)
=
(1) b1 (1) b2
..
b(1) n
80
Gaußsche Eliminationsmethode in das ¨ aquivalente System A(2)x = b(2)
(∗∗)
mit
A(2)
und (2)
(1) a11
0 = .. 0 (1)
(1) a12 (2) a22
..
··· ···
(2)
(1) a 1n (2) a 2n
..
an2 · · · a(2) nn (1)
aij = aij − li1a1j ,
(2)
bi
,
(1)
b(2)
(1)
= b i − li 1 b 1 ,
=
(1) b1 (2) b2
..
b(2) n
i = 2, ..., n
u ¨berfu ¨hrt. Grundlagen der Numerik
81
Gaußsche Eliminationsmethode Das System (**) zerf¨ allt in (i) eine Gleichung fu ¨ r x1 (1)
(1)
(1)
(1)
a11 x1 + a12 x2 + ... + a1n xn = b1 (ii) das (n − 1)-dimensionale Restsystem
(2) a22
..
(2)
···
(2) a2n
..
an2 · · · a(2) nn
(2) b2
x2 . . · . = . xn b(2) n
in dem nur noch die Unbekannten x2, ..., xn vorkommen. Auf (2) dieses Restsystem wird, unter der Voraussetzung a22 6= 0, wieder die Eliminationsvorschrift angewendet. Grundlagen der Numerik
82
Gaußsche Eliminationsmethode Man erh¨ alt so eine Folge von Matrizen A = A(1) → A(2) → ... → A(n) =: R der speziellen Gestalt (1) (1) (1) a11 · · · a1,k−1 a1k .. .. ... (k−1) (k−1) a a k−1,k−1 k−1,k A (k ) = (k ) akk .. (k ) ank
···
(1) a 1n
..
(k−1)
· · · ak−1,n ···
(k ) akn
···
k) a(nn
..
mit einer (n − k + 1, n − k + 1)- Restmatrix. Grundlagen der Numerik
83
Gaußsche Eliminationsmethode (k )
Falls akk = 6 0 k¨ onnen wir den n¨ achsten Eliminationsschritt ausfu ¨hren. Dieser lautet
(k )
(k )
lik = aik /akk
fu ¨r i = k + 1, ..., n
(k+1)
= aij − likakj
(k+1)
= bi
aij bi
Grundlagen der Numerik
(k )
(k )
(k )
(k )
− likbk
fu ¨r i, j = k + 1, ..., n fu ¨r i = k + 1, ..., n
84
LR-Faktorisierung Beobachtung:
A(k+1) = LkA(k),
b(k+1) = Lkb(k)
mit Eliminationsmatrix 1 ... 1 Lk = ← −lk+1,k 1 . . . . . 1 −ln,k
Grundlagen der Numerik
(k + 1)-te Zeile
85
LR-Faktorisierung Folgerung: Ax = b ⇒ Rx = z mit R := A(n) = Ln−1 · · · L1A,
z := b(n) = Ln−1 · · · L1b (***)
Lk ist stets regul¨ ar, die Inverse ist 1 ... 1 −1 Lk = lk+1,k 1 . . . . . ln,k 1 Grundlagen der Numerik
86
LR-Faktorisierung Aus (***) folgt 1 A = L1−1L2−1 · · · L− n−1R = LR
wobei
1 L = L1−1L2−1 · · · L− n−1
Grundlagen der Numerik
1 l 1 21 = l31 l32 1 . ... . ln1 ln2 . . . ln,n−1 1
87
LR-Faktorisierung DEF.: Die Darstellung A = LR der Matrix A als Produkt einer unipotenten unteren Dreiecksmatrix und einer oberen Dreiecksmatrix heißt LR-Zerlegung (LR-Faktorisierung) oder Gaußsche Dreieckszerlegung von A. Algorithmus: Gauß–Elimination 1. A = LR Dreieckszerlegung R obere, L untere Dreiecksmatrix ⇒ 2. Lz = b
Vorw¨ artssubstitution
3. Rx = z
Ru artssubstitution ¨ckw¨
Grundlagen der Numerik
LRx = b
88
LR-Faktorisierung Aufwand: n3 3
+
n2 2
−
5n 6
(M, A) ,
n2 2
+
n 2
(D)
Mit 1 opms := 1 (A,M) ist Aufwand Gauss-Algorithmus ungef¨ ahr n3/3 opms. Beachte: Die LR-Zerlegung braucht fu ¨r verschiedene rechte Seiten b nur einmal durchgefu ¨hrt werden!
Grundlagen der Numerik
89
Spaltenpivotisierung Beobachtung: In der bisher beschriebenen Form ist der Gaußsche Algorithmus zur Lo arer linearen Glei¨sung beliebiger regul¨ chungssysteme nicht geeignet. Probleme: 1. Sei
0 1 A= , det A = −1 1 0 ⇒ A regul¨ ar, aber a11 = 0 ⇒ Dreieckszerlegung versagt. 2. Sei −16 a21 10 1 (2) A= a12 = 1 − 1016 , a22 = a22 − 1 1 a11 ⇒ computerabh¨ angige Ausl¨ oschung ⇒ falsches Ergebnis Grundlagen der Numerik
90
Spaltenpivotisierung Ausweg: Vertauschen von Zeilen Spaltenpivotisierung: (column pivoting) Bei jedem Eliminationsschritt w¨ ahlt man diejenige Zeile als Pivotzeile, die das betragsm¨ aßig gr¨ oßte Element in der Pivotspalte besitzt. Das garantiert 1. |lij | ≤ 1 2. Pivotelement 6= 0, falls A regul¨ ar Fu ¨hrt auf Gauß-Elimination mit Spaltenpivotisierung Grundlagen der Numerik
91
a) W¨ ahle im k-ten Eliminationsschritt ein p ∈ {k, ..., n}, so daß (k ) |apk |
≥
(k ) |ajk |
fu ¨r j = k, ..., n,
d.h. die p-te Zeile wird Pivotzeile. (1) (1) (1) a1,k−1 a1k a11 · · · .. .. ... (k−1) (k−1) a a k−1,k−1 k−1,k (k ) a kk A (k ) = .. (k ) a pk .. (k ) ank Grundlagen der Numerik
···
(1) a 1n
..
(k−1)
· · · ak−1,n ··· ··· ···
(k )
akn .. k) a(pn .. k) a(nn
92
b) Vertausche die Zeilen p und k
(k ) ˜(k) mit a ˜ij A (k ) → A
(k ) a kj , k) = a(pj , a (k ) , ij
Dann gilt |˜ lik| =
(k ) |˜ aik | (k ) |˜ akk |
=
(k ) |˜ aik | (k ) |apk |
falls i = p falls i = k sonst
≤1
˜(k) c) Fu achsten Eliminationsschritt angewandt auf A ¨hre den n¨ aus: ˜(k) → A(k+1) A
Grundlagen der Numerik
93
Cholesky-Verfahren Spezialfall: symmetrische, positiv definite Matrizen DEF.: Eine symmetrische Matrix A = AT ∈ Rn,n heißt positiv definit, wenn hx, Axi = xT Ax > 0 fu ¨r alle x ∈ Rn mit x 6= 0 Diese Matrizen werden abku ¨rzend als spd-Matrizen bezeichnet. Bemerkung: Eine spd-Matrix ist durch die n(n2+1) Elemente im unteren Dreieck i ≥ j gegenu ¨ber n2 im allg. Fall festgelegt. Grundlagen der Numerik
94
Cholesky-Verfahren Frage: Wie kann man feststellen, ob A ∈ Rn,n eine spd-Matrix ist? Antwort: Eine symmetrische Matrix A ist genau dann positiv definit, wenn alle fu ¨hrenden Hauptminoren positiv sind, d.h. es gilt
a11 · · · a1i .. det .. ¨r i = 1, ..., n. > 0 fu ai1 · · · aii Grundlagen der Numerik
95
Cholesky-Verfahren SATZ: Fu ¨r jede spd-Matrix A existiert eine Zerlegung der Form A = LLT ,
(klassische Cholesky-Zerlegung)
wobei L eine untere Dreiecksmatrix ist. Die Matrix L = (lij ) kann aus der folgenden Darstellung berechnet werden: l11 · · · ln1 a11 · · · an1 l11 . . . . . . . . . . · = . . . . lnn ln1 · · · lnn an1 · · · ann Grundlagen der Numerik
96
Cholesky-Verfahren Man erh¨ alt (betrachten nur unteres Dreieck) i=k:
2 2 + l akk = lk2 1 + · · · + lk,k− 1 kk
i>k:
aik = li1lk1 + · · · + li,k−1lk,k−1 + liklkk
Die Berechnung der Elemente von L erfolgt dann spaltenweise. Durch Aufl¨ osung der beiden Gleichung nach lkk bzw. lik ergibt sich der folgende Algorithmus:
Grundlagen der Numerik
97
Algorithmus: Klassisches Cholesky-Verfahren 1. vollsymmetrische Dreieckszerlegung for k := 1 to n q Pk−1 2 lkk := akk − j =1 lkj for i := k + 1 to n do lik := (aik − ⇒ A = LLT ⇒ LLT x = b 2. Lz = b 3. LT x = z Grundlagen der Numerik
⇒ ⇒
Pk−1 j =1
lij lkj )/lkk
z x 98
Cholesky-Verfahren Rechenaufwand: ∼ 16 n3 opms + n Quadratwurzeln Vergleich: Gauß-Verfahren fu ¨r allgemeine Matrizen: ∼ opms, d.h. Aufwand reduziert sich auf die H¨ alfte.
Grundlagen der Numerik
1 3 n 3
99
Iterationsverfahren
Ax = b,
A ∈ Rn,n,
b ∈ Rn ,
A regul¨ ar
Bisher: Direkte Verfahren Gauß-Verfahren = LR-Zerlegung Cholesky-Verfahren fu ¨r spd-Matrizen = LLT -Zerlegung L¨ osung in endlich vielen Schritten, die L¨ osung ist in exakter Arithmetik exakt Aufwand ist O(n3) Grundlagen der Numerik
100
Iterationsverfahren Beobachtung: Praktische Probleme h¨ aufig sehr groß (speziell Diskretisierung von Randwertproblemen partieller Differentialgleichungen) und schwach besetzt. Zur effektiven L¨ osung derartiger Probleme muß die Struktur ausgenutzt werden. Es gibt zwei M¨ oglichkeiten: 1. Anwendung von sparse-Matrix-Techniken in direkten Verfahren. Basieren im wesentlichen auf Gauß-Algorithmus. osung großer, 2. Iterative Verfahren zur Approximation der L¨ strukturierter Systeme.
Grundlagen der Numerik
101
Theoretische Grundlagen u ¨ber Eigenwerte 1. Sei A ∈ Rn,n. λ ∈ C ist Eigenwert von A, wenn Ax = λx
fu ¨r
x 6= 0.
x ist der zugeh¨ orige Eigenvektor. Aus der Definition folgt (A − λI)x = 0. Wegen x 6= 0 ist das genau dann m¨ oglich, wenn det(A − λI) = 0 (= charakteristisches Polynom). Charakteristisches Polynom ist vom Grad n, d.h., zu jeder Matrix A ∈ Rn,n gibt es genau n Eigenwerte, die aber mehrfach und auch komplex sein k¨ onnen. 2. Der Spektralradius ρ der Matrix A ist das Maximum der Betr¨ age der Eigenwerte von A: ρ(A) = max |λi|. Grundlagen der Numerik
102
Fixpunktverfahren Jetzt: Betrachten Iterationsvorschrift xk+1 = ϕ(xk)
k = 0, 1, . . .
zur L¨ osung von Ax = b,
A ∈ Rn,n,
b ∈ Rn ,
A nichtsingul¨ ar
Ziel: Iterationsfunktion ϕ so konstruieren, daß sie genau einen Fixpunkt x∗ besitzt, d.h. x∗ = ϕ(x∗) und dieser gerade die exakte L¨ osung x = x∗ von Ax = b ist. Grundlagen der Numerik
103
Iterationsverfahren Konstruktionsidee: Zerlegung von A in A = B + (A − B),
ar B ∈ Rn,n nichtsingul¨
Damit gilt Bx + (A − B)x = b ⇒
x = B −1b − B −1(A − B)x = (I − B −1A)x + B −1b
D.h., das LGS Ax = b ist ¨ aquivalent zur Fixpunktaufgabe x = (I − B −1A)x + B −1b =: ϕ(x) Grundlagen der Numerik
104
Iterationsverfahren Iterationsverfahren: x0 ∈ Rn,n vorgegebener Startvektor xk+1 = (I − B −1A)xk + B −1b ,
k = 0, 1, . . .
Zugeh¨ orige Iterationsmatrix: I − B −1A Damit gilt es folgende Folge von LGS zu l¨ osen: Bxk+1 = (B − A)xk + b ,
Grundlagen der Numerik
k = 0, 1, . . .
105
Iterationsverfahren Bemerkungen: 1. Iterationsverfahren der Form xk+1 = M xk + v,
k = 0, 1, ...
angt linear von xk ab), station¨ ar (M und v sind linear (xk+1 h¨ sind unabh¨ angig von der Schrittnummer der Iteration) und einstufig (nur der letzte und nicht noch weitere N¨ aherungsvektoren werden verwendet). alt man durch Lo 2. xk+1 erh¨ ¨sen eines linearen GS mit der Koeffizientenmatrix B. Das ergibt natu ¨rlich nur dann einen Vorteil gegenu ¨ber der urspru ¨nglichen Aufgabe, wenn das neue System einfacher zu l¨ osen ist ⇒ B entsprechend w¨ ahlen. Grundlagen der Numerik
106
Iterationsverfahren Ziel: Sei Ax∗ = b. Dann lim xk = x∗, d.h. ||xk − x∗|| → 0 fu ¨r k → ∞
k→∞
SATZ: Das Fixpunktverfahren Bxk+1 = (B − A)xk + b,
B ∈ Rn,n nichtsingul¨ ar
(*)
konvergiert genau dann fu ¨r jeden Startvektor x0 ∈ Rn gegen die exakte L¨ osung x∗, wenn fu ¨r den Spektralradius der Iterationsmatrix gilt ρ(I − B −1A) = max |λi(I − B −1A)| < 1 i
Grundlagen der Numerik
107
Iterationsverfahren Bemerkungen: 1. Konvergenzbedingung ρ(I − B −1A) < 1 ist sicher erfu ¨llt, wenn in einer zugeordneten Matrixnorm gilt ||I − B −1A|| < 1 da fu ¨r alle zugeordneten Matrixnormen ρ(M ) ≤ ||M || ist. ⇒ hinreichendes Konvergenzkriterium, aber nicht notwendig oglichst klein sein, da dadurch die 2. ρ(I − B −1A) sollte m¨ Konvergenzgeschwindigkeit bestimmt wird.
Grundlagen der Numerik
108
Iterationsverfahren: Richardson-Verfahren Ein erstes Verfahren: Richardson-Verfahren Setze B = I. Dann xk+1 = xk − Axk + b Eigenschaften: 1. Neue N¨ aherung xk+1 ist leicht berechenbar. 2. Notwendiges und hinreichendes Konvergenzkriterium: ρ(B − A) = ρ(I − A) < 1 starke Einschr¨ ankung: Selbst wenn die Matrix A nur relle Eigenwerte besitzt, erfordert es 0 < λi < 2 Grundlagen der Numerik
fu ¨r alle Eigenwerte λi von A. 109
Spezielle Iterationsverfahren Ziel: Angabe konkreter Zerlegungen einer nichtsingul¨ aren Matrix A ∈ Rn,n und Untersuchung der hieraus resultierenden wichtigsten Iterationsverfahren. Es sei AD = diag(a11, a22, ..., ann), sowie
0 a 21 AL = .. . an 1
0 0
··· ··· ... ···
0 0
an,n−1
0 0 ... , 0
AR
0 0 = ... 0 0
a12 0
a13 a23
0 0
0 0
··· ··· ... ··· ···
a1n a2n ...
an−1,n 0
Dann ist A = AL + AD + AR . Grundlagen der Numerik
110
Jacobi- oder Gesamtschrittverfahren (GSV) Setze: B = AD Das ergibt die Iterationsmatrix 1 I − B −1 A = I − A − D (AD + AL + AR) 1 = −A− D (AL + AR) =: MGSV
Das zugeh¨ orige Iterationsverfahren lautet 1 −1 (A + A )x + A xk+1 = −A− L R k D D b
Grundlagen der Numerik
111
Jacobi- oder Gesamtschrittverfahren (GSV) Aus [AD xk+1]i = −[(AL + AR)xk]i + bi
folgt die komponentenweise Iterationsvorschrift
xk+1,i
n X 1 b i − , = a x ij k,j a ii
i = 1, ..., n
j =1 j6=i
D.h.: Zur Berechnung der Iterierten xk+1,i einer Komponente des Vektors xk+1 werden alle Komponenten des vorangehenden otigt. Das erkl¨ art auch den Namen iterierten Vektors xk ben¨ Gesamtschrittverfahren. Grundlagen der Numerik
112
Jacobi- oder Gesamtschrittverfahren (GSV) SATZ: Das GSV konvergiert fu ¨r jeden Startvektor x0 ∈ Rn, wenn A zeilendiagonal-dominant, d.h. n X j =1 j6=i
|aij | < |aii|,
i = 1, ..., n,
(*)
oder spaltendiagonal-dominant, d.h. n X i=1 i6=j
|aij | < |ajj |,
j = 1, ..., n,
(**)
ist. Grundlagen der Numerik
113
Jacobi- oder Gesamtschrittverfahren (GSV) Bemerkungen: 1. Hinreichend fu ¨r die Konvergenz des GSV ist auch das starke Quadratsummenkriterium 2 n X n X aij i=1 j =1 j6=i
aii
< 1.
2. Die obigen Konvergenzkriterien sind nur hinreichend, d.h. Bedingung erfu ¨llt ⇒
Bedingung nicht erfu ¨llt ⇒
Grundlagen der Numerik
Konvergenz ?
114
Gauß-Seidel-Verfahren oder Einzelschrittverfahren (ESV) Setze: B = AD + AL Das ergibt die Iterationsmatrix I − B −1A = I − (AD + AL)−1(AD + AL + AR) = −(AD + AL)−1AR =: MESV Die Iterationsvorschrift lautet xk+1 = −(AD + AL)−1ARxk + (AD + AL)−1b
Grundlagen der Numerik
115
Gauß-Seidel-Verfahren oder Einzelschrittverfahren (ESV) Aus [(AD + AL)xk+1]i = −[ARxk]i + bi
erh¨ alt man komponentenweise die Iterationsvorschrift i−1 n X X 1 bi − xk+1,i = aij xk+1,j − aij xk,j , i = 1(1)n aii j =1 j =i+1 Bemerkung: Im Gegensatz zum GSV werden beim ESV die schon erhaltenen Werte xk+1,1, ..., xk+1,i−1 sofort in die Iterationsvorschrift eingesetzt. I.allg. sind diese neuen Werte genauer als die der vorhergehenden Iterierten. Man erhofft dadurch eine schnellere Konvergenz. Grundlagen der Numerik
116
Konvergenzverhalten von ESV und GSV Frage: Wann konvergiert das ESV? Vergleich der Konvergenzgeschwindigkeit von ESV und GSV? SATZ: Das ESV ist konvergent, wenn A zeilendiagonal- oder spaltendiagonal-dominant ist. Die Konvergenz ist dann asymptotisch mindestens so schnell wie beim GSV. SATZ: Das ESV konvergiert fu ¨r jede spd-Matrix A. Bemerkung: Es gibt F¨ alle, in denen das GSV konvergiert und das ESV nicht, und umgekehrt.
Grundlagen der Numerik
117
Beispiel: Sei
1 −2 2 A = −1 1 −1 −2 −2 1
Dann gilt
MGSV
Man erh¨ alt
0 2 −2 0 2 −2 = 1 0 1 und MESV = 0 2 −1 2 2 0 0 8 −6
ρ(MGSV ) = 0 und ρ(MESV ) = 2(1 +
√
2),
d.h., das GSV ist konvergent, aber das ESV ist divergent. Grundlagen der Numerik
118