Lineare Gleichungssysteme

Grundlagen der Numerik

 





 





  



  

festes Ende Feder k1 Masse m1 k2 m2 k3 m3 k4 festes Ende



Beispiel: Feder–Masse–System u0 = 0 Federkraft y1 Verschiebung u1 y2 u2 y3 u3 y4 u4 = 0

66

Feder–Masse–System Bezeichnungen u y e f

= = = =

(u1, u2, u3) (y1, y2, y3, y4) (e1, e2, e3, e4) (f1, f2, f3)

= = = =

Verschiebungen der Massen Kr¨ afte in den Federn Ausdehnungen der Federn Gravitationskr¨ afte

Aufstellen der Gesetze Ausdehnung der Feder = Differenz der Verschiebungen Hookesches Gesetz Kr¨ aftegleichgewicht Grundlagen der Numerik

67

Feder–Masse–System Ausdehnung der Feder = Differenz der Verschiebungen Erste Feder: Zweite Feder: Dritte Feder: Vierte Feder:

oder kurz

e1 e2 e3 e4

= = = =

u1 da u0 = 0 u 2 − u1 u 3 − u2 −u3 da u4 = 0

      e1 1 0 0 u1     0    e 2  −1 1 =     · u2 e 3   0 −1 1  u3 e4 0 0 −1 e=A·u

Grundlagen der Numerik

68

Feder–Masse–System Hookesches Gesetz Erste Feder: Zweite Feder: Dritte Feder: Vierte Feder:

oder kurz

y1 y2 y3 y4

= = = =

k1 e1 k2 e2 k3 e3 k4 e4

      y1 k1 0 0 0 e1       y 0 0 0 k  2  e2  2  = ·  y3  0 0 k3 0  e3 y4 e4 0 0 0 k4 y =K·e

Grundlagen der Numerik

69

Feder–Masse–System Kr¨ aftegleichgewicht: ¨ aussere Kr¨ afte = innere Kr¨ afte Erste Masse: Zweite Masse: Dritte Masse:

oder kurz

f1 = y 1 − y 2 = m 1 g f2 = y 2 − y 3 = m 2 g f3 = y 3 − y 4 = m 3 g

      y1 1 −1 0 0 f1     y2   f2 = 0 1 −1 0  ·   y3 f3 0 0 1 −1 y4 f = AT · y

Grundlagen der Numerik

70

Feder–Masse–System Berechnung der Verschiebungen    e = Au y = Ke   f = AT y

also



  

ergibt

 

−k2 k1 + k2  k2 + k3  −k2 0 −k3 Grundlagen der Numerik

AT K A u = f

 



  0 u1 f1      −k3  · u2 = f2 k3 + k4 u3 f3 71

Numerische L¨ osung linearer Gleichungssysteme Geg.: Ax = b,

A ∈ Rn,n, b ∈ Rn,

osung x Ges.: eindeutige L¨

A regul¨ ar

(= A−1b)

Beobachtung: h¨ aufig Teilaufgabe innerhalb umfangreicherer Problemstellungen, z.B. treten sie auf bei der numerischen Behandlung nichtlinearer GS mittels Newton-Verfahren, bei der numerischen Behandlung von Differentialgleichungen usw. Folgerung: Die Bereitstellung von numerischen Methoden fu ¨r diese Aufgabe ist ein zentrales Anliegen der Numerischen Mathematik. Grundlagen der Numerik

72

Beobachtungen: 1. Berechnung von A−1 ist zu aufwendig! 2. Cramersche Regel xi =

Di det A

,

i = 1, ..., n.

wobei Di Determinanten, die durch Ersetzen der i-ten Spalte von A durch b entstehen → zu hoher Aufwand L¨ osung: 2 Typen von Verfahren Direkte Verfahren: L¨ osung nach endlich vielen Schritten Iterative Verfahren: Berechnung einer konvergenten Folge Grundlagen der Numerik

73

Direkte Verfahren: Gaußscher Algorithmus Idee: Sukzessive Elimination der Unbekannten. Beispiel 





 



5 1 4 7 x1       = · x 2 5 8 −1    2 x3 0 3 6 10 A

·

x

=

Betrachte die erweiterte Matrix:   1 4 7 5    2 5 8 −1 3 6 10 0 Grundlagen der Numerik

b

74

Gaußscher Algorithmus Eliminiere x1:    1 4 7 1 4 7 5    ⇒ −2 ∗ 1. Zeile −1 2 5 8   0 −3 −6  −3 ∗ 1. Zeile 0 −6 −11 3 6 10 0

Eliminiere x2:  1 4 7   0 −3 −6 0 −6 −11

Grundlagen der Numerik

 5  −11  −15

   5 1 4 7 5    −11 0 −3 −6 −11   −15 −2 ∗ 2. Zeile ⇒ 0 0 1 7

75

      5 1 4 7 x1       = · −11 x 0 −3 −6      2 x3 7 0 0 1 R

·

x

=

z

R: Obere Dreiecksmatrix. Sukzessives Einsetzen ⇒ x Ru ¨cksubstitution: x3 = 7 : 1 = 7 x2 = (−11 + 6 ∗ x3) : (−3) = −

31 3

x1 = (5 − 7 ∗ x3 − 4 ∗ x2) : 1 = − Grundlagen der Numerik

8 3 76

Gaußsche Eliminationsmethode Jetzt: Betrachten allgemeines regul¨ ares lineares GS Ax = b a11x1 + a12x2 + ... + a1nxn = b1 a21x1 + a22x2 + ... + a2nxn = b2 ..

(∗)

an1x1 + an2x2 + ... + annxn = bn Ziel: Umformung von (∗) auf obere Dreiecksgestalt, dann Ru ¨cksubstitution.

Grundlagen der Numerik

77

Gaußsche Eliminationsmethode Sei a11 6= 0. Dann 1. Gleichung nach x1 aufl¨ osen: x1 = −

a12 a11

x2 − ... −

a 1n a11

xn +

b1 a11

Einsetzen in die i-te Zeile fu ¨hrt auf 

a i1 −

a12 a11

x2 − ... −

a 1n a11

xn +

b1 a11



+ ai2x2 + ... + ainxn = bi

und nach Umordnung auf     a i 1 a 1n a i1 b 1 ai1a12 0·x1 + ai2 − x2 +...+ ain − xn = bi − a11 a11 a11

Grundlagen der Numerik

78

Gaußsche Eliminationsmethode Damit neue i-te Zeile = alte i-te Zeile − li1 · alte erste Zeile mit li 1 =

a i1 a11

,

i = 2, ..., n zugeh¨ origer Eliminationskoeffizient.

Bemerkungen: 1. Der Koeffizient bei x1 wird also in den Zeilen 2 bis n Null, d.h. diese Gleichungen enthalten kein x1 mehr. 2. Das Element a11 heißt Pivotelement, die erste Zeile Pivotzeile. (“pivot” aus dem engl. ≈ Dreh- oder Angelpunkt) Grundlagen der Numerik

79

Gaußsche Eliminationsmethode Im ersten Schritt wird das System Ax = b mit

A = A(1)



  =  

Grundlagen der Numerik

(1) a11 (1) a21

(1) a12 (1) a22

(1)

(1)

..

..

··· ···

(1) a1n (1) a2n

..

an1 an2 · · · a(1) nn



  ,  

b = b(1)



  = 

(1) b1 (1) b2

..

b(1) n

    

80

Gaußsche Eliminationsmethode in das ¨ aquivalente System A(2)x = b(2)

(∗∗)

mit

A(2)

und (2)



(1) a11

  0 =  ..  0 (1)

(1) a12 (2) a22

..

··· ···

(2)

(1) a 1n (2) a 2n

..

an2 · · · a(2) nn (1)

aij = aij − li1a1j ,

(2)

bi



  ,  

(1)

b(2)

(1)

= b i − li 1 b 1 ,



  = 

(1) b1 (2) b2

..

b(2) n

    

i = 2, ..., n

u ¨berfu ¨hrt. Grundlagen der Numerik

81

Gaußsche Eliminationsmethode Das System (**) zerf¨ allt in (i) eine Gleichung fu ¨ r x1 (1)

(1)

(1)

(1)

a11 x1 + a12 x2 + ... + a1n xn = b1 (ii) das (n − 1)-dimensionale Restsystem   

(2) a22

..

(2)

···

(2) a2n

..

an2 · · · a(2) nn

 





(2) b2



x2   .   .  · . = .  xn b(2) n

in dem nur noch die Unbekannten x2, ..., xn vorkommen. Auf (2) dieses Restsystem wird, unter der Voraussetzung a22 6= 0, wieder die Eliminationsvorschrift angewendet. Grundlagen der Numerik

82

Gaußsche Eliminationsmethode Man erh¨ alt so eine Folge von Matrizen A = A(1) → A(2) → ... → A(n) =: R der speziellen Gestalt  (1) (1) (1) a11 · · · a1,k−1 a1k  .. .. ...   (k−1) (k−1)  a a k−1,k−1 k−1,k A (k ) =  (k )  akk   ..  (k ) ank

···

(1) a 1n

..

(k−1)

· · · ak−1,n ···

(k ) akn

···

k) a(nn

..

         

mit einer (n − k + 1, n − k + 1)- Restmatrix. Grundlagen der Numerik

83

Gaußsche Eliminationsmethode (k )

Falls akk = 6 0 k¨ onnen wir den n¨ achsten Eliminationsschritt ausfu ¨hren. Dieser lautet

(k )

(k )

lik = aik /akk

fu ¨r i = k + 1, ..., n

(k+1)

= aij − likakj

(k+1)

= bi

aij bi

Grundlagen der Numerik

(k )

(k )

(k )

(k )

− likbk

fu ¨r i, j = k + 1, ..., n fu ¨r i = k + 1, ..., n

84

LR-Faktorisierung Beobachtung:

A(k+1) = LkA(k),

b(k+1) = Lkb(k)

mit Eliminationsmatrix   1  ...      1   Lk =   ←  −lk+1,k 1   . . .  .  . 1 −ln,k

Grundlagen der Numerik

(k + 1)-te Zeile

85

LR-Faktorisierung Folgerung: Ax = b ⇒ Rx = z mit R := A(n) = Ln−1 · · · L1A,

z := b(n) = Ln−1 · · · L1b (***)

Lk ist stets regul¨ ar, die Inverse ist   1   ...     1   −1 Lk =     lk+1,k 1   . . .  .  . ln,k 1 Grundlagen der Numerik

86

LR-Faktorisierung Aus (***) folgt 1 A = L1−1L2−1 · · · L− n−1R = LR

wobei

1 L = L1−1L2−1 · · · L− n−1

Grundlagen der Numerik





1 l  1  21    =  l31 l32 1   .  ...  .  ln1 ln2 . . . ln,n−1 1

87

LR-Faktorisierung DEF.: Die Darstellung A = LR der Matrix A als Produkt einer unipotenten unteren Dreiecksmatrix und einer oberen Dreiecksmatrix heißt LR-Zerlegung (LR-Faktorisierung) oder Gaußsche Dreieckszerlegung von A. Algorithmus: Gauß–Elimination 1. A = LR Dreieckszerlegung R obere, L untere Dreiecksmatrix ⇒ 2. Lz = b

Vorw¨ artssubstitution

3. Rx = z

Ru artssubstitution ¨ckw¨

Grundlagen der Numerik

LRx = b

88

LR-Faktorisierung Aufwand: n3 3

+

n2 2



5n 6

(M, A) ,

n2 2

+

n 2

(D)

Mit 1 opms := 1 (A,M) ist Aufwand Gauss-Algorithmus ungef¨ ahr n3/3 opms. Beachte: Die LR-Zerlegung braucht fu ¨r verschiedene rechte Seiten b nur einmal durchgefu ¨hrt werden!

Grundlagen der Numerik

89

Spaltenpivotisierung Beobachtung: In der bisher beschriebenen Form ist der Gaußsche Algorithmus zur Lo arer linearen Glei¨sung beliebiger regul¨ chungssysteme nicht geeignet. Probleme: 1. Sei



 0 1 A= , det A = −1 1 0 ⇒ A regul¨ ar, aber a11 = 0 ⇒ Dreieckszerlegung versagt. 2. Sei  −16  a21 10 1 (2) A= a12 = 1 − 1016 , a22 = a22 − 1 1 a11 ⇒ computerabh¨ angige Ausl¨ oschung ⇒ falsches Ergebnis Grundlagen der Numerik

90

Spaltenpivotisierung Ausweg: Vertauschen von Zeilen Spaltenpivotisierung: (column pivoting) Bei jedem Eliminationsschritt w¨ ahlt man diejenige Zeile als Pivotzeile, die das betragsm¨ aßig gr¨ oßte Element in der Pivotspalte besitzt. Das garantiert 1. |lij | ≤ 1 2. Pivotelement 6= 0, falls A regul¨ ar Fu ¨hrt auf Gauß-Elimination mit Spaltenpivotisierung Grundlagen der Numerik

91

a) W¨ ahle im k-ten Eliminationsschritt ein p ∈ {k, ..., n}, so daß (k ) |apk |



(k ) |ajk |

fu ¨r j = k, ..., n,

d.h. die p-te Zeile wird Pivotzeile.  (1) (1) (1) a1,k−1 a1k a11 · · ·  .. .. ...   (k−1) (k−1)  a a k−1,k−1 k−1,k   (k )  a kk A (k ) =  ..   (k )  a  pk  ..  (k ) ank Grundlagen der Numerik

···

(1) a 1n

..

(k−1)

· · · ak−1,n ··· ··· ···

(k )

akn .. k) a(pn .. k) a(nn

               92

b) Vertausche die Zeilen p und k

(k ) ˜(k) mit a ˜ij A (k ) → A

 (k )  a   kj , k) = a(pj ,    a (k ) , ij

Dann gilt |˜ lik| =

(k ) |˜ aik | (k ) |˜ akk |

=

(k ) |˜ aik | (k ) |apk |

falls i = p falls i = k sonst

≤1

˜(k) c) Fu achsten Eliminationsschritt angewandt auf A ¨hre den n¨ aus: ˜(k) → A(k+1) A

Grundlagen der Numerik

93

Cholesky-Verfahren Spezialfall: symmetrische, positiv definite Matrizen DEF.: Eine symmetrische Matrix A = AT ∈ Rn,n heißt positiv definit, wenn hx, Axi = xT Ax > 0 fu ¨r alle x ∈ Rn mit x 6= 0 Diese Matrizen werden abku ¨rzend als spd-Matrizen bezeichnet. Bemerkung: Eine spd-Matrix ist durch die n(n2+1) Elemente im unteren Dreieck i ≥ j gegenu ¨ber n2 im allg. Fall festgelegt. Grundlagen der Numerik

94

Cholesky-Verfahren Frage: Wie kann man feststellen, ob A ∈ Rn,n eine spd-Matrix ist? Antwort: Eine symmetrische Matrix A ist genau dann positiv definit, wenn alle fu ¨hrenden Hauptminoren positiv sind, d.h. es gilt





a11 · · · a1i  ..  det  .. ¨r i = 1, ..., n.  > 0 fu ai1 · · · aii Grundlagen der Numerik

95

Cholesky-Verfahren SATZ: Fu ¨r jede spd-Matrix A existiert eine Zerlegung der Form A = LLT ,

(klassische Cholesky-Zerlegung)

wobei L eine untere Dreiecksmatrix ist. Die Matrix L = (lij ) kann aus der folgenden Darstellung berechnet werden:       l11 · · · ln1 a11 · · · an1 l11      .  . . . . . . . . . · = . . . .       lnn ln1 · · · lnn an1 · · · ann Grundlagen der Numerik

96

Cholesky-Verfahren Man erh¨ alt (betrachten nur unteres Dreieck) i=k:

2 2 + l akk = lk2 1 + · · · + lk,k− 1 kk

i>k:

aik = li1lk1 + · · · + li,k−1lk,k−1 + liklkk

Die Berechnung der Elemente von L erfolgt dann spaltenweise. Durch Aufl¨ osung der beiden Gleichung nach lkk bzw. lik ergibt sich der folgende Algorithmus:

Grundlagen der Numerik

97

Algorithmus: Klassisches Cholesky-Verfahren 1. vollsymmetrische Dreieckszerlegung for k := 1 to n q Pk−1 2 lkk := akk − j =1 lkj for i := k + 1 to n do lik := (aik − ⇒ A = LLT ⇒ LLT x = b 2. Lz = b 3. LT x = z Grundlagen der Numerik

⇒ ⇒

Pk−1 j =1

lij lkj )/lkk

z x 98

Cholesky-Verfahren Rechenaufwand: ∼ 16 n3 opms + n Quadratwurzeln Vergleich: Gauß-Verfahren fu ¨r allgemeine Matrizen: ∼ opms, d.h. Aufwand reduziert sich auf die H¨ alfte.

Grundlagen der Numerik

1 3 n 3

99

Iterationsverfahren

Ax = b,

A ∈ Rn,n,

b ∈ Rn ,

A regul¨ ar

Bisher: Direkte Verfahren Gauß-Verfahren = LR-Zerlegung Cholesky-Verfahren fu ¨r spd-Matrizen = LLT -Zerlegung L¨ osung in endlich vielen Schritten, die L¨ osung ist in exakter Arithmetik exakt Aufwand ist O(n3) Grundlagen der Numerik

100

Iterationsverfahren Beobachtung: Praktische Probleme h¨ aufig sehr groß (speziell Diskretisierung von Randwertproblemen partieller Differentialgleichungen) und schwach besetzt. Zur effektiven L¨ osung derartiger Probleme muß die Struktur ausgenutzt werden. Es gibt zwei M¨ oglichkeiten: 1. Anwendung von sparse-Matrix-Techniken in direkten Verfahren. Basieren im wesentlichen auf Gauß-Algorithmus. osung großer, 2. Iterative Verfahren zur Approximation der L¨ strukturierter Systeme.

Grundlagen der Numerik

101

Theoretische Grundlagen u ¨ber Eigenwerte 1. Sei A ∈ Rn,n. λ ∈ C ist Eigenwert von A, wenn Ax = λx

fu ¨r

x 6= 0.

x ist der zugeh¨ orige Eigenvektor. Aus der Definition folgt (A − λI)x = 0. Wegen x 6= 0 ist das genau dann m¨ oglich, wenn det(A − λI) = 0 (= charakteristisches Polynom). Charakteristisches Polynom ist vom Grad n, d.h., zu jeder Matrix A ∈ Rn,n gibt es genau n Eigenwerte, die aber mehrfach und auch komplex sein k¨ onnen. 2. Der Spektralradius ρ der Matrix A ist das Maximum der Betr¨ age der Eigenwerte von A: ρ(A) = max |λi|. Grundlagen der Numerik

102

Fixpunktverfahren Jetzt: Betrachten Iterationsvorschrift xk+1 = ϕ(xk)

k = 0, 1, . . .

zur L¨ osung von Ax = b,

A ∈ Rn,n,

b ∈ Rn ,

A nichtsingul¨ ar

Ziel: Iterationsfunktion ϕ so konstruieren, daß sie genau einen Fixpunkt x∗ besitzt, d.h. x∗ = ϕ(x∗) und dieser gerade die exakte L¨ osung x = x∗ von Ax = b ist. Grundlagen der Numerik

103

Iterationsverfahren Konstruktionsidee: Zerlegung von A in A = B + (A − B),

ar B ∈ Rn,n nichtsingul¨

Damit gilt Bx + (A − B)x = b ⇒

x = B −1b − B −1(A − B)x = (I − B −1A)x + B −1b

D.h., das LGS Ax = b ist ¨ aquivalent zur Fixpunktaufgabe x = (I − B −1A)x + B −1b =: ϕ(x) Grundlagen der Numerik

104

Iterationsverfahren Iterationsverfahren: x0 ∈ Rn,n vorgegebener Startvektor xk+1 = (I − B −1A)xk + B −1b ,

k = 0, 1, . . .

Zugeh¨ orige Iterationsmatrix: I − B −1A Damit gilt es folgende Folge von LGS zu l¨ osen: Bxk+1 = (B − A)xk + b ,

Grundlagen der Numerik

k = 0, 1, . . .

105

Iterationsverfahren Bemerkungen: 1. Iterationsverfahren der Form xk+1 = M xk + v,

k = 0, 1, ...

angt linear von xk ab), station¨ ar (M und v sind linear (xk+1 h¨ sind unabh¨ angig von der Schrittnummer der Iteration) und einstufig (nur der letzte und nicht noch weitere N¨ aherungsvektoren werden verwendet). alt man durch Lo 2. xk+1 erh¨ ¨sen eines linearen GS mit der Koeffizientenmatrix B. Das ergibt natu ¨rlich nur dann einen Vorteil gegenu ¨ber der urspru ¨nglichen Aufgabe, wenn das neue System einfacher zu l¨ osen ist ⇒ B entsprechend w¨ ahlen. Grundlagen der Numerik

106

Iterationsverfahren Ziel: Sei Ax∗ = b. Dann lim xk = x∗, d.h. ||xk − x∗|| → 0 fu ¨r k → ∞

k→∞

SATZ: Das Fixpunktverfahren Bxk+1 = (B − A)xk + b,

B ∈ Rn,n nichtsingul¨ ar

(*)

konvergiert genau dann fu ¨r jeden Startvektor x0 ∈ Rn gegen die exakte L¨ osung x∗, wenn fu ¨r den Spektralradius der Iterationsmatrix gilt ρ(I − B −1A) = max |λi(I − B −1A)| < 1 i

Grundlagen der Numerik

107

Iterationsverfahren Bemerkungen: 1. Konvergenzbedingung ρ(I − B −1A) < 1 ist sicher erfu ¨llt, wenn in einer zugeordneten Matrixnorm gilt ||I − B −1A|| < 1 da fu ¨r alle zugeordneten Matrixnormen ρ(M ) ≤ ||M || ist. ⇒ hinreichendes Konvergenzkriterium, aber nicht notwendig oglichst klein sein, da dadurch die 2. ρ(I − B −1A) sollte m¨ Konvergenzgeschwindigkeit bestimmt wird.

Grundlagen der Numerik

108

Iterationsverfahren: Richardson-Verfahren Ein erstes Verfahren: Richardson-Verfahren Setze B = I. Dann xk+1 = xk − Axk + b Eigenschaften: 1. Neue N¨ aherung xk+1 ist leicht berechenbar. 2. Notwendiges und hinreichendes Konvergenzkriterium: ρ(B − A) = ρ(I − A) < 1 starke Einschr¨ ankung: Selbst wenn die Matrix A nur relle Eigenwerte besitzt, erfordert es 0 < λi < 2 Grundlagen der Numerik

fu ¨r alle Eigenwerte λi von A. 109

Spezielle Iterationsverfahren Ziel: Angabe konkreter Zerlegungen einer nichtsingul¨ aren Matrix A ∈ Rn,n und Untersuchung der hieraus resultierenden wichtigsten Iterationsverfahren. Es sei AD = diag(a11, a22, ..., ann), sowie 

0 a  21 AL =  ..  . an 1

0 0

··· ··· ... ···

0 0

an,n−1





0 0  ...  ,  0

AR

0 0   =  ...  0 0

a12 0

a13 a23

0 0

0 0

··· ··· ... ··· ···

a1n a2n ...



     an−1,n 0

Dann ist A = AL + AD + AR . Grundlagen der Numerik

110

Jacobi- oder Gesamtschrittverfahren (GSV) Setze: B = AD Das ergibt die Iterationsmatrix 1 I − B −1 A = I − A − D (AD + AL + AR) 1 = −A− D (AL + AR) =: MGSV

Das zugeh¨ orige Iterationsverfahren lautet 1 −1 (A + A )x + A xk+1 = −A− L R k D D b

Grundlagen der Numerik

111

Jacobi- oder Gesamtschrittverfahren (GSV) Aus [AD xk+1]i = −[(AL + AR)xk]i + bi

folgt die komponentenweise Iterationsvorschrift

xk+1,i





n X  1  b i − , = a x ij k,j  a  ii

i = 1, ..., n

j =1 j6=i

D.h.: Zur Berechnung der Iterierten xk+1,i einer Komponente des Vektors xk+1 werden alle Komponenten des vorangehenden otigt. Das erkl¨ art auch den Namen iterierten Vektors xk ben¨ Gesamtschrittverfahren. Grundlagen der Numerik

112

Jacobi- oder Gesamtschrittverfahren (GSV) SATZ: Das GSV konvergiert fu ¨r jeden Startvektor x0 ∈ Rn, wenn A zeilendiagonal-dominant, d.h. n X j =1 j6=i

|aij | < |aii|,

i = 1, ..., n,

(*)

oder spaltendiagonal-dominant, d.h. n X i=1 i6=j

|aij | < |ajj |,

j = 1, ..., n,

(**)

ist. Grundlagen der Numerik

113

Jacobi- oder Gesamtschrittverfahren (GSV) Bemerkungen: 1. Hinreichend fu ¨r die Konvergenz des GSV ist auch das starke Quadratsummenkriterium 2 n X n  X aij i=1 j =1 j6=i

aii

< 1.

2. Die obigen Konvergenzkriterien sind nur hinreichend, d.h. Bedingung erfu ¨llt ⇒

Bedingung nicht erfu ¨llt ⇒

Grundlagen der Numerik

Konvergenz ?

114

Gauß-Seidel-Verfahren oder Einzelschrittverfahren (ESV) Setze: B = AD + AL Das ergibt die Iterationsmatrix I − B −1A = I − (AD + AL)−1(AD + AL + AR) = −(AD + AL)−1AR =: MESV Die Iterationsvorschrift lautet xk+1 = −(AD + AL)−1ARxk + (AD + AL)−1b

Grundlagen der Numerik

115

Gauß-Seidel-Verfahren oder Einzelschrittverfahren (ESV) Aus [(AD + AL)xk+1]i = −[ARxk]i + bi

erh¨ alt man komponentenweise die Iterationsvorschrift   i−1 n X X 1 bi − xk+1,i = aij xk+1,j − aij xk,j  , i = 1(1)n aii j =1 j =i+1 Bemerkung: Im Gegensatz zum GSV werden beim ESV die schon erhaltenen Werte xk+1,1, ..., xk+1,i−1 sofort in die Iterationsvorschrift eingesetzt. I.allg. sind diese neuen Werte genauer als die der vorhergehenden Iterierten. Man erhofft dadurch eine schnellere Konvergenz. Grundlagen der Numerik

116

Konvergenzverhalten von ESV und GSV Frage: Wann konvergiert das ESV? Vergleich der Konvergenzgeschwindigkeit von ESV und GSV? SATZ: Das ESV ist konvergent, wenn A zeilendiagonal- oder spaltendiagonal-dominant ist. Die Konvergenz ist dann asymptotisch mindestens so schnell wie beim GSV. SATZ: Das ESV konvergiert fu ¨r jede spd-Matrix A. Bemerkung: Es gibt F¨ alle, in denen das GSV konvergiert und das ESV nicht, und umgekehrt.

Grundlagen der Numerik

117

Beispiel: Sei



1 −2 2   A = −1 1 −1 −2 −2 1

Dann gilt

MGSV

Man erh¨ alt











0 2 −2 0 2 −2     = 1 0 1  und MESV = 0 2 −1 2 2 0 0 8 −6

ρ(MGSV ) = 0 und ρ(MESV ) = 2(1 +



2),

d.h., das GSV ist konvergent, aber das ESV ist divergent. Grundlagen der Numerik

118