Mathematische Methoden der Physik. Prof. Dr. Ludger Santen

Mathematische Methoden der Physik Prof. Dr. Ludger Santen Kontakt: Ludger Santen, Universität des Saarlandes, Geb. E2 6, Zi. 4.15 [email protected]...
Author: Monika Scholz
0 downloads 4 Views 1MB Size
Mathematische Methoden der Physik

Prof. Dr. Ludger Santen

Kontakt: Ludger Santen, Universität des Saarlandes, Geb. E2 6, Zi. 4.15 [email protected]

http://www.uni-saarland.de/campus/fakultaeten/professuren/ naturwissenschaftlich-technische-fakultaet-ii/theoretische-physik/ professuren-theoretische-physik-fr-71/prof-dr-ludger-santen.html

letzte Aktualisierung: 13. Januar 2011

1

Inhaltsverzeichnis 1 Komplexe Zahlen 1.1 Komplexe Zahlen und die komplexe Ebene . . . . . 1.2 Die vier Grundrechenarten mit komplexen Zahlen . . 1.2.1 Addition und Subtraktion . . . . . . . . . . . 1.2.2 Multiplikation . . . . . . . . . . . . . . . . . 1.2.3 Division . . . . . . . . . . . . . . . . . . . . 1.3 Eigenschaften komplexer Zahlen . . . . . . . . . . . 1.3.1 Die komplex konjugierte Zahl . . . . . . . . 1.3.2 Betrag und Argument komplexer Zahlen . . . 1.4 Komplexe Zahlen und die Exponentialfunktion . . . 1.4.1 Die Polardarstellung komplexer Zahlen . . . 1.4.2 Multiplikation und Division in Polarform . . 1.4.3 de Moivres Theorem . . . . . . . . . . . . . 1.5 Trigonometrische Funktionen . . . . . . . . . . . . . 1.5.1 Additionstheoreme . . . . . . . . . . . . . . 1.6 Die n-te Wurzel von 1 . . . . . . . . . . . . . . . . . 1.7 Der komplexe Logarithmus . . . . . . . . . . . . . . 1.8 Hyperbolische Funktionen . . . . . . . . . . . . . . 1.9 Hyperbolische Umkehrfunktionen – Areafunktionen

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

2 Elemente der linearen Algebra 2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Lineare Gleichungen . . . . . . . . . . . . . . . . . . 2.1.2 Vektorräume: Definition und Beispiele . . . . . . . . . 2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme . 2.3 Lineare (Un-) Abhängigkeit . . . . . . . . . . . . . . . . . . . 2.4 Vektorräume und Basis . . . . . . . . . . . . . . . . . . . . . 2.5 Lösen linearer Gleichungssysteme . . . . . . . . . . . . . . . 2.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Rechenoperationen mit Matrizen . . . . . . . . . . . . 2.6.2 Determinanten . . . . . . . . . . . . . . . . . . . . . 2.6.3 Matrixinversion . . . . . . . . . . . . . . . . . . . . . 2.6.4 Matrizen: Definitionen und Eigenschaften . . . . . . . 2.6.5 Das Eigenwertproblem . . . . . . . . . . . . . . . . . 2.6.6 Entartete Eigenwerte . . . . . . . . . . . . . . . . . . 2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix 2.6.8 Basiswechsel und Ähnlichkeitstransformationen . . . 2.6.9 Diagonalisierung von Matrizen . . . . . . . . . . . . . 3 Differentialrechnung im Rn 3.1 Funktionen mehrerer Variablen . . . . . . . . . . . . . . . 3.2 Das totale Differential und die totale Ableitung . . . . . . 3.3 Exakte und inexakte Differentiale . . . . . . . . . . . . . 3.4 Rechenregeln für partielle Ableitungen . . . . . . . . . . . 3.5 Variablentransformation . . . . . . . . . . . . . . . . . . . 3.6 Taylor-Entwicklung . . . . . . . . . . . . . . . . . . . . . 3.7 Stationäre Punkte von Funktionen mit mehreren Variablen 3.8 Extrema mit Nebenbedingungen . . . . . . . . . . . . . .

2

. . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . . . .

5 5 6 6 6 6 7 7 7 8 8 9 10 10 12 13 13 14 15

. . . . . . . . . . . . . . . . .

16 16 16 17 18 18 19 20 23 23 24 25 26 28 29 30 31 32

. . . . . . . .

35 35 36 37 37 38 39 40 41

4 Integralrechnung im Rn 4.1 Zweidimensionale Integrale . . . . . . . . . . . . . . 4.2 Dreifachintegrale . . . . . . . . . . . . . . . . . . . 4.3 Variablentransformation . . . . . . . . . . . . . . . . 4.3.1 Transformationen im R2 . . . . . . . . . . . 4.3.2 Variablentransformation in Dreifachintegralen 5 Vektoranalysis 5.1 Der Gradient . . . . . . . . . . . . . . . . 5.2 Raumkurven und Kurvenintegrale . . . . . 5.3 Länge und Bogenlänge . . . . . . . . . . . 5.4 Skalare Kurvenintegrale . . . . . . . . . . . 5.5 Vektorielle Kurvenintegrale . . . . . . . . . 5.5.1 Verhalten bei Umparametrisierung: 5.6 Konservative Vektorfelder und Potential . . 5.7 Weitere Vektoroperatoren . . . . . . . . . . 5.8 Oberflächenintegrale . . . . . . . . . . . . 5.9 Das vektorielle Oberflächenintegral . . . . 5.10 Der Integralsatz von Gauß . . . . . . . . . 5.11 Der Integralsatz von Stokes . . . . . . . . .

3

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

43 43 44 45 45 47

. . . . . . . . . . . .

49 49 49 50 51 51 52 52 53 54 57 59 60

Vorbemerkungen Die Vorlesung Mathematische Methoden der Physik ist weder eine Mathematik- noch eine Physikvorlesung. Sie stellt vielmehr eine Vielzahl von Rechenmethoden für die Vorlesungen der theoretischen und experimentellen Physik zur Verfügung. Dieses Konzept hat einige praktische Konsequenzen: Training: Sie lernen nicht zu schwimmen, wenn Sie regelmäsig Wettkämpfe im Fernsehen schauen. Sie lernen es auch nicht, wenn Sie Freunden beim Schwimmen zusehen. Sie müssen selber schwimmen und das ist am Anfang schwer! Leichter wird es, wenn Ihnen ein Trainer Tipps gibt. Gleiches gilt für die mathematischen Methoden. Sie müssen selber rechnen, rechnen, rechnen! Lassen Sie sich aber bei Problemen von Ihren Trainern (Übungsgruppenleiter, Tutor, Kommilitonen) helfen. Tutorien: Die Vorlesung mathematische Methoden der Physik baut auf das Abiturwissen aus dem Mathematik-Grundkurs auf, also auf die Rechenmethoden, die wir im Vorkurs noch einmal wiederholt haben. Sollten Sie damit noch Probleme haben, sollten Sie sich bemühen, die Probleme schnell zu beseitigen, eventuell mit Hilfe des Tutoriums. Ausrichtung: Physik wird in dieser Vorlesung nur eine untergeordnete Rolle spielen, insbesondere werden Sie keine physikalischen Übungsaufgaben lösen. Dies hat den Grund, dass die Übertragung des physikalischen in ein geeignetes mathematisches Problem häufig den Schwierigkeitsgrad der Aufgabe erhöht und eigens eingeübt werden muss. Der geeignete Ort, um diese Fähigkeit zu üben, sind die Module der theoretischen und experimentellen Physik. Zur Vorlesung wird ein Skript veröffentlicht, das Sie für die Lösung der Übungen nutzen können. Sollten Sie zusätzlich Bedarf an einem Lehrbuch haben, gibt es eine reiche Auswahl an geeigneten Lehrbüchern. Eine unvollständige Auswahl finden Sie in folgender Liste: 1. Rainer Wüst, Höhere Mathematik für Mathematiker und Physiker, Bde 1& 2, Wiley VCH, 2003 2. Christian B. Lang, Norbert Puckler, Mathematische Methoden in der Physik, Spektrum Akademischer Verlag, 2005. 3. Helmut Fischer, Helmut Kaul, Mathematik für Physiker 1-3, Teubner, 2005

4

1 Komplexe Zahlen Durch die Einführung komplexer Variablen ist es für beliebige algebraische Gleichungen möglich, die Wurzeln der Gleichung anzugeben. Damit entfällt eine Einschränkung die im Körper der reellen Zahlen besteht. Die Einführung der komplexen Zahlen hat aber nicht nur den Lösungsraum algebraischer Gleichungen erweitert, sondern auch viele analytische Rechnungen stark vereinfacht, wie wir in einem späteren Abschnitt dieser Vorlesung sehen werden.

1.1 Komplexe Zahlen und die komplexe Ebene Obwohl komplexe Zahlen in sehr vielen Bereichen auftreten, begegnen sie uns am natürlichsten als Wurzeln von Polynomen. Dies wollen wir am Beispiel der quadratischen Gleichung z2 − b z + c = 0

.

(1)

diskutieren. Die Gleichung (1) hat die beiden Lösungen1 z1/2 =

i p 1h b ± b2 − 4c . 2

(2)

Wenn der Ausdruck unter der Wurzel (die Diskriminante) positiv ist, also b2 − 4c > 0 gilt, sind die beiden Lösungen reelle Zahlen. Für b2 − 4c < 0 steht man allerdings vor dem Problem, dass es im Körper der reellen Zahlen keine Lösung der obigen Gleichung gibt. Um nun trotzdem eine Lösung der Gleichung angeben zu können, muss man also den Zahlenraum erweitern. Dazu führt man eine neue Art von Zahl ein, die sog. imaginäre Einheit

i mit der Definition

i2 = −1 .

(3)

Mit dieser Vereinbarung lässt sich nun auch für b2 − 4c < 0 eine Lösung angeben z1/2 =

i p 1h b ± i 4c − b2 . 2

(4)

Ganz allgemein schreiben wir komplexe Zahlen in der Form z = x + iy ,

(5)

wobei x und y reelle Zahlen sind. Man nennt√x den Realteil und y den Imaginärteil von z. In dem vorigen Beispiel ist x = b/2 und y = ± 4c − b2 /2. Man schreibt für den Real- und den Imaginärteil auch x = Re(z)

y = Im(z).

und

(6)

Der Fundamentalsatz der Algebra sagt uns auch, daß ein Polynom wie in Gl. (1) immer eine Lösung hat, nur ist diese manchmal komplex. Ist das Polynom von Grade 3 und höher, also vom Grade n, so sagt uns der Fundamentalsatz, daß es n-Lösungen gibt, die aber nicht alle ver2 schieden seinen √ müssen. Im speziellen Beispiel hat das Polynom z − 4z + 5 = 0 die Lösungen z1/2 = 2 ± 16 − 20/2 = 2 ± i.

1 Zur Erinnerung: Gleichung (1) kann umgeschrieben werden in (z − b/2)2 + c − b4 /4 = 0 bzw. (z − b/2)2

p p c. Zieht man daraus die Wurzel, so folgt z − b/2 = ± b2 /4 − c bzw. z = b/2 ± b2 /4 − c .

5

= b2 /4 −

1.2 Die vier Grundrechenarten mit komplexen Zahlen 1.2.1 Addition und Subtraktion Die Addition zweier komplexer Zahlen z1 und z2 ergibt im allgemeinen wieder eine komplexe Zahl. Dabei werden die Realteile xi und die Imaginärteile yi separat addiert. z1 + z2 = (x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i(y1 + y2 ) .

(7)

Dies hat eine gewisse ähnlichkeit zu Vektoren, wo die Addition komponentenweise ausgeführt wird. Man kann sich auch sofort davon überzeugen, daß aus der Gültigkeit des Assoziativ- und Kommutativgesetzes für die Addition reeller Zahlen, diese Gesetze ebenso für komplexe Zahlen folgen. z1 + z2 = z2 + z1

(Kommutativgesetz)

z1 + (z2 + z3 ) = (z1 + z2 ) + z3

(Assoziativgesetz)

(8) (9)

1.2.2 Multiplikation Die Multiplikation zweier komplexer Zahlen ergibt gewöhnlich auch wieder eine komplexe Zahl. Das Produkt erhält man, indem man alles ausmultipliziert und sich daran erinnert, daß i2 = −1 gilt. z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 + ix1 y2 + iy1 x2 + i2 y1 y2 = (x1 x2 − y1 y2 ) + i(x1 y2 + x2 y1 ).

(10)

Das Produkt der beiden Zahlen z1 = 3 + 2i und z2 = −1 − 4i ist demnach z1 z2 = (3 + 2i)(−1 − 4i) = −3 − 2i − 12i − 8i2 = 5 − 14i Wie für reelle Zahlen, so gelten auch für die Multiplikation komplexer Zahlen das Kommutativund das Assoziativgesetz z1 z2 = z2 z1 (z1 z2 )z3 = z1 (z2 z3 ) .

(11)

1.2.3 Division Der Quotient zweier komplexer Zahlen ist z3 =

z1 x1 + iy1 = z2 x2 + iy2

.

Dies möchte man natürlich wieder in der Form z3 = x3 + iy3 mit x3 , y3 ε R darstellen und erweitert hierfür einfach den Quotienten mit (x2 − iy2 ). z1 z2

= =

(x1 + iy1 )(x2 − iy2 ) (x1 x2 + y1 y2 ) + i(x2 y1 − x1 y2 ) = (x2 + iy2 )(x2 − iy2 ) x22 + y22 x1 x2 + y1 y2 x2 y1 − x1 y2 +i 2 x22 + y22 x2 + y22

6

(12)

1.3 Eigenschaften komplexer Zahlen 1.3.1 Die komplex konjugierte Zahl Zu einer komplexen Zahl z = x + iy wird noch die komplex konjugierte Zahl z∗ = x − iy niert. Es gelten einige nützliche Rechenregeln. Für z = x + iy gilt

defi-

(z∗ )∗ = z z + z∗ = 2x z − z∗ = 2iy

(13)

1.3.2 Betrag und Argument komplexer Zahlen Da jede komplexe Zahl z = x + iy als geordnetes Paar reeller Zahlen betrachtet werden kann, lassen sich solche Zahlen durch Punkte in der xy-Ebene, der sogenannten komplexen Ebene (Argand Diagramm) darstellen. Eine komplexe Zahl die z.B. durch den Punkt P = (3, 4) in der xy-Ebene repräsentiert wird, kann daher als (3, 4) oder 3 + 4i gelesen werden. Für jede komplexe Zahl gibt es genau einen Punkt in der Ebene. Umgekehrt entspricht jedem Punkt der Ebene eine komplexe Zahl. Manchmal bezeichnet man die x und y-Achse als relle bzw. imaginäre Achse und die komplexe Ebene als z-Ebene.

Abbildung 1: Punkt in der komplexen Ebene.

Der Abstand des Punktes (x, y) vom Ursprung (0, 0) entspricht der Länge des Vektors~r = (x, y), was wir als den Betrag der komplexen Zahl interpretieren. Der Betrag einer komplexen Zahl wird also definiert durch: p | z |= x2 + y2 . (14) Wenn man die komplex konjugierte Zahl benutzt, kann man den Betrag auch in der Form p √ | z |= z · z∗ = (x + iy)(x − iy) (15) angeben. Mit dem Argument einer komplexen Zahl arg(z) wird der Winkel φ = arg z in Abb. 1 bezeichnet y arg(z) = arctan( ) . (16) x Durch Konvention wird dieser Winkel entgegen des Uhrzeigersinnes positiv gewählt. Zur Illustration betrachten wir das konkrete Beispiel z = 2 − 3i. Der Betrag dieser komplexen Zahl ist q √ | z |= 22 + (−3)2 = 13

7

und ihr Argument 3 arg(z) = arctan(− ) ∼ −56, 3◦ = −0.98279 2

1.4 Komplexe Zahlen und die Exponentialfunktion Nachdem wir die einfachen Rechenregeln für komplexe Zahlen diskutiert haben, müssen wir uns mit elementaren Funktionen komplexer Variablen beschäftigen. Dies ist eigentlich die Aufgabe der Funktionentheorie, die wir in einem späteren Abschnitt ausführlicher diskutieren werden. Eine wichtige Voraussetzung für eine sinnvolle Definition komplexer Zahlen ist, dass sie für verschwindenden Imaginärteil wieder in die entsprechende reelle Funktion übergehen. Eine komplexe Funktion von besonderer Bedeutung ist die Exponentialfunktion. Die komplexe Exponentialfunktion ist eng mit den trigonometrischen Funktionen verknüpft, woraus sich einige wichtige Rechenregeln ergeben. Die Reihendarstellung der komplexen Exponentialfunktion gilt auch für komplexe Zahlen: ∞

ez =

∑ k=0

zk . k!

(17)

Aus dieser Tatsache, die im Rahmen der Funktionentheorie ausführlicher diskutiert wird, lassen sich einige nützliche Zusammenhänge herleiten. 1.4.1 Die Polardarstellung komplexer Zahlen Im folgenden wählen wir ω = iφ mit reeller Variable φ . In diesen Fall ist dann ω rein imaginär und exp(ω) = exp(iφ ). Wir nutzen nun die Reihendarstellung (17) der Exponentialfunktion aus und schreiben davon die ersten Summanden hin i i2 i3 φ + φ2 + φ3 +... 1! 2! 3! i i2 2 i3 3 exp (−iφ ) = 1 − φ + φ − φ + . . . 1! 2! 3! exp (iφ ) = 1 +

, .

(18)

Nutzen wir noch die Regel i2 = −1, so bekommen wir mit i2 2 i4 4 φ + φ + . . .) 2! 4! φ2 φ4 = 2(1 − + − . . .) 2! 4!

exp (iφ ) + exp (−iφ ) = 2(1 +

(19)

wieder eine reelle Zahl! Offensichtlich sind für reelles φ die komplexen Zahlen z = eiφ und z = e−iφ konjugiert komplex zueinander, also z∗ = (eiφ )∗ = e−iφ . Demzufolge gilt z + z∗ = eiφ + e−iφ = 2 Re{eiφ } z − z∗ = eiφ − e−iφ = 2i Im{eiφ }

.

Für den Betrag von eiφ folgt mit der Regel (14) |z|2 = |eiφ |2 = zz∗ = eiφ e−iφ = eiφ −iφ = e0 = 1 Offensichtlich beschreibt eiφ einen Kreis mit Radius 1 in der komplexen Ebene.

8

(20)

Abbildung 2: graphische Darstellung der Eulerformel

Mit z = x +iy = eiφ sieht man aus Abb. 1 daß x = cos φ und y = sin φ . Daraus folgt die Eulersche Formel cos φ + i sin φ = eiφ .

(21)

Hier sieht man nun auch, daß es sich z.B. für z = iφ = iωt bei eiωt um eine Schwingung handelt. Die Exponentialfunktion in dieser Schreibweise ist daher bei der Untersuchung von Schwingungen unentbehrlich. Insbesondere folgt sofort eiπ = −1,

eiπ/2 = i

und

ei0 = ei2π = 1.

Mit der Darstellung (21) kann man auch leicht eine altbekannte Formel neu ableiten 1 = |z|2 = (cos φ + i sin φ )(cos φ − i sin φ ) = cos2 φ + sin2 φ = 1

.

Darüberhinaus läßt sich jede komplexe Zahl in dieser sogenannten Polardarstellung z = reiφ schreiben, wobei r und φ reell sind. Das Argument arg(z) = φ ist in dieser Darstellung trivial abzulesen. 1.4.2 Multiplikation und Division in Polarform Die Multiplikation und Division komplexer Zahlen wird in Polardarstellung ausgesprochen einfach. Das Produkt der komplexen Zahlen z1 = r1 eiφ1 und z2 = r2 eiφ2 ist mit den Regeln für die Exponentialfunktion durch z1 z2 = r1 eiφ1 r2 eiφ2 = r1 r2 ei(φ1 +φ2 )

(22)

gegeben. Daraus folgen auch unmittelbar |z1 z2 | = |z1 | · |z2 | und arg(z1 z2 ) = arg(z1 ) + arg(z2 ). Insbesondere ist auch die Division komplexer Zahlen in Polardarstellung sehr einfach z1 r1 eiφ1 r1 r1 = = eiφ1 e−iφ2 = ei(φ1 −φ2 ) iφ 2 z2 r2 e r2 r2

.

Die Beziehungen |z1 /z2 | = |z1 |/|z2 | und arg(z1 /z2 ) = arg z1 − arg z2 folgen.

9

(23)

1.4.3 de Moivres Theorem Ein recht wichtiges Theorem für sin und cos folgt aus der einfachen Identität (eiφ )n = einφ . Schreibt man dies in der sin- und cos-Darstellung, so ist dies äquivalent mit n (cos φ + i sin φ )n = eiφ = einφ = cos(nφ ) + i sin(nφ ) . (24)

1.5 Trigonometrische Funktionen De Moivres Theorem zeigt deutlich den Zusammenhang zwischen (komplexer) Exponentialfunktion und den trigonometrischen Funktionen. Diesen Zusammenhang werden Sie beispielsweise bei der Lösung von Schwingungsgleichungen oder der Herleitung von Additionstheoremen nutzen können. Wir betrachten nun mit die komplexen Darstellungen von sin und cos: cos φ

=

sin φ

=

1 iφ (e + e−iφ ) 2 1 iφ (e − e−iφ ) , 2i

(25)

welche unmittelbar aus (21) und (20) folgen. Mit Gl. (18) erhält man auch Reihendarstellungen für cos und sin cos φ

=

(−1)k 2k φ k=0 (2k)!

sin φ

=

∑ (2k + 1)! φ 2k+1



(26)

∑ ∞

(−1)k

.

(27)

k=0

Entsprechend folgt auch für tan und cot eine Exponentialdarstellung. tan φ

=

cot φ

=

sin φ 1 eiφ − e−iφ , = cos φ i eiφ + e−iφ cos φ eiφ + e−iφ = i iφ . sin φ e − e−iφ

(28)

Ersetzt man nun φ = nΘ, so folgt auch für den n-fachen Winkel Θ zusammen mit z = eiΘ    1 n 1 1 inΘ cos(nΘ) = e + e−inΘ = z + n 2 2 z    1 n 1 1 inΘ −inΘ (29) z − n sin(nΘ) = = e −e 2i 2i z

Anwendungsbeispiele 1) überlagerung zweier Schwingungen gleicher Frequenz ω, welche gegeneinander Phasenverschoben sind. Die Gesamtschwingung ist dann f (t) = A1 sin(ωt + ϕ1 ) + A2 sin(ωt + ϕ2 )   i 1 h  i(ωt+ϕ1 ) = A1 e − e−i(ωt+ϕ1 ) + A2 ei(ωt+ϕ2 ) − e−i(ωt+ϕ2 ) 2i  1   1 i(ωt+ϕ1 )  = e A1 + A2 ei(ϕ2 −ϕ1 ) − e−i(ωt+ϕ1 ) A1 + A2 e−i(ϕ2 −ϕ1 ) 2i 2i  1 i(ωt+ϕ1 )  = e A1 + A2 ei(ϕ2 −ϕ1 ) + konj. komplex 2i

10

Nun kann man den Vorfaktor umschreiben und man erhält mit   −η A1 + A2 ei(ϕ2 −ϕ1 ) = A eiϕ

(30)

wieder eine komplexe Zahl, die sich leicht mit den bisherigen Regeln berechnen läßt.

Abbildung 3: Modellverstärker für den Input x(t) = 0.2sin(t) (durchgezogene Linie) und dem Output y(t) = 0.3sin(t) + 0.5sin2(t). Ein ähnliches Verhalten zeigen auch nichtlineare optische Frequenzverdoppler.

Abbildung 4: Eine Überlagerung zweier leicht verstimmter Schwingungen y = cos(x) + cos(1.1x). Das Ergebnis ist eine Schwebung. Das Endsignal hat also die gleiche Frequenz, aber eine andere Amplitude und ist phasenverschoben f (t) = A cos(ωt + ϕ) .

(31)

2) Betrachten wir einen Verstärker mit einem Input-Signal x(t) = x0 cos(ωt) und der Eigenschaft, daß der Output mit dem Input wie folgt zusammenhängt y(t) = B(x + f x2 ) = B(x0 cos(ωt) + x02 cos2 (ωt)) .

(32)

Um daran zu erkennen, welche Frequenzen im Output sind, muß man z.B. ausrechnen, wie cos2 (ωt) mit der ursprünglichen Frequenz zusammenhängt. 3) Ein anderes Problem von großer Bedeutung betrifft die überlagerung von zwei Schwingungen mit zwei leicht verstimmten Frequenzen: f (t) = A1 cos((ω + ∆ω)t + ϕ1 ) + A2 cos(ωt + ϕ2 ) . Das Resultat ist eine Schwebung. In der Akustik ist dieses Phänomen gut hörbar.

11

(33)

1.5.1 Additionstheoreme Die Herleitung von Additionstheoremen im Körper der reellen Zahlen ist häufig kompliziert. Durch die Beziehung zwischen komplexer Exponentialfunktion und den trigonometrischen Funktionen kann man dagegen diese Theoreme sehr leicht herleiten. Wir wollen dies an einigen Beispielen diskutieren. Wir betrachten dazu:

sin(x + y) =

 1  i(x+y) e − e−i(x+y) 2i

.

(34)

Von exp(i(x + y)) brauchen wir nur den Imaginärteil und zur Umformung dieses Ausdruckes verwenden wir die Produktregel für Exponentialfunktionen und die Euler-Formel (21) ei(x+y) = eix eiy = (cos x + i sin x)(cos y + i sin y) = i(sin x cos y + cos x sin y) + cos x cos y − sin x sin y

(35)

Subtrahieren wir hiervon noch exp(−i(x + y)) so bleibt nur der Imaginärteil übrig. Insgesamt bekommen wir dadurch sin(x + y) = sin x cos y + cos x sin y

.

(36)

Ein weiteres Problem, das man durch das Theorem von de Moivre leicht lösen kann, ist sin 3Θ und cos 3Θ durch Potenzen von cos Θ und sin Θ auszudrücken. Wir erhalten cos 3Θ + i sin 3Θ = (cos Θ + i sin Θ)3 = (cos3 Θ − 3 cos Θ sin2 Θ) + i(3 sin Θ cos2 Θ − sin3 Θ). Vergleichen wir die die Real- und Imaginärteile auf beiden Seiten, so bekommen wir cos 3Θ = cos3 Θ − 3 cos Θ sin2 Θ = cos3 Θ − 3 cos Θ(1 − cos2 Θ) = 4 cos3 Θ − 3 cos Θ

(37)

und sin 3Θ = 3 sin Θ cos2 Θ − sin3 Θ = 3 sin Θ(1 − sin2 Θ) − sin3 Θ = 3 sin Θ − 4 sin3 Θ

.

(38)

Ein weiteres Beispiel ist cos3 Θ, das wir mit z = eiΘ und Gl. (20) leicht berechnen können cos3 Θ = = = =

1 1 (z + )3 3 2 z 1 3 1 1 (z + 3z + 3 + 3 ) 8 z z 1 1 3 1 3 (z + 3 ) + (z + ) 8 z 8 z 3 1 cos(3Θ) + cos Θ 4 4

(39)

Potenzen von sin x und cos x führen offensichtlich zu höheren Harmonischen wie cos(3x) und umgekehrt lassen sich höhere harmonische Funktionen durch Potenzen der Grundfrequenz ausdrücken. An dem oben genannten nichtlinearen Verstärker wird dann eine Frequenzmischung deutlich. Auf diese und ähnliche Weise lassen sich eine Reihe weiterer nützlicher Beziehungen ableiten, die in Formelsammlungen aufgelistet werden.

12

1.6 Die n-te Wurzel von 1 Die Gleichung z2 = 1 hat die beiden bekannten Lösungen z = ±1. Nachdem uns die komplexen Zahlen bekannt sind, können wir auch alle Lösung von zn = 1 beschaffen. Nach dem Fundamentalsatz der Algebra gibt es für jedes Polynom n-ten Grades n Lösungen. Wir wissen auch schon, daß e2iπk = cos(2πk) + i sin(2πk) = 1 (40) falls k ∈ Z Demzufolge können wir schreiben zn = e2ikπ

(41)

oder z = e2iπk/n

.

(42)

Dies bedeutet, die Lösungen von zn = 1 sind z1,2,...,n = 1, e2iπ/n , . . . , e2i(n−1)π/n ,

(43)

wobei wir hier k = 0, 1, 2, . . . , n − 1 verwenden. Größere Werte von k ergeben keine neuen Lösungen, sondern sind nur eine Duplizierung der vorhandenen Lösungen. Betrachten wir als Beispiel die Lösungen der Gleichung z3 = 1. Wenden wir nun Formel (43) an, so erhalten wir z1 = 20i , z2 = e2iπ/3 , z3 e4iπ/3 . Für k = 3, also z4 = e6iπ/3 = e2iπ = 1 = z1 , nur eine Wiederholung von z1 . Es ist auch keine überraschung, daß wir auch |z|3 = |z3 | finden, da alle Wurzeln auf dem Einheitskreis liegen und damit den Betrag 1 haben.

1.7 Der komplexe Logarithmus Die Umkehrfunktion der Exponentialfunktion exp(x) = y ist der Logarithmus x = ln y

(44)

falls x, y ∈ R. Der Logarithmus ist auch die Umkehrfunktion der Exponentialfunktion für komplexe Zahlen. Für den Logarithmus einer komplexen Zahl z schreiben wir w = ln z

mit

z = ew

(45)

Jetzt können wir die Regeln für die Exponentialfunktion ausnutzen, um den Logarithmus eines Produktes komplexer Zahlen z1 · z2 = ew1 ew2 = ew1 +w2 (46) zu berechnen ln(z1 z2 ) = w1 + w2 = ln(z1 ) + ln(z2 ) .

(47)

Nehmen wir eine komplexe Zahl auf dem Einheitskreis, so wissen wir bereits, dass z = eiφ = ei(φ +2πk) .

(48)

Diese Vieldeutigkeit wirkt sich auch auf den Logarithmus aus und es folgt ln z = ln r + i(φ + 2π) .

13

(49)

Um die Vieldeutigkeit zu vermeiden, schränkt man das Argument arg(z) = φ auf −π < φ ≤ π ein und nennt ln(z) bei dieser Einschränkung den Hauptwert. Und was ist ln(−i)? Hier schreiben wir zuerst −i in Exponentialform um    π  ln(−i) = ln ei(−π/2+2nπ) = i − + 2πn , (50) 2 mit einer natürlichen Zahl n. Dies bedeutet ln(−i) = −i π2 , 3i π2 , . . . Für den Hauptwert gilt ln(−i) = − π2 i.

1.8 Hyperbolische Funktionen Was bedeutet eigentlich cos(iφ ) oder sin(iφ )? Mit dieser Wahl eines rein imaginären Argumentes im cos und sin werden die Exponenten von e in Gl. (25) reell und es folgt eine neue Klasse von Funktionen: 1 −φ cos(iφ ) = (e + e+φ ) =: cosh φ 2 1 −φ (e − e+φ ) =: sinh φ . (51) i sin(iφ ) = 2 Die beiden Funktionen cosh φ und sinh φ bezeichnet man als ”Cosinus Hyperbolicus” oder ”Hyperbelcosinus” bzw. ”Sinus Hyperbolicus” oder ”Hyperbelsinus”. Diese hyperbolischen Funktionen sind die komplexen Analoga zu den trigonometrischen Funktionen. Neben den beiden fundamentalen Funktionen gibt es in Analogie zu den trigonometrischen Funktionen die verbleibenden hyperbolischen Funktionen sinh x ex − e−x = x cosh x e + e−x cosh x ex + e−x coth x = = x sinh x e + e−x 1 2 sechx = = cosh x ex + e−x 1 2 , (52) cosechx = = sinh x ex − e−x siehe Abb. 5. Folgende Beziehungen zwischen trigonometrischen und Hyperbelfunktionen sind noch ganz hilfreich tanh x =

cosh x = cos(ix) i sinh x = sin(ix) cos x = cosh(ix) i sin x = sinh(ix) .

(53)

ähnlich zu den Relationen zwischen verschiedenen trigonometrischen Funktion lassen sich auch Hyperbelfunktionen durch andere Hyperbelfunktionen ausdrücken. Gehen wir von cos2 x+sin2 x = 1 aus und benutzen (53) so folgt mit cosh2 x = cos2 (ix) und sinh2 x = − sin2 (ix) cosh2 x − sinh2 x = 1 .

(54)

Einige andere Identitäten können ebenso abgeleitet werden. sech2 x = 1 − tanh2 x cosech2 x = coth2 x − 1 sinh(2x) = 2 sinh x cosh x cosh(2x) = cosh2 x + sinh2 x

14

(55)

Abbildung 5: Graphen der verschieden hyperbolischen Funktion deren analytische Darstellung im Text angegeben ist.

1.9 Hyperbolische Umkehrfunktionen – Areafunktionen Die Umkehrfunktion von y = sinh x nennen wir x = arsinh y. Wir sind nun an der expliziten Form dieses Ausdruckes interessiert. Hierfür drückt man ex durch Linearkombinationen von cosh x und sinh x aus. ex = cosh p x + sinh x = 1 + sinh2 x + sinh x p = 1 + y2 + y .

(56)

Wenden wir auf beide Seiten den Logarithmus an, so folgt der explizite Ausdruck für die Umkehrfunktion p x = arsinh(y) = ln( 1 + y2 + y) . (57) Auf ähnliche Weise erhält man p x = arcosh(y) = ln( y2 − 1 + y)

(58)

für |y| > 1. Die Umkehrfunktion von tanh(x) nennen wir analog artanh(y) und die explizite Form ist   1 1+y x = artanh(y) = ln . (59) 2 1−y

15

2 Elemente der linearen Algebra

Wobei die Beweiskraft einzig vom Geschick der Beweisinszenierung abhängt (worunter nicht nur Beweisrhetorik, Beweisinstallierung und Beweismarketing zu verstehen sind, sondern auch die Verwandlung der Wirklichkeit in einen beweisäquivalenten Zustand). Heinrich Steinfest - Cheng

2.1 Vektorräume In der Schule und im Vorkurs sind Ihnen einige wichtige Eigenschaften von Vektoren vorgestellt worden. Wir betrachten an dieser Stelle den Zusammenhang zwischen linearen Gleichungssystemen, Vektorräumen und Matrizen. 2.1.1 Lineare Gleichungen Lineare Gleichungen sind von der Form: L(u) = v,

mit den Vektoren u und v

Beispiele solcher Systeme gibt es häufig in der Physik: (i) Schwingungsgleichung:

bzw.

d d2 u(t) + a u(t) + b u(t) = v(t) 2 dt  dt  d2 d +a + b u(t) = v(t) dt 2 dt

(ii) Potentialgleichung: d2 d2 u(x, y) + u(x, y) = v(x, y) dx2 dy2  2  d d2 + 2 u(x, y) = v(x, y) dx2 dy

bzw. (iii) Vertrauter dürfte Ihnen die Form

2x1 + x2 − x3 = y1 −7x1 − 5x2 + 3x3 = y2 sein, mit 

 x1 u =  x2  , x3

 v=

y1 y2



 ,

16

L(u) =

2x1 + x2 − x3 −7x1 − 5x2 + 3x3

 .

Diese Probleme haben gemeinsam, dass für die Abbildung L : u 7→ L(u) gilt: L(α1 u1 + α2 u2 ) = α1 L(u1 ) + α2 L(u2 ). Dies sind die definierenden Eigenschaften von linearen Abbildungen. Einige Eigenschaften von linearen Abbildungen sind direkt offensichtlich: (i) Die homogene Gleichung L(u) = 0 besitzt immer die triviale Lösung u = 0 (ii) Sind u1 und u2 Lösungen der homogenen Gleichung, so ist auch jede Linearkombination α1 u1 + α2 u2 eine Lösung. Die Lösungen bilden einen Vektorraum. (iii) Ist u0 eine spezielle Lösung der homogenen Gleichung L(u) = 0, so erhält man sämtliche Lösungen durch u = uh + u0 , wobei uh sämtliche Lösungen der homogenen Gleichung durchläuft. Mit der Einführung von linearen Abbildungen sind offenbar einige Begriffe verbunden, die wir näher diskutieren wollen. Außerdem werden wir uns mit der Lösbarkeit von linearen Gleichungssystemen beschäftigen. 2.1.2 Vektorräume: Definition und Beispiele Definition: Einen nichtleere Menge V heißt Vektorraum über R bzw. über C, wenn auf V einen Addition und einen Multiplikation mit Zahlen aus R bzw. C erklärt ist, sodass die Rechenregeln der Vektorräume gelten. Im einzelnen wird ein Vektorraum durch folgende Eigenschaften bestimmt: Wenn u, v, w ∈ V gilt, dann ist auch u + v ∈ V . Ferner entlält V ein ausgezeichnetes Element 0. Es gelten dann die Regeln: (A1 ) (u + v) + w = u + (v + w) (A2 ) u + v = v + u (A3 ) u + 0 = u (A4 ) Die Gleichung u + x = v besitzt stets genau eine Lösung x. Mit u ∈ V , α ∈ R (bzw. α ∈ C) gehört auch α · u zu V und es gilt: (S1 ) (S2 ) (S3 ) (S4 )

(α + β ) · u = α · u + β · u α · (u + v) = α · u + α · v α · (β · u) = (α · β ) · u 1·u = u

Die Elemente von V nennen wir Vektoren. Die Elemente des zugrundeliegenden Zahlenkörpers R bzw. C Skalar (z.B. α, β ). Das neutrale Element der Addition 0 nennen wir Nullvektor . Beispiele: • Rn und Cn sind Vektorräume über R bzw. C. Dies gilt auch für n = 1, wobei dann der Unterschied zwischen Vektoren und Skalaren nicht mehr besteht.

17

• Funktionenräume: M ist eine nichtleere Menge, K einer der Zahlenkörper R bzw. C. Dann ist F (M , K) = { f : M 7→ K}

mit

f + g : x 7→ f (x) + g(x) α · f : x 7→ α · f (x) ein Vektorraum über K. Definition: Teilräume Ist V ein Vektorraum über K, so nennen wir U einen Unterraum bzw. Teilraum, wenn mit u, v ∈ U auch jede Linearkombination α · u + β · v zu U gehört, mit α, β ∈ K. Weiterhin setzen wir vorraus, dass U eine nichtleere Teilmenge von V ist. Beispiele: • {0} ist immer Teilraum von V , genauso wie V selbst. • Die Lösungen x = (x1 , x2 , ..., xn ) ∈ Rn der Gleichung a1 · x1 + ... + an · xn = 0 bilden einen Teilraum des Rn . Übungsaufgabe: Gilt dies auch für a1 · x1 + ... + an · xn = mit t 6= 0?

2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme Definition: Linearkombination Jeder Vektor der Form n

α1 v1 + α2 v2 + ... + αn vn =

∑ αk vn

mit

αi ∈ K

k=1

heißt Linearkombination der Vektoren v1 , ..., vn ∈ V . Definition: Aufspann bzw. lineare Hülle Die Menge aller Linearkombinationen aus v1 , ..., vn heißt ihr Aufspann bzw. ihre lineare Hülle span{v1 , ..., vn }. Der Aufspann ist ein Teilraum von V .

2.3 Lineare (Un-) Abhängigkeit Definition: Vektoren v1 , ..., vn eines K-Vektorraums V heißen linear abhängig (l.a.), falls es Skalare (α1 , ..., αn ) ∈ K gibt, die alle nicht Null sind, sodass α1 v1 + α2 v2 + ... + αn vn = 0 Andernfalls heißen sie linear unabhängig.

18

Beispiele: (i) Die Vektoren 

 1 e1 =  0  , 0



 0 e2 =  1  , 0



 0 e3 =  0  1

sind linear unabhängig. (ii) Sind die Vektoren 

 1  0   u=  −1  , 0



 0  1   v=  1 , −2



 3  −1   w=  −4  2

des R4 linear unabhängig? Wir müssen dazu offenbar die Gleichung x1 u + x2 v + x3 w = 0 lösen, bzw. in Koordinaten x1 + 3x3 =0 −x1 + x2 − 4x3 =0 −2x2 + 2x3 =0. Folglich

x2 − x3 = 0 ⇒ x2 = x3 und − x1 − 3x3 = 0.

Offenbar ist x1 = 3 und x2 = x3 = −1 Lösung des homogenen Gleichungssystems. Die Vektoren sind also linear abhängig.

2.4 Vektorräume und Basis Definition: Ein geordnetes n-Tupel B = (v1 , ..., vn ) von Vektoren des K-Vektorraums V heißt eine Basis von V , wenn sich jeder Vektor v ∈ V als Linearkombination v = α1 v1 + ... + αn vn in eindeutiger Weise darstellen lässt. Die durch v eindeutig bestimmten Zahlen α1 , ..., αn heißen die Koordinaten von v bezgl. der Basis B. Sie werden zu einem Koordinatenvektor   α1   (v)B =  ...  αn zusammengefasst. Satz: B = (v1 , ..., vn ) ist genau dann eine Basis, wenn v1 , ..., vn ein linear unabhängiges Erzeugendensystem ist. Bemerkung: Es sei U = span{v1 , ..., vn } ein Teilraum von V , dann ist v1 , ..., vn ein Erzeugendensystem für U.

19

Beweis: (i) Es sei B = (v1 , ..., vn ) eine Basis. Nach Definition gilt V = span{v1 , ..., vn }. Jeder Vektor v ∈ V muss sich mit eindeutig bestimmten Koeffizienten aus den v1 , ..., vn bestimmen lassen. Dies gilt auch für den Nullvektor. Damit folgt aus α1 v1 + ... + αn vn = 0



α1 , ..., αn = 0

und somit die lineare Unabhängigkeit. (i) Es seien v = α1 v1 + ... + αn vn = β1 v1 + ... + βn vn zwei Darstellungen von v. Mit (α1 − β1 )v1 + ... + (αn − βn )vn = 0 folgt aus der linearen Unabhängigkeit von v1 , ..., vn ; α1 = β1 , ..., αn = βn , also die Eindeutigkeit. Satz: Dimension eines Vektorraums Besitzt ein Vektorraum V eine Basis aus n Vektoren, so besteht auch jede andere Basis aus n Vektoren. n ist gleichzeitig die Dimension des Vektorraums V . Also dim V = n Bemerkung: Für V = {0} gilt dim V = 0, besitzt V keine endliche Basis, so bezeichnen wir ihr als unendlichdimensional. Basisergänzungssatz: Ist b1 , ..., bn ein Erzeugendensystem von V und sind a1 , ..., an lin. unabhängige Vektoren in V , die keine Basis von V bilden, so lassen sich die a1 , ..., an durch Hinzufügen geeigneter bk zu einer Basis von V ergänzen. Basisauswahlsatz: Besitzt der Vektorraum V 6= {0} ein endliches Erzeugendensystem b1 , ..., bn , so lässt sich aus diesem eine Basis für V auswählen.

2.5 Lösen linearer Gleichungssysteme Ein lineares Gleichungssystem (LGS) mit m Gleichungen für n Unbekannte hat die Form a11 x1 + a12 x2 + . . . + a1n xn = b1 .. . am1 xm + am2 xm + . . . + amn xm = bm Gegeben sind in diesem Problem die Koeffizienten aik ∈ K und die Zahlen bk ∈ K. Gesucht sind alle Vektoren x(x1 , ..., xn ) ∈ Kn , die die obige Gleichung erfüllen. Rangbedingung zur Lösbarkeit: Lineare Gleichungssysteme in der obigen Form können kompakt durch Ax = b geschrieben werden, mit der Koeffizientenmatrix     x1 a11 . . . a1n    ..  , A =  ... x =  ...  ∈ Kn . .  xn am1 . . . amn Der Rang einer Matrix bestimmt sich aus:

20

(i) der Maximalzahl linear unabhängiger Zeilenvektoren (Zeilenrang) (ii) der Maximalzahl linear unabhängiger Spaltenvektoren (Spaltenrang) (iii) der Dimension des Bildraums der linearen Abbildung x 7→ Ax,

Kn 7→ Km

Beispiel: Die Matrix 

 1 −2 4 0 5 A =  −2 1 −1 2 −6  −1 −1 3 2 −1 hat den Rang 2, da die ersten beiden Vektoren linear unabhängig sind und die dritte Zeile die Summe der ersten beiden ist. Rangbedingung: Hat V die Dimension n, W die Dimension m so ist die lineare Abbildung L : V 7→ W genau dann in jektiv (eineindeutig), wenn Rang(L) = n und genau dann sur jektiv, wenn Rang(L) = m. Bemerkung: Für eine injektive Abbildung gilt, dass jedem Bild höchsten ein Urbild zuzuordnen ist, d.h. dass aus f (x1 ) = f (x2 ) stets x1 = x2 und aus x1 6= x2 f (x1 ) 6= f (x2 ) folgt. Für eine surjektive Abbildung f M 7→ N gilt, dass N die Bildmenge von f ergibt, d.h. dass für jedes y ∈ N die Gleichung f (x) = y mindestens einen Lösung aus M existiert. Das LGS Ax = b ist also eindeutig lösbar, wenn Rang(A) = n und universell lösbar, wenn Rang(A) = m ist . Eliminationsverfahren: Gesucht: Alle Lösungen des LSG 4x2 + 4x3 + 3x4 − 2x5 = 16 −3x1 − 3x2 + 3x3 + x4 − 2x5 = − 2 2x2 + 2x3 + 3x4 − 4x5 = 14 4x1 − x2 − 9x3 − 2x4 − x5 = − 5 1. Schritt: Umstellung der Gleichungen (nur noch Koeffizenten), Vertauschung der Zeilen I&II −3 −3 3 1 −2 −2 0 4 4 3 −2 16 0 2 2 3 −4 14 4 −1 −9 −2 −1 −5 2. Schritt: Normierung der Kopfzeile 1 1 −1 − 13 23 23 0 4 4 3 −2 16 0 2 2 3 −4 14 4 −1 −9 −2 −1 −5

21

3. Schritt: Elimination von x1 aus der Zeile IV durch Multiplikation der Kopfzeile mit (−4) und Addition zur 4. Zeile 2 2 1 1 −1 − 13 3 3 0 4 4 3 −2 16 0 2 2 3 −4 14 2 − 23 0 −5 −5 − 3 − 11 3 3 4. Schritt: Normierung der Kopfzeile im Restsystem 3 1 1 4 2 2 3 −5 −5 − 23

− 21 −4 − 11 3

4 14 − 23 3

5. Schritt: Eliminatione von x2 aus den letzten beiden Gleichungen ((−2)· bzw 5· erste Zeile) 1 1 43 − 21 4 0 0 32 −3 6 37 37 0 0 37 3 12 − 6 6. Schritt: Die Koeffizienten von x3 verschwinden. Das obige Schema führt dann auf das Restsystem 3 −3 6 2 37 − 37 37 12

6

3

und schließlich nach Normierung der Kopfzeile und Elimination von x4 (und x5 ) in der unteren Zeile 1 −2 4 0 0 0 7. Schritt: Zeilenstufenform 1 0 0 0

1 −1 − 13 3 1 1 4 0 0 1 0 0 0

2 3

2 3 1 −2 4 −2 4 0 0

bzw. 1 2 2 x1 + x2 − x3 + − x4 + x5 = 3 3 3 3 1 x2 + x3 + x4 − x5 = 4 4 2 x4 − 2x5 = 4 8. Schritt: Auflösen der Gleichung in Zeilenstufenform. Mit der Festlegung x3 = s und x5 = t ergibt sich       1 1 2  1   −1   −1             x=  0 +s 1 +t  0 .  4   0   2  1 0 0

22

2.6 Matrizen 2.6.1 Rechenoperationen mit Matrizen (i) Matrizen werden elementweise addiert, die Addition ist (daher) kommutativ und assoziativ, d.h. A+B = B+A A + (B +C) = (A + B) +C. (ii) Multipliziert man eine Matrix mit einer Konstanten, so werden alle Elemente mit der Konstanten multipliziert. B = αA



bi j = ∧ik α · ai j .

(iii) Die Multiplikation von Matrizen erfolgt nach der Regel „Zeile mal Spalte“: AB = C



Ci j = ∑ aik bk j k

Aus der Rechenregel ergibt sich sofort, dass die Zahl der Spalten von A der Zahl der Zeilen von B entsprechen muss. (iv) Für die Matrixmultiplikation gilt das Distributiv- aber nicht das Kommutativgesetz. Beispiel:     0 1 1 0 A= B= 1 0 0 −1     0 · 1 + 1 · 0 0 · 0 + 1 · (−1) 0 −1 AB = = 1 · 1 + 0 · 0 1 · 0 + 0 · (−1) 1 0   0 1 BA = 6= AB −1 0 Die Matrixmultiplikation ist also nicht-kommutativ! Bemerkung: Die obigen Matrizen sind zwei der drei Pauli − Matrizen, die die Komponenten des quantenmechanischen Spinoperators bilden. Definition: Der Kommutator [A, B] ≡ AB − BA misst die Differenz zwischen den beiden Produkten von A, B. Spezielle Matrizen: (i) Nullelement (ii) Einheitsmatrix

A = 0 ⇔ ai j = 0 A = 1 ⇔ ai j = δi j ( 0, wenn i 6= j δi j = 1, wenn i = j

23

mit Kronecker- Delta

Es gilt offenbar A0 = 0A = 0 und A1 = 1A = A. Bemerkung: Bei Matrizen treten einige Eigenschaften auf, die man von der Multiplikation von gewöhnlichen Zahlen nicht kennt. Gegeben seien die Matrizen:     1 2 10 4 A= B= 3 6 −5 2     0 0 22 44 ; BA = ⇒ AB = 0 0 −11 −22 Das Produkt der Matrizen ergibt die Nullmatrix, obwohl keine der beiden Matrizen Null ist. Damit kann also auch AC = AD gelten, obwohl C 6= D. 2.6.2 Determinanten Die Determinante einer 2x2 Matrix wird definiert durch a11 a12 := a11 a22 − a21 a12 det(A) = a21 a22 Bem.: Das lineare Gleichungssystem   a11 a12 Au = v mit A= ; a21 a22

 u=





u1 u2

;

v=

v1 v2



ist genau dann universell und eindeutig lösbar, wenn det(A)6= 0. Laplacescher Entwicklungssatz Die Determinante einer nxn Matrix A = (ai j ) kann man durch Entwicklung nach der i-ten Zeile n

det(A) = |A| =

∑ (−1)i+ j ai j Ai j



j=1

bzw. der k-ten Spalte n

det(A) = |A| =

∑ (−1) j+k a jk A jk



j=1

berechnen. Mit: Ai j ist eine (n-1) x (n-1) Matrix, die durch Streichung der i-ten Zeile und der j-ten Spalte aus A hervorgeht. Beispiel Determinante einer 3x3 Matrix (Entwicklung nach der ersten Spalte) a11 a12 a13 a21 a22 a23 = a11 a22 a23 − a21 a12 a13 + a31 a12 a13 a22 a23 a32 a33 a32 a33 a31 a32 a33 Eigenschaften von Determinanten (i) det(A) = det(AT ) (ii) Für nxn Matrizen gilt: det(AB)= det(A)*det(B)

24



(iii) det(A−1 )= (det(A))−1

Determinantenformen Definition: Eine Abbildung F:Kn x...xKn → K(n > 1) heißt (i) Multilinearform auf Kn , wenn F in jedem der n Argumente (Spalten) linear bei festgehaltenen restlichen Spalten ist: F(..., αx + β y, ...) = αF(..., x, ...) + β F(..., y, ...) (ii) Alternierende Multilinearform falls (i) gilt und F(..., ai , ..., a j , ...) = −F(..., a j , ..., ai , ...) (iii) Determinantenform falls (i) und (ii) erfüllt sind und F(e1 , ..., en ) = 1 für die kanonische Basis e1 , ..., en des Kn gilt. (ei Einheitsvektor in i-Richtung)

Bemerkungen: (i) Für alternierende Multilinearformen gilt F(a1 , ..., an ) = 0

falls a1 , ..., an linear abhängig sind.

Insbesondere gilt natürlich, dass F(a1 , ..., an ) = 0 falls ai = ak für i 6= k, bzw. ai = αak . (ii) Die Determinante ändert sich nicht, wenn ein Vielfaches einer Zeile von einer anderen Zeile subtrahiert wird. Damit lässt sich die Matrix durch Umformungen auf obere Dreiecksform bringen, ohne dass sich die Determinante ämdert. Die Determinante ergibt sich dann einfach aus der Multiplikation der Diagonalelemente. Bsp.: a a det 11 12 a21 a22

a12 = det a11 0 a22 − a21 a12 a11

= a11 (a22 − a21 a12 ) = a11 a22 − a21 a12 a11

2.6.3 Matrixinversion Für quadratische Matrizen A kann man eine Matrix A−1 suchen, sodass AA−1 = A−1 A = 1. Die inverse Matrix lautet: A−1

 ij

=

1 C ji det(A)

mit der Kofaktormatrix

C ji = (−1)i+ j Mi j

und dem Minor Mi j , d.h. die Determinante der Streichmatrix. Offenbar ist die Matrix nur dann invertierbar, wenn det(A) 6= 0. Da det(AA−1 ) = det(1) = 1 gilt, erhalten wir det(A−1 ) =

1 . det(A)

Ferner gilt: (AB)−1 = B−1 A−1 wegen (AB)−1 (AB) = B−1 A−1 AB = B−1 B = 1

25

Beispiel: Bestimmung der Inversen der Matrix A   2 4 3 A =  1 −2 −2  −3 3 2 Kofaktoren:



 −2 −2 = −4 + 6 = 2 = 4 = C11 M11 = det 3 2   1 −2 M12 = det = 2 − 6 = −4 = −C12 −3 2

Insgesamt erhalten wir:   2 4 −3 C =  1 13 −18  −2 7 −8

det(A) = 2 · 2 + 1 · 1 + (−3) · (−2) = 11

und

  2 1 −2 T C 1  4 13 7  A−1 = = det(A) 11 −3 −18 −8 Bemerkung: Ist die Koeffizientenmatriz eines LGS invertierbar, so kann man die Lösung des GS einfach durch Matrizinversion bestimmen. ⇒

Ax = b

x = A−1 b

2.6.4 Matrizen: Definitionen und Eigenschaften • Die Spur einer Matrix: Die Spur einer Matrix Sp(A) bzw. tr(A) ist die Summe ihrer Diagonalelemente Sp(A) = tr(A) = ∑(A)ii = ∑ aii i

i

Es gilt: tr(AB) = ∑ Aik Bki = ∑ Bki Aik = tr(BA) ik

ik

Allgemeiner gilt: Die Spur ist invariant gegenüber zyklischer Vertauschung von Matrixprodukten, also tr(A1 A2 ...An ) = tr(An A1 ...An−1 ) • Die transponierte Matrix: AT : AT

 ij

= (A) ji . Es gilt (AB)T = BT At .

• Die komplex-konjugierte Matrix: A∗ bzw. A, die die Elemente a∗i j enthält. • Die hermitisch konjugierte Matrix (bzw. adjungierte Matrix):

26

A+ = AT

∗

• Die Diagonalmatrix: Nur die Diagonalelemente sind verschieden von Null. • Die symmetrische Matrix: A = AT Die antisymmetrische Matrix: A = (−1)AT • Die relle Matrix: A = A∗ Die imaginäre Matrix: A = −A∗ • Die orthogonale Matrix: AT = A−1 (für eine quadratische Matrix, z.B. die Drehmatrix) • Die hermitische Matrix: A+ = A Die antihermitische Matrix: A+ = −A • Die unitäre Matrix: A+ = A−1 • Die nilpotente Matrix: für n > n0 gilt An = 0 • Die singuläre Matrix: Matrix deren Determinante verschwindet (nicht invertierbar)

27

2.6.5 Das Eigenwertproblem Die Mutiplikation eines Vektors mit einer Matrix ist im Allgemeinen eine Drehstreckung, d.h. Richtung und Betrag des Vektors werden geändert. Liegt der Vektor aber parallel zur Drehachse, wird nicht seine Richtung, sondern ausschließlich sein Betrag geändert. Also gilt für einen solchen Vektor v Av = λ v. (60) Vektoren v, die die Gleichung (60) erfüllen, nennt man Eigenvektoren der Matrix A und den Skalierungsfaktor seinen Eigenwert. Zur Bestimmung von λ und v betrachtet man die homogene Gleichung (A − λ 1) v = 0, die direkt aus (60) folgt. Eine nichtlineare Lösung dieses homogenen Gleichungssystems kann offenbar nur dann erfolgen, wenn det (A − λ 1) verschwindet. Die Bedingung det (A − λ 1) = 0

(61)

führt für eine n × n Matrix auf ein Polynom n-ten Grades in λ , das über den Körper C n (nicht notwendigerweise verschiede) Lösungen besitzt. Diese Lösungen sind die Eigenwerte des Problems. Das Polynom, das sich aus der Eigenwert- bzw. Säkulargleichung (61) ergibt, wird charakteristisches Polynom genannt. Beispiel: Bestimmung der Eigenwerte der Matrix A mit   1 1 −3 A =  1 1 −3  . 3 −3 −3 Die Säkulargleichung zur obigen Matrix lautet 1−λ det (A − λ 1) = det 1 3 ⇒

1 1−λ −3

−3 −3 −3 − λ

= 0.

(1 − λ )2 (−3 − λ ) − (1 · (−3) · 3) + (−3 · 1 · (−3)) − 9(1 − λ ) − (−3 − λ ) + 9(1 − λ ) = 0 (1 − 2λ + λ 2 )(−3 − λ ) − 9 + 9 + 3 + λ = 0 −3 − λ + 6λ + 2λ 2 − 3λ 2 − λ 3 + 3 + λ = 0 −λ 3 − λ 2 + 6λ = 0 −λ (λ − 2)(λ + 3) = 0

Die Eigenwerte lauten demnach λ1 = 2, λ2 = 0 und λ3 = −3. Es bleibt also noch die Aufgabe die Eigenvektoren zu bestimmen. Dazu setzt man die Eigenwerte ein und löst das zugehörige homogene Gleichungssystem. Wir wollen dies am Beispiel von oben explizit durchführen. Für den Eigenwert λ1 = 2 ergibt sich das folgende Gleichungssystem:

28

−x1 + x2 + 3x3 = 0 x1 + x2 − 3x3 = 0

| +1· Zeile I

3x1 − 3x3 − 3x3 = 0

| +3· Zeile I

−x1 + x2 + 3x3 = 0 0 =0 ⇒

4x3 = 0

x3 = 0 ⇒ x1 = x3 = t

Der zugehörige Eigenvektor lautet also 

 t x1 =  t  . 0 Es ist nützlich mit normierten Eigenvektoren zu arbeiten, sodass !

|x1 | = 2t 2 = 1

1 t=√ 2



Damit lautet der normierte Eigenvektor 

 1 1 x1 = √  1  . 2 0 Analog ergibt sich für die übrigen Eigenvektoren   1 1  −1  x2 = √ und 3 1

  1 1  −1  . x3 = √ 6 −2

Bemerkung: Die Menge der Eigenwerte und Eigenvektoren einer Matrix nennt man auch das Eigensystem. Die Eigenwerte von A und AT stimmen überein, die zugehörigen Eigenvektoren nicht unbedingt. Dies bedeutet, dass linke und rechte Eigenvektoren nicht übereinstimmen müssen. 2.6.6 Entartete Eigenwerte Wir wenden uns wiederum einem Beispiel zu. Es sei   0 1 A= . −1 2 ⇒

!

det (A − λ 1) = (−λ )(−2 − λ ) + 1 = (1 + λ )2 = 0



λ1,2 = −1

Der einzige Eigenvektor dieser Matrix ist 1 x1 = √ 2



1 −1

 .

Die 2 × 2 Matrix A ist ein Beispiel für eine nicht-hermitische Matrix, bei der das Eigensystem eine niedrigere Dimension hat als die Matrix. Die geometrische Multiplizität, d.h. die Zahl der Eigenvektoren zu einem Eigenwert ist also in diesem Fall geringer als die algebraische Multiplizität.

29

2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix Wir wollen nun die Eigenschaften verschiedener Matrizen mit den Eigenschaften von Eigenvektoren und -werten in Verbindung bringen. Dazu betrachen wir zunächst normale Matrizen, d.h. Matrizen für die gilt A+ A = AA+ Bemerkung: Unitäre und hermitische Matrizen sind gleichzeitig normale Matrizen (bzw. orthogonale und symmetrische Matrizen im Falle reeller Matrizen). Es sei nun x Eigenvektor zum Eigenwert λ , also gilt (A − λ 1) x = 0. Mit B = A − λ 1 gilt dann Bx = 0 = x+ B+ ., also insgesamt x+ B+ Bx = 0 Explizit ergibt sich  B+ B = (A − λ 1)+ (A − λ 1) = A+ − λ ∗ 1 (A − λ 1) = A+ A − λ ∗ A − λ A+ + λ λ ∗ = 0. Wegen AA+ = A+ A ergibt sich, dass B+ B = BB+ . Damit erhalten wir + x+ B+ Bx = x+ BB+ x = B+ x B+ x = |B+ x|2 = 0. sodass B+ x der Nullvektor ist und B+ x = (A+ − λ ∗ 1)x = 0 gilt. Für eine normale Matrix sind also die Eigenwerte von A+ die komplex konjugierten Eigenwerte von A. Es seinen nun xi und x j zwei Eigenvektoren zu zwei unterschiedlichen Eigenwerten λi und λ j . Dann gilt und Ax j = λ j x j . Axi = λi xi + Wenn wir nun die zweite Gleichung von links mit xi multiplizieren, erhalten wir xi

+

Ax j = λ j xi

+

x j.

Es gilt aber auch xi

+

A = A+ xi

+

= λi∗ xi

+

= λi xi

+

.

Damit erhalten wir insgesamt (λi − λ j ) xi

+

x j = 0.

Da wir λi 6= λ j vorausgesetzt haben, müssen die Eigenvektoren orthogonal sein. Bemerkung: Für eine hermitische Matrix (A+ = A) gilt λ = λ ∗ . Somit sind die Eigenwerte reel.

30

2.6.8 Basiswechsel und Ähnlichkeitstransformationen Vektoren kann man als Komponenten bezüglich einer gegebenen Basis darstellen. Mit der Basis (e1 , . . . , en ) sei der Vektor v durch   v1   v = v1 e1 + · · · + vn en , mit dem Spaltenvektor v =  ...  vn gegeben. Wir wollen nun untersuchen wie sich die Koordinaten ändern, wenn wir auf eine alternative Basis übergehen. Dafür führen wir eine neue Basis (e0 1 , . . . , e0 n ) ein. Die Basisvektoren seien durch n

e0 j = ∑ Si j ei i=1

miteinander verknüpft. Damit ergibt sich für den Vektor v: n

n

n

n

n

n

j=1

j=1

i=1

i=1

j=1

∑ v0j e0j = ∑ v0j ∑ Si j ei = ∑ ∑ v0j Si j

v = ∑ vi ei = i=1

Wir identifizieren also:

! ei .

n

vi =

∑ Si j v0j .

j=1

Kompakter lässt sich schreiben: v = S v0

bzw.

v0 = S−1 v

mit der Transformationsmartrix S, die den Basiswechsel beschreibt. Wir können in ähnlicher Weise die Transformation des linearen Operators A beschreiben. Es gelte y = Ax in der Basis (e1 , . . . , en ). In der Basis (e01 , . . . , e0n ) lautet die Transformaion y0 = A0 x0 . Mit der Relation von oben erhalten wir y = Sy0 = Ax = ASx0 ⇒

Sy0 = ASx0



y0 = S−1 ASx0 = A0 x0 .

Damit ergibt sich: A0 = S−1 AS. Die obige Gleichung ist ein Beispiel für eine Ähnlichkeitstransformation. Solche Ähnlichkeitstransformationen sind sehr nützlich, da sie Rechnungen stark vereinfachen können.

31

Für Ähnlichkeitstransformationen ergeben sich die folgenden Eigenschaften: (i) Falls A = 1, dann gilt A0 = 1, da: A0 = S−1 1S = S−1 S = 1. (ii) Es gilt: det (A) = det (A0 ), da:     det A0 = det S−1 AS = det S−1 · det (A) · det (S) = det (A) · det S−1 S = det (A) . (iii) Das charakteristische Polynom und damit die Eigenwerte von A stimmen mit denen von A0 überein:     det A0 − λ 1 = det S−1 AS − λ 1 = det S−1 (A − λ 1)S = det S−1 det (A − λ 1) det (S) = det (A − λ 1) . (iv) Die Spur der Matrix bleibt unverndert:    tr A0 = ∑ A0ii = ∑ S−1 i j A jk Ski = ∑ Ski S−1 i j A jk = ∑ δk j A jk = ∑ A j j = tr (A) . i

i jk

i jk

j

jk

Bemerkung: Von besonderer Bedeutung sind unitäre Transformationen, bei denen S eine unitäre Matrix ist. Unitäre Transformationen führen Orthonormalbasen ineinander über:

0

0

ei+ e j =

  !+     ∗ +  + ∑ δki ek ∗ ∑ δr j er = ∑ δik∗ ∑ δr j e|{z} k er  = ∑ δik δk j = S S i j = δi j r r k k k δkr

Für unitäre Transformationen gilt ferner: (i) Falls A hermitisch (antihermitisch), dann ist auch A0 hermitisch (antihermitisch). (ii) Falls A unitär ist (d.h. A+ = A−1 ), dann ist auch A unitär. zu(i)

0

(A )+ = (S+ AS)+ = S+ A+ S = ±S+ AS = ±A zu(ii)

0

0

0

+ (A )+ A = (S+ AS)+ (S+ AS) = S+ A+ |{z} SS+ AS = S+ A AS = 1 |{z} 1

1

2.6.9 Diagonalisierung von Matrizen A sei die Darstellung eines linearen Operators bzgl. der Basis (e1 , . . . , en ). Nun betrachten wir eine alternative Basis x j = ∑ni=1 Si j ei , wobei x j die Eigenvektoren des linearen Operators A sind, d.h. es gilt: Ax j = λ j x j . In der neuen Basis gilt: A0 = S−1 AS. Das Matrixelement  Si j ist dann einfach die i-te Komponente 1 2 n des j-ten Eigenvektors, sodass wir S = x x . . . x erhalten.

32

Daraus folgt: A0i j = S−1 AS

 ij

= ∑ S−1

 ik

Akl Sl j = ∑ S−1

 ik

Akl x j

 l

= ∑ S−1

kl

kl

Die Matrix A0 lautet also:

   A0 =  

kl

λ1 0 .. .

0 λ2 .. .

··· 0 .. .

0 ··· .. .

0

···

0

λn

 ik

λ j xkj = ∑ λ j S−1



S ik k j

= λ j δi j

k

   . 

Damit ist das „Rezept“ zur Diagonalisierung von Matrizen vervollständigt. Da die Matrix S invertierbar sein muss, müssen die n-Eigenvektoren linear unabhängig sein und eine Basis des zugehörigen Vektorraums bilden. Beispiel: Wir wollen nun die Matrix 

 1 0 3 A =  0 −2 0  3 0 1 diagonalisieren, falls möglich. 1.Schritt: Bestimmung der Eigenwerte 

1−λ  0 det(A − λ 1) = det 3

0 −2 − λ 0

 3 0  = (1 − λ )2 (−2 − λ ) + 9(2 + λ ) = (4 − λ )(λ + 2)2 1−λ

Damit lauten die Eigenwerte: λ1 = 4 & λ2 = λ3 = −2 2.Schritt: Bestimmung der Eigenvektoren Aus Ax = 4x ergibt sich der normierte Eigenvektor   1 1   1 √ 0 x = 2 1 Wir betrachten nun das LGS: Ax = −2x also I x1 + 3x3 = −2x1 ⇒ II −2x2 = −2x2 III 3x1 + x3 = −2x3 = −2x3

x3 = −x1 ⇒

x3 = −x1 

 s Damit erhalten wir den allgemeinen Eigenvektor x =  b . −s Offensichtlich ist x orthogonal zu x1 für beliebige s, b (wie erwartet, da A symmetrisch ist und folglich normal).

33

Für die Diagonalisierung ist es günstig mit einem Satz orthonormaler EV zu arbeiten, so dass wir     1 0 1 1 und x3 = √  1  x2 = √  0  2 2 −1 0 festlegen. 3.Schritt: Diagonalisierung von A Die Transformationsmatrix S hat die Spaltenvektoren xi , so dass   1 √0 1 1 S= √  0 2 0  2 1 0 −1 

     1 √0 1 1 √0 1 1 0 3 4 0 0 1 ⇒ S+ AS =  0 2 0   0 −2 0   0 2 0  =  0 −2 0  2 3 0 1 0 0 −2 1 0 −1 1 0 −1

34

3 Differentialrechnung im Rn

(. . . ) was Essentielles. Hätte ich ein Mathematiklehrbuch, würde ich es lesen. Ein Mathematiklehrbuch ist einfach, unverlogen, lieb und unbestechlich. Und so leicht verständlich: Man muss nur fleißig sein, und schon versteht man alles (. . . ) Max Goldt - Die Radiotrinkerin

3.1 Funktionen mehrerer Variablen Funktionen mehrerer Variablen können Flächen im Raum beschreiben. Wenn beispielsweise die z-Koordinate Funktion der x- und y-Koordinate ist, d.h. z = f (x, y) gilt, und die Funktion eindeutig und reellwertig ist, beschreibt sie eine Fläche im dreidimensionalen Raum. (Beispiel: Die Oberfläche eines Gebirges ohne Überhänge.)

Die hier vorgestellten Begriffe und Methoden sind allgemeiner gültig. Zur Veranschaulichung ist es aber nützlich, sich der entsprechenden Begriffe zu bedienen. Die partielle Ableitung ist die Ableitung der Funktion bei der man eine Variable festhält. Man schreibt die partielle Ableitung in der Form ∂f = ∂x f = fx bzw. ∂x Die Technik der partiellen Ableitung sei am Beispiel

∂f = ∂y f = fy ∂y

f (x, y) = x3 y − exy erläutert. Dann ergibt sich ∂x f (x, y) = 3x2 y − yexy (d.h. die y-Variable wird wie eine Konstante behandelt), analog ergibt sich ∂y f (x, y) = x3 − xexy Man kann natürlich auch höhere und gemischte Ableitungen berechnen: ∂ ∂f = ∂xx f = 6xy − y2 exy ∂x ∂x ∂xy f = 3x2 − (1 + xy)exy = ∂yx f usw. In dem vorliegenden Beispiel kann man die Reihenfolge der partiellen Ableitungen vertauschen. Dies gilt aber nur dann, wenn die beiden gemischten Ableitungen in dem betreffenden Punkt stetig sind. Die Regeln lassen sich in analoger Weise für Funktionen mit mehreren Variablen verallgemeinern.

35

3.2 Das totale Differential und die totale Ableitung Beim totalen Differential betrachten wir die Änderung des Funktionswertes für simultane Änderungen von x und y. ∆ f = f (x + ∆x, y + ∆y) − f (x, y) = f (x + ∆x, y + ∆y ) − f (x, y + ∆y ) + f (x, y + ∆y ) − f (x, y) f (x + ∆x, y + ∆y) − f (x, y + ∆y ) f (x, y + ∆y) − f (x) ]∆x + [ ]∆y =[ ∆x ∆y ≈∂x f (x, y)∆x + ∂y f (x, y)∆y Für infinitesimale Änderungen wird die Formel exakt, also d f = ∂x f dx + ∂y f dy und für Funktionen mit mehreren Variablen ergibt sich analog df =

∂f ∂f ∂f dx1 + dx2 + ... + dxn ∂ x1 ∂ x2 ∂ xn

Beispiel: Das totale Differential der Funktion f (x, y) = y ∗ exp(x + y) lautet: d f = ∂x f dx + ∂y f dy = y ∗ exp(x + y)dx + (y + 1) ∗ exp(x + y)dy Die obige Formel galt nur für unabhängige Variablen. Wir betrachten aber nun den Fall, dass die Variablen voneinander abhängen und nur eine Variable tatsächlich unabhängig ist, also xi = xi (x1 )

mit i = 2, ..., n

Man kann dann in diesem Fall die xi durch x1 ersetzen und dann das totale Differential der Funktion f = f (x1 ) berechnen. Alternativ kann man die totale Ableitung aus der Kettenregel df ∂f ∂ f dx2 ∂ f dxn = + + ... + dx1 ∂ x1 ∂ x2 dx1 ∂ xn dx1 bestimmen.

Beispiel: Bestimmen Sie die totale Ableitung von f (x, y) = x2 + 3xy ∂f = 2x + 3y ∂x ⇒

mit y = arcsin(x)

∂f = 3x ∂y

dy 1 =√ dx 1 − x2

df 1 = 2x + 3y + 3x ∗ p dx (1 − x2 )

Direkte Methode: f (x) = x2 + 3x ∗ arcsin(x) ⇒

df 1 1 = 2x + 3 ∗ arcsin(x) + 3x ∗ √ = 2x + 3y + 3x ∗ √ 2 dx 1−x 1 − x2

36

3.3 Exakte und inexakte Differentiale Bei einigen Problemstellungen ist die Funktion f zu einem gegebenen Differential gesucht. Die Bestimmung von f ist i.A. nicht trivial. Für das Beispiel d f = xdy + ydx kann man die Funktion f (x, y) = x ∗ y + const. sofort angeben. Solche Differentiale nennt man exakt. Schwieriger wird es für

xdy + 3ydx = (∂y f (x, y))dy + (∂x f (x, y))dx

Integration bezüglich x:

f (x, y) = 3xy + g(y)

Integration bezüglich y:

f (x, y) = xy + h(x)

Offensichtlich sind die beiden Resultate inkompatibel und das Differential nicht exakt. Eine notwendige und hinreichende Bedingung für exakte Differential ist die folgende: Es sei

d f = A(x, y)dx + B(x, y)dy

Offensichtlich gilt: ∂f ∂f =A & =B ∂x ∂y Wenn f(x,y) zweimal stetig differenzierbar in dem Punkt (x,y) ist, muss gelten ∂xy f = ∂yx f bzw. ∂x B = ∂y A Im vorangegangenen Beispiel gilt: ∂x B = 1 und ∂y A = 3 woraus wie erwartet folgt, dass das Differential nicht exakt ist.

Für ein totales Differential in n-Variablen ergibt sich entsprechend: n

d f = ∑ gi (x1 , ..., xn )dxi i=1

Das Differential ist exakt, falls für alle Paare (i,j) gilt: ∂gj ∂ gi = ∂xj ∂ xi

3.4 Rechenregeln für partielle Ableitungen Für partielle Ableitungen kann man einige nützliche Identitäten herleiten, wenn man z = f (x, y) als zu x & y gleichberechtigte Variable betrachtet. Dann gilt beispielsweise x = x(y, z) und y = y(x, z). dx = (

∂x ∂x )z dy + ( )y dz ∂y ∂z

dy = (

∂y ∂y )z dx + ( )x dz ∂x ∂z

und

37

Damit erhalten wir: dx = (

∂x ∂y ∂x ∂y ∂x )z ( )z dx + [( )z ( )x + ( )y ]dz ∂y ∂x ∂y ∂z ∂z

Für z = const. gilt dann dz = 0 und somit (

∂x ∂y )z ( )z = 1 ∂y ∂x

(

∂x ∂y )z = ( )−1 ∂y ∂x z

sofern die partiellen Ableitungen nicht verschwinden. Für konstantes x (dx = 0) ergibt sich ( ⇒ (

∂x ∂x ∂y )z ( )x + ( )y = 0 ∂y ∂z ∂z

∂x ∂y ∂z )z ( )x ( )y = −1 (zyklische Relation) ∂y ∂z ∂x

Kettenregel: Es sei f = f (x1 , x2 , ..., xn ) wobei xi = xi (u). Dann ergibt sich n df ∂ f dxi =∑ du i=1 ∂ xi du

Beispiel: f (x, y) = xe−y

mit x(u) = 1 + αu, y = β u3

3 3 ∂ f dx ∂ f dy df = + =e−β u ∗ α + x ∗ e−β u ∗ 3β u2 du ∂ x du ∂ y du 3

=(α + 3β u2 + 3αβ u3 )e−β u

3.5 Variablentransformation Zur Lösung physikalischer Probleme kann es nützlich sein, Variablen einzuführen, die besonders gut an die Symmetrie des physikalischen Problems angepasst sind. Es sei nun xi = xi (u1 , ..., un ) und f = f (x1 , ..., xn ) Für die Ableitung der Funktion nach u j gilt dann nach der Kettenregel: n ∂f ∂ f ∂ xi =∑ j = 1, ..., m ∂ u j i=1 ∂ xi ∂ u j

Für unabhängige Variablen {xi } und {u j } gilt dann m = n.

Beispiel: Ein wichtiges Beispiel sind ebene Polarkoordinaten x = r ∗ cos(φ )

y = r ∗ sin(φ )

Aufgabe: Stellen Sie die Relation ∂2 f ∂2 f + mit f = f (x, y) ∂ x2 ∂ y2

38

als eine Relation für f (r, φ ) in den Koordinaten (r, φ ) dar. Zunächst gilt: x2 + y2 = r2 (cos2 φ + sin2 φ ) = r2 ⇒ r =

p x 2 + y2

und y r ∗ sin φ y = = tan φ ⇒ φ = arctan( ) x r ∗ cos φ x Wir erhalten damit: ∂r x x ∂r =p = = cos φ , = sin φ ∂x r ∂y x 2 + y2 −1 y −y − sin φ ∂φ =p = = 2 ∂x r r 1 + y2 /x2 x

,

∂φ cos φ = ∂y r

so dass ∂ ∂ sin φ ∂ = cos φ − ∂x ∂r r ∂φ

&

∂ ∂ cos φ ∂ = sin φ + ∂y ∂r r ∂φ

Mit den Ausdrücken für ∂x f und ∂y f ergibt sich nach einigen Umformungen ∂2 f 1 ∂ f ∂2 f ∂2 f 1 ∂2 f + = + + ∂ x2 ∂ y2 ∂ r2 r ∂ r r2 ∂ φ 2

3.6 Taylor-Entwicklung In höheren Dimensionen lautet die Taylorentwicklung ∞

f (x) =

1

∑ n! [(∆x ∗ ∇)n f (x)]x=x

0

n=0

mit ∆xi = xi − x0 und ∆x = (∆x1 , ..., ∆xn )T f (x) = f (x1 , ..., xn ) und ∇ = (∂ x1 , ..., ∂ xn ) (Gradient) Spezialfälle: • n = 2: ∞

f (x, y) =

1





∑ n! [(∆x ∂ x + ∆y ∂ y )n f (x, y)]x ,y 0

0

n=0

• Entwicklung von f (x, y) bis zur Ordnung [ (∆x)2 bzw. (∆y)2 und (∆x∆y) ] 1 ∂2 f ∂2 f ∂2 f 1 ∂ ∂ [ 2 (∆x)2 + 2 ∆x∆y + 2 (∆y)2 ] = (∆x + ∆y )2 f (x, y) 2! ∂ x ∂ x∂ y ∂y 2! ∂x ∂y

39

3.7 Stationäre Punkte von Funktionen mit mehreren Variablen Die notwendige Bedingung für das Auftreten eines stationären Punktes ist das Verschwinden der partiellen Ableitungen von f (x1 , ..., xn ) ∂f =0 ∂ xi

für alle xi

Wenn wir nun die Art des stationären Punktes bestimmen wollen, können wir die Taylorentwicklung betrachten. In führender Ordnung gilt am stationären Punkt(∂xi f = 0) ∆ f = f (x) − f (x0 ) ≈

1 ∂2 f ∆xi ∆x j ∑ 2 i, j ∂ xi ∂ x j

Nun sei die Matrix M definiert durch: Mi, j =

∂2 f ∂ xi ∂ x j

so dass 1 ∆ f = ∆xT M∆x mit ∆xT = (∆x1 , ..., ∆xn ) 2 Da die Matrix symmetrisch ist, hat sie reelle Eigenwerte λr und n orthogonale Eigenvektoren er , so dass für normierte Eigenvektoren er gilt: Mer = λ er , eTr es = δrs Die Eigenvektoren bilden eine Basis im Rn , so dass ∆x = ∑ αr er r

und damit 1 1 ∆ f = ∆xT M∆x = ∑ λr er 2 2 r Ein Minimum liegt also vor, wenn alle Eigenwerte von M positiv sind, ein Maximum, wenn alle Eigenwerte negativ sind. Falls einige Eigenwerte positiv und einige negativ sind liegt ein Sattelpunkt vor. Bem.: Sollten einige Eigenwerte Null sein und die übrigen alle positiv (bzw. negativ) sein, so kann mit dieser Methode nicht entschieden werden, welche Art des stationären Punktes vorliegt.

Wir wollen nun die Bedingungen für eine Funktion f (x, y) explizit formulieren. Die Matrix M lautet in diesem Fall  M=

fxx fyx

fxy fyy



Die Eigenwertgleichung lautet dann: 2 ( fxx − λ )( fyy − λ ) − fxy =0

40

⇒ 2λ1,2 = ( fxx + fyy ) ±

q 2 ( fxx − fyy )2 + 4 fxy

Damit liegt ein Minimum vor, falls fxx , fyy > 0 und q 2) fxx + fyy > ( fxx + fyy )2 − 4( fxx fyy − fxy bzw. 2 fxx fyy − fxy >0

Analog für Maxima und Sattelpunkte.

3.8 Extrema mit Nebenbedingungen Im vorangegangenen Kapitel haben wir uns mit der Charakterisierung von Extrema unabhängiger Variablen beschäftigt. Häufig gibt es aber weitere Zwangsbedingungen, die einen Zusammenhang zwischen den Variablen herstellen. Beispiele für solche Fragestellungen sind: Finde das Maximum einer Funktion f(x,y) auf einem Kreis mit Radius R, sodass x2 + y2 = R2 . Eine Möglichkeit zur Lösung eines solchen Problems besteht natürlich darin, die Zwangsbedingungen dazu zu nutzen, die abhängigen Variablen zu ersetzen. Einen direkteren Zugang bietet die Methode der Lagrange’schen Multiplikatoren. Dazu betrachten wir die Funktion f(x,y) deren Maximum wir unter der Zwangsbedingung g(x, y) = c bestimmen wollen. Für unabhängige Variablen muss für ein Maximum df =

∂f ∂f dx + dy = 0 ∂x ∂y

sein und damit fx = 0 = fy . Durch den Zusammenhang zwischen x und y sind dx & dy nicht unabhängig, sodass aus der Stationarität nicht notwendigerweise fx = 0 = fy folgt. Für die Zwangsbedingung folgt aber dg =

∂g ∂g dx + dy = 0 ∂x ∂y

da g(x, y) = c = const. gilt. Damit erhalten wir d( f + λ g) = (

∂f ∂g ∂f ∂g + λ )dx + ( + λ )dy = 0 ∂x ∂x ∂y ∂y

Wir fordern nun, dass in dieser Gleichung dx und dy unabhängig sind, so dass λ die Bedingungen ∂g ∂f ∂g ∂f +λ =0 & +λ =0 ∂x ∂x ∂y ∂y erfüllen muss. Die obigen Gleichungen legen zusammen mit der Zwangsbedingung g(x, y) = c die Variablen x,y,c der stationären Punkte fest.

˘ Beispiel: Bestimmen Sie das Maximum der Funktion f (x, y) = 1 + xy auf dem Einheitskreis! Es gilt also offenbar g(x, y) = x2 + y2 = 1 ⇒ (i) y + 2λ x = 0 & (ii) x + 2λ y = 0

41

(i)

⇒ x = −2λ y ⇒ y − 4λ 2 y = 0 ⇒ (1 − 4λ 2 )y = 0 ⇒λ =±

1 & x = ∓y 2

1. Fall: y = x ⇒ x = ± √12 y = ± √12 2. Fall: y = −x ⇒ x = ∓ √12 y = ± √12 Die Maximalwerte werden für x = y = ± √12 erreicht, die übrigen stationären Punkte sind Minima.

Die Methode der Lagrange’schen Multiplikatoren kann man auf mehrere Variablen verallgemeinern: Wir suchen also Extrema der Funktion f (x1 , ..., xn ) mit den Nebenbedingungen g1 (x1 , ..., xn ) = 0 . . . gm (x1 , ..., xn ) = 0 (m < n) Die Extrema ergeben sich also aus

∂F ∂ xi

= 0 (i = 1, ..., n) und den Nebenbedingungen, wobei

F(x1 , ...xn , λ1 , ..., λm ) = f (x1 , ..., xn ) + λ1 g1 (x1 , ..., xn ) + ... + λm gm (x1 , ..., xn ) Bem.: Die Wahl c1 = c2 = ... = cm = 0 stellt keine Einschränkung dar, da man die jeweiligen Konstanten einfach auf beiden Seiten abziehen kann.

42

4 Integralrechnung im Rn 4.1 Zweidimensionale Integrale

Kurve C, die das Gebiet R begrenzt.

Wir betrachten das Integral einer Funktion über dem Gebiet R, das von einer geschlossenen Kurve C begrenzt werde. Wir unterteilen nun das Gebiet in N Teilstücke ∆R p mit Teilfläche ∆A p ; p = 1, 2, ..., N. Es sei (x p , y p ) ein beliebiger Punkt in der Teilfläche ∆R p . Nun betrachten wir die Summe N

S=

∑ f (x p , y p )∆A p

p=1

im Limes N → ∞. Wenn der Wert eindeutig ist, dann ist der Grenzwert das zweidimensionale Integral Z

Z Z

I=

f (x, y)dA = R

f (x, y)dxdy R

wobei dA für die infinitisimalen Flächenelemente ∆A p → 0 steht. Eine Möglichkeit das Integral auszuwerten besteht darin, das Integral entlang horizontaler Streifen auszuwerten, also  Z y=d Z x=x2 (y) I= f (x, y)dx dy x=x1 (y)

y=c

Die Werte x1 (y) und x2 (y) hängen vom jeweiligen Gebiet ab. Alternativ kann man das Integral auch entlang vertikaler Streifen parallel zur y-Achse auswerten:  Z x=b Z y=y2 (x) I= f (x, y)dy dx x=a

y=y1 (x)

Die Reihenfolge der Integration beeinflusst offenbar den Wert des Integrals nicht. Bem.: Bei unserer Betrachtung haben wir vorausgesetzt, dass jede Linie parallel zur x- bzw. yAchse die Kurve C (auch: ∂ R =Rand von R) nur zweimal schneidet. Diese Voraussetzung kann in der Regel durch Zerlegung des Integrationsgebiets erfüllt werden.

Beispiel: Berechnen Sie das Integral Z Z

I=

x2 ydxdy

R

43

wobei R das Gebiet ist, das durch x = 0, y = 0 und y = 1 − x begrenzt wird. Z x=1 Z 1−y

x2 ydy)dx   1 1 3 1 4 1 5 1 1 2 2 x (1 − x) dx = ( x − x + x ) = 2 2 3 2 5 60 0

(i)I = =

(

0

Z y=1 Z x=y−1

(ii)I =

( y=0

=

2

x ydx)dy =

Z y=1 3 x y x=1−y

[

x=0

Z 1 (1 − y)3 y 0

0

x=0 Z 1 1

3

y=0

dy =

3

]x=0 dy

Z 1 1 − 3y2 + 3y3 − y4

3

0

 1 1 2 1 5 1 1 33 4 dy = ( y − y y − y ) = 3 2 4 5 60 0 

Wir können also die wie erwartet die Reihenfolge der Integration vertauschen. Bem.: Alternativ kann man die Notation Z y2 (x)

Z b

I=

dy f (x, y) =

dx y1 (x)

a

Z x2 (y)

Z d

dx f (x, y)

dy x1 (y)

c

benutzen.

4.2 Dreifachintegrale Die Integration lässt sich auch für höherdimensionale Integrale fortsetzen. Wir betrachten dazu das dreidimensionale Gebiet R das wir wieder in N Teilgebiete ∆R p mit Volumen ∆Vp , p = 1, ..., N aufteilen. Es sei ferner (x p , y p , z p ) ein beliebiger Punkt in ∆R p . Wir bilden analog zum zweidimensionalen Integral die Summe N

S=

∑ f (x p , y p , z p )∆Vp

p=1

Im Limes N → ∞, ∆Vp → 0 ergibt sich dann das Integral Z

I=

Z Z Z

f (x, y, z)dV =

f (x, y, z)dxdydz

R

R

falls S einen eindeutigen Wert annimmt. Für praktische Rechnungen benutzen wir wieder die Form Z y2 (x)

Z x2

I=

dx x1

Z z2 (x,y)

dz f (x, y, z)

dy y1 (x)

z1 (x,y)

Bem.: (i) Analog zum zweidimensionalen Integral kann man für konvexe Gebiete die Reihenfolge der Integration vertauschen. (ii) Die Definition kann in einfacher Weise für höhere Dimensionen verallgemeinert werden.

44

4.3 Variablentransformation 4.3.1 Transformationen im R2 Variablentransformationen ermöglichen es häufig die Integration stark zu vereinfachen, weil sich die Integralgrenzen und/oder der Integrand stark vereinfachen. In zwei Dimensionen besteht die Aufgabe darin, dass wir die Koordinaten x,y durch u(x,y) und v(x,y) ausdrücken und die Integralgrenzen sowie die infinitisimalen Flächenelemente dA = dxdy anpassen. Wir setzen voraus, dass u,v differenzierbar sind in jedem Punkt des Gebietes R.

Wir müssen also die Fläche des durch die Eckpunkte K,L,M,N begrenzten Gebiets bestimmen. Offensichtlich ist v = const. entlang des Linienelements KL. Dieses Linienelement hat eine x(y)Komponente parallel zu ∂∂ ux du( ∂∂ uy du). Analog gilt für KN, dass das Element nur Komponenten in Richtung (∂ x/∂ v)dv und (∂ y/∂ v)dv hat. Die Fläche eines Parallelogramms ist gegeben durch

A = |a| |b| sin Φ = |a × b|

Da die beiden Vektoren in der (x,y)-Ebene liegen, hat das Kreuzprodukt nur eine von Null verschiedene Komponente, die z-Komponente. Insgesamt lautet also das Flächenelement ∂x ∂y ∂ y ∂ x ∂ x ∂ y ∂ y ∂ x dudv dA = du dv − du dv = − ∂u ∂v ∂u ∂v ∂u ∂v ∂u ∂v Mit der Jacobi-Matrix:

45

∂ (x, y) ∂ x ∂ y ∂ x ∂ y J= ≡ − = ∂ (u, v) ∂ u ∂ v ∂ v ∂ u

∂y ∂u ∂y ∂v

∂x ∂u ∂x ∂v



ergibt sich für das Flächenelement ∂ (x, y) dudv dxdy = ∂ (u, v) Insgesamt erhalten wir Z Z

∂ (x, y) dudv g(u, v) ∂ (u, v) R‘

Z Z

I=

f (x, y)dxdy = R

wobei R’ das Gebiet R in den Koordinaten u,v beschreibt.

Beispiel: Berechne I =

RR

R (a +

p x2 + y2 )dxdy auf der Kreisfläche x2 + y2 = a2 .

Für dieses Problem bieten sich ebene Polarkoordinaten an, mit x = r cos φ

y = r sin φ

In Polarkoordinaten lautet das Integral ∂ (x, y) drdφ (a + r) ∂ (u, v) R0

Z Z

I=

Die Jacobi-Determinante kann man leicht berechnen: sin φ = r(cos2 φ + sin2 φ ) = r r cos φ

∂ (x, y) cos φ J= = −r sin φ ∂ (u, v) Damit ergibt sich für das Integral Z 2π

Z Z

I=

R0

(a + r)rdrdφ =

Z a

dφ 0

0

Beispiel: Berechnung des Integrals I =

 5πa3 1 2 1 3 dr(ar + r ) = 2π ar + r = 2 3 3 

2

R ∞ −x2 dx ∞ e

2

Die Funktion e−x besitzt keine Stammfunktion. Zur Berechnung des bestimmten Integrals I kann man aber folgenden Trick anwenden: Wir berechnen das Integral I 2 I2 =

Z ∞ ∞

2

e−x dx

Z ∞

2

e−y dy =

Z

e−(x

2 +y2 )

dxdy

R



Dieses Integral vereinfacht sich offenbar in Polarkoordinaten, denn   ZZ Z 2π Z ∞ 1 −r2 ∞ 2 −r2 −r2 =π I = e r drdφ = dφ dr re = 2π − e 2 R0 0 0 0 √ ⇒I= π Bem.: Die Konvergenz des Integrals kann man zeigen, wenn man

46

2

a −x bzw. wiederum I 2 (a) berechnet. das endliche Integral: I(a) = −a e Das Integral über die innen liegende Kreisfläche stellt offenbar eine untere Schranke dar, das über die äußere Kreisfläche eine obere. Wir erhalten

R

2

2

π(1 − e−a ) < I 2 (a) < π(1 − e−2a ) und damit lim I 2 (a) = π

a→∞

4.3.2 Variablentransformation in Dreifachintegralen Die Variablentranformationen in drei Dimensionen folgen dem gleichen Schema wie Transformationen in der Ebene. Das Volumenelement dVu,v,w hat für Variablen u(x,y,z), v(x,y,z) und w(x,y,z) die Form ∂ (x, y, z) dudvdw dVu,v,w = ∂ (u, v, w) mit der Jacobi-Determinante ∂ (x, y, z) J= = ∂ (u, v, w)

∂x ∂u ∂x ∂v ∂x ∂w

∂y ∂u ∂y ∂v ∂y ∂w

∂z ∂u ∂z ∂v ∂z ∂w



wobei wir wieder die Invertierbarkeit der Funktionen u,v,w voraussetzen. Die Transformationsregel für das Integral lautet dann Z

I= R

∂ (x, y, z) dudvdw f (x, y, z)dxdydz = g(u, v, w) ∂ (u, v, w) R0 Z

Für Kugelkoordinaten:

47

x = r sin θ cos φ y = r sin θ cos φ z = r cos θ

ergibt sich:

J = r2 sin θ , also dV = r2 sin θ drdθ dφ Für Zylinderkoordinaten ergibt sich: x = r cos φ , y = r sin φ , z = z und damit dV = rdrdφ dz Allgemeine Eigenschaften von Jacobi-Determinanten: Eine Transformation xi nach yi in n Dimensionen hat die Form ∂ (x1 , ..., xn ) dy1 ...dyn dx1 dx2 ...dxn = ∂ (y1 , ..., yn ) wobei die n-dimensionale Determinante analog zum 2- bzw. 3-dimensionalen Fall bestimmt wird. Für Jacobi-Determinanten gelten die folgenden Rechenregeln: ∂ (x1 , ..., xn ) ∂ (x1 , ..., xn ) ∂ (y1 , ..., yn ) = ∂ (z1 , ..., zn ) ∂ (y1 , ..., yn ) ∂ (z1 , ..., zn ) sowie   ∂ (x1 , ..., xn ) ∂ (y1 , ..., yn ) −1 = ∂ (y1 , ..., yn ) ∂ (x1 , ..., xn )

48

5 Vektoranalysis 5.1 Der Gradient Für eine Funktion f : Ω → R (Ω sei ein Gebiet im Rn ) können wir das Differential an der Stelle a ∈ Ω durch d f (a) = ∂x1 f (a)dx1 + ... + ∂xn f (a)dxn ausdrücken. Eine alternative Schreibweise ergibt sich durch Einführung des Gradienten 

 ∂x1 f (a)   .  ∇ f (a) =    . ∂xn f (a) und des Vektors 

 dx1  .   dx =   .  dxn Damit ist das Differential in der Form ˙ = d f (a) ∇ f (a)dx darstellbar, also als Skalarprodukt zwischen dem Gradienten und dem Vektor der Differentiale.

5.2 Raumkurven und Kurvenintegrale Raumkurven α sind Abbildungen eines Intervalls I in den Rn , also 

 α1 (t)  .   α : I → Rn ,t → α(t) =   .  αn (t) ˙ an Eine stetig differenzierbare Raumkurve nennt man regulär, wenn der Tangentenvektor α(t) keiner Stelle t ∈ I verschwindet. Def.: Die Bildmenge α(I) heißt die Spur von I.

Beispiele: (i) Die Archimedische Spirale  t→

t cost t sint

ist eine reguläre Kurve (t>0)

49



(ii) Schraubenlinie (Wendelgang im Guggenheim Museum New York): 

 R cost t →  R sint  ht (t ∈ R ). Die Schraubenlinie ist regulär für t ∈ R. (iii) Die Zykloide 

t − sint 1 − cost





1 − cost sint



t→ (t ∈ R ), ist nicht regulär, da

˙ = α(t)

=0

für t = 0, ±2π, ±4π, . . .

5.3 Länge und Bogenlänge Definition: Die Länge L(C) eines Kurvenstücks ist definiert als das größte Element der in C einbeschriebenen Sehnenpolygone.

Satz: Für eine stetig differenzierbare Parametrisierung der Kurve C: α : [a, b] → Rn gilt Z b

L(C) = L(α) :=

˙ kα(t)kdt

a

Dieser Satz erlaubt die praktische Berechnung von Längen von Raumkurven. Beispiel: Für ebene Kurven α(t) = (t, y(t)) gilt: ˙ = α(t)



1 y(t) ˙



q ˙ kα(t)k = 1 + y(t) ˙ 2.



und damit für Länge der Kurve Lab (α) =

Z bq

1 + y(t) ˙ 2 dt.

a

50

5.4 Skalare Kurvenintegrale Definition: Das skalare Kurvenintegral bzw. Wegintegral von f über C wird durch Z

Z b

Z

f ds = C

f (x) ds := C

˙ f (α(t)) kα(t)k dt

a

˙ definiert, wobei ds = kα(t)k dt. Beispiele: Berechnen Sie die Masse und den Schwerpunkt eines kreisförmigen Drahtes mit Radius r und homogener Dichte ρ. ρ ist eine „Längendichte“, hat also die Dimension kg m. Die Drahtschleife hat die Parametrisierung   q cos(t) ˙ α(t) = r → kα(t)k = sin2 (t) + cos2 (t) = r. sin(t) Z 2π

M=

Z

ρ r dt = 2πρr = 0

dm C

Für den Schwerpunkt gilt: S=

1 M

Z

I dm



Sx =

C

1 M

Z 2π 0

r cos(t) rρdt = 0 | {z } =x(t)

und Analoges für Sy .

5.5 Vektorielle Kurvenintegrale Definition: Unter einem Vektorfeld auf dem Gebiet Ω ∈ Rn verstehen wir eine stetige Abbildung   v1 (x)   u : Ω → Rn , x → v(x) :  ...  . vn (x) Sind die Komponentenfunktionen v1 , . . . , vn zusätzlich σ -fach stetig differenzierbar (also Cσ -Funktionen), so spricht man von einem Cσ -Vektorfeld. Beispiele: • Geschwindigkeitsvektoren von Strömungen • Elektrische und magnetische Felder • Gravitationsfeld Definition: Für ein Vektorfeld v auf Ω ∈ Rn und eine reguläre C1 Kurve α : [a, b] → Rn in Ω definieren wir das vektorielle Kurven- oder Wegintegral durch Z α

v · dx :=

Z b

˙ hv(α(t)), α(t)idt,

a

51

wobei wir mit h·, ·i das Skalarprodukt bezeichnen. Beispiel: Ein Massenpunkt im Koordinatenursprung erzeugt das Gravitationsfeld (bis auf eine Konstante)   x x 1  y . U(x) = − = − p 3 kxk3 x2 + y2 + z2 z Wenn man einen weiteren Massenpunkt mit der Masse m = 1 entlang des Weges α : [a, b] → Rn \{0} bewegt, so ist die dabei geleistete Arbeit gegeben durch: −

Z

U · dx =

α

Z b

xx˙ + yy˙ + z˙z

a (x2 + y2 + z2 )3/2

dt,

wobei x = x(t) usw. gilt. 5.5.1 Verhalten bei Umparametrisierung: Es sei C ein stetig differenzierbares Kurvenstück in Ω und α, β zwei Parametrisierungen. Es gelte ferner α = β ◦ h. Dann gilt (R Z falls h˙ > 0, v dx vdx = β R α − β v dx falls h˙ < 0. Eine Orientierung einer Kurve C kann dadurch festgelegt werden, dass man eine Parametrisierung β als positiv orientiert definiert. Dann ist jede Parametrisierung α = β ◦ h mit h > 0 (h < 0) positv (negativ) orientiert.

5.6 Konservative Vektorfelder und Potential Definition: R Ein Vektorfeld v auf Ω ∈ Rn heißt konservativ oder exakt, wenn das Kurvenintegral γ v dx nur von den Endpunkten abhängt, nicht aber vom Verlauf von γ. Bemerkung: Offensichtlich verschwinden Kurvenintegrale über geschlossene Kurven bei konservativen Kraftfeldern. Satz: Ein Vektorfeld v auf Ω ∈ Rn ist genau dann konservativ, wenn es eine C1 -Funktion U : Ω → R gibt mit v = ∇ U. Wir nennen U eine Stammfunktion oder ein Potential des Vektorfeldes. Es gilt Z

v · dx = U(x1 ) −U(x0 ),

γ

wobei mit x0 der Anfangs- und mit x1 der Endpunkt von γ bezeichnet wird. Satz: Ein C1 -Vektorfeld v auf Ω besitzt ein Potential, wenn es die Integrationsbedingungen ∂ vi ∂ vk = ∂ xk ∂ xi

für i 6= k

52

erfüllt und wenn Ω ein einfaches Gebiet ist. Bemerkung: In einem einfachen Gebiet lässt sich jede geschlossene Kurve stetig auf einen Punkt zusammenziehen, ohne dabei Ω zu verlassen.

5.7 Weitere Vektoroperatoren Definition: Divergenz Für C1 -Vektorfelder v = (v1 , . . . , vn ) auf Ω ∈ Rn erklären wir die Divergenz durch div v =

∂ v1 ∂ vn +···+ = ∇ · v. ∂ x1 ∂ xn

Beispiel:  x 2 y2 v =  y2 z2  x 2 z2 



div V = 2(xy2 + yz2 + zx2 )

Definition: Der Laplace-Operator

U : Ω → R,

wobei U eine C2 -Funktion ist.

σU := ∂x2 U + ∂y2 U + ∂z2 U = div(∇ U) = (∇)2 U Beispiel: Es sei Φ = xy2 z3 . Damit ergibt sich ∆Φ = ∂x2 Φ + ∂y2 Φ + ∂z2 Φ = 2xz3 + 6xy2 z Definition: Rotation Die Rotation von C1 -Vektorfeldern v auf Ω ∈ R3 ist definiert durch   ∂2 v3 − ∂3 v2 rot v =  ∂3 v1 − ∂1 v3  = ∇ × v. ∂1 v2 − ∂2 v1 Einige nützliche Rechenregeln: (i) ∇ × ∇U = 0 (ii) ∇ · ∇ ×V = 0 (iii) ∇ · ( f ·V ) = (∇ f )V + f · ∇ ·V (iv) ∇ × ∇ ×V = 0 (v) ∇(V ×W ) = (∇ ×V )W −V · (∇ ×W ) (vi) ∇ × ( fV ) = ∇ f ×V + f ∇ ×V (vii) ∇ × (V ×W ) = (divV ) ·W + (divW ) ·V + divW − divV

53

5.8 Oberflächenintegrale Charakterisierung von Flächenstücken im R3 Erinnerung: Raumkurven sind Abbildungen eines Intervalls in den Rn :

Abbildung 6: Kurven im R3 Analog: Flächenstücke im R3 sind Abbildungen zweidimensionaler Intervalle in den R3 :

Abbildung 7: Flächen im R3 Definition: Flächenparametrisierung Als Flächenparametrisierung bezeichnen wir eine injektive Cr -Abbildung (r ≥ 1) auf einem Gebiet U ∈ R2 , die durch Φ : U → R3 gegeben ist. Es gilt also: 

 Φ1 (u) u = (u1 , u2 ) → Φ(u) =  Φ2 (u)  Φ3 (u) wobei ∂1 Φ(u) und ∂2 Φ(u) an jeder Stelle u ∈ U linear unabhängig sind. 



  ∂1 Φ(u) = 

∂ Φ1 (u) ∂ u1 ∂ Φ2 (u) ∂ u1 ∂ Φ3 (u) ∂ u1





   ; ∂2 Φ(u) = 

∂ Φ1 (u) ∂ u2 ∂ Φ2 (u) ∂ u2 ∂ Φ3 (u) ∂ u2

  

Die Vektoren ∂1 Φ(u) und ∂2 Φ(u) sind Tangentenvektoren der Koordinatenlinien an der Stelle u (siehe Abb.). Das von ∂1 Φ(u) und ∂2 Φ(u) aufgespannte Flächenelement hat offenbar nur dann eine von Null verschiedene Fläche, wenn die beiden Vektoren linear unabhängig sind.

54

Beispiele für Flächen in R3 : (i) Ebene: (u1 , u2 ) 7→ a + u1 a1 + u2 a2 mit a1 × a2 6= 0

a, a1 , a2 ∈ R

(ii) Obere (untere) Halbkugel:  u1   u2  (u1 , u2 ) 7→    + p R2 − kuk2 (−) 

kuk < R

(iii) Sphäre ohne Nullmeridian: 

 sin θ cos φ (φ , θ ) 7→  sin θ sin φ  cos θ

mit 0 < φ

Der Nullmeridian muss ausgenommen werden, damit die Injektivität der Abbildung gewährleistet ist. Def.: Flächenstücke: Eine Menge M ⊂ R3 heißt Cr -Flächenstück (mit r ≥ 1), wenn sie das Bild einer Cr -Flächenparametrisierung Φ : R2 ⊃ U → R3 mit stetiger Umkehrabbildung Φ−1 : M → U ist. Jede solche Abb. heißt eine (zulässige) Parametrisierung für M. Bemerkung: Die Stetigkeit der Umkehrabbildung stellt die Orientierbarkeit sicher (Gegenbeispiel: Möbius-Band). Durch die Definition auf offenen Teilmengen stellen wir sicher, dass es keine Probleme mit der Differenzierbarkeit am Rand gibt. Der Flächeninhalt von Flächenstücken Für eine Parametrisierung Φ : R2 ⊃ U → R3 definieren wir gik :=< ∂i Φ, ∂k Φ > sowie

für i, k = 2 ;

g g g = det(gik ) = 11 12 g21 g22



Wir betrachten nun das Flächenelement Φ(R) mit dem “kleinen” Rechteck R = [u1 , u1 + ∆u1 ] × [u2 , u2 + ∆u2 ] und definieren die Vektoren v1 = ∂1 Φ(u); v2 = ∂2 Φ(u). Das Flächenelement kann durch das Parallelogramm Ψ(R) approximiert werden. Für den Flächeninhalt des Parallelogramms AΨ ergibt sich AΨ = k(∆u1 v1 ) × (∆u2 v2 )k. Wir betrachten nun: kv1 × v2 k2 = kv1 k2 kv2 k2 sin2 φ = kv1 k2 kv2 k2 (1 − cos2 φ ) 2 2 2 = kv1 k kv2 k − < v1 , v2 > = g(u) und damit gilt:

55

AΨ = k(∆u1 v1 ) × (∆u2 v2 )k =

p g(u)∆u1 ∆u2

Die Gesamtfläche A(Φ) kann näherungsweise durch die Summe von N Parallelogrammen mit den Aufpunkten u1 , . . . , uN und den Seitenlängen ∆u1 und ∆u2 beschrieben werden: N

A(Φ) '

q ∑ g(uk )∆u1 ∆u2 k=1

Für kleine ∆u1 , ∆u2 wird durch die obige Summe das Integral A(Φ) := ximiert.

R p k

g(u) du1 du2 appro-

Beispiel: Sphäre mit Radius r um den Ursprung Sr = {(x, y, z)|x2 + y2 + z2 = r2 } Diese Fläche ist kein Flächenstück, da die Abb. Φ(x, y, z) nicht injektiv ist. Wenn man den Nullmeridian ausnimmt Sr0 = Sr \ N mit N = {(r cos θ , 0, r sin θ )|0 ≤ θ ≤ π} erhält man ein Flächenstück. Sr0 ist am leichtesten durch Kugelkoordinaten parametrisierbar.   r sin θ cos φ Φ : U → R ; (φ , θ ) 7→  r sin θ sin φ  r cos θ mit U = {(φ , θ )|0 < φ < 2π ; 0 < θ < π} Für die Tangentenvektoren ergibt sich   −r sin θ sin φ ∂φ Φ =  r sin θ cos φ  0



;

 r cos θ cos φ ∂θ Φ =  r cos θ sin φ  −r sin θ

gφ φ =< ∂φ Φ; ∂φ Φ > = r2 sin2 θ sin2 φ + r2 sin2 θ cos2 φ = r2 sin2 θ gφ θ =< ∂φ Φ; ∂θ Φ > = −r2 sin θ sin φ cos θ cos φ + r2 sin θ cos φ cos θ sin φ = 0 =< ∂θ Φ; ∂φ Φ >= gθ φ gθ θ =< ∂θ Φ; ∂θ Φ > = r 2 gφ φ gθ φ r2 sin2 θ 0 = g= gφ θ gθ θ 0 r2 = r4 sin2 θ

Abbildung 8: Parallelogramm Ψ(R)

56

Für die Gesamtfläche ergibt sich dann mit A(Φ) := A(Φ) :=

R p

g(u) du1 du2 :

k

Z 2π Z π

Z p

g(φ , θ ) dφ dθ = 0

Sr

r2 sin θ dφ dθ = 4πr2

0

Oberflächenintegrale Es sei M ⊂ R3 ein Flächenstück und f : M → R eine Funktion. Dann ist das skalare Oberflächenintegral von f über M durch Z

Z

f dA = M

Z

f (x) dA(x) := M

p f (Φ(u)) g(u) du1 du2

U

definiert, falls das Integral konvergiert.

5.9 Das vektorielle Oberflächenintegral Orientierte Flächenstücke Der von den Tangentenvektoren ∂1 Φ(u), ∂2 Φ(u) einer Parametrisierung Φ aufgespannte Teilraum des R3 heißt Tangentialraum von M um Punkt x = Φ(u) ∈ M. Der Tangentialraum wird mit Tx M bezeichnet. Das Einheitsnormalenfeld n : M → R3 wird durch u(x) ⊥ Tx M ,

ku(x)k = 1

für x ∈ M

festgelegt. Satz: Für ein orientiertes Flächenstück M gibt es genau ein Einheitsnormalenfeld n von M mit der Eigenschaft u(x) = ±

∂1 Φ × ∂2 Φ (u) mit x = Φ(u) k∂1 Φ × ∂2 Φk

Das Pluszeichen gilt für positive, das Minuszeichen für negative Parametrisierungen. Das vektorielle Oberflächenintegral Es sei M ein orientiertes Flächenstück und v : M → R3 ein auf M stetiges Vektorfeld. Dann ist das vektorielle Oberflächenintegral definiert durch Z M

v · dA =

Z M

v(u) · dA(u) := ±

Z U

< v ◦ Φ, ∂1 Φ × ∂2 Φ > du1 du2

wobei Φ : R2 ⊃ U → R3 eine Parametrisierung von M ist und das Vorzeichen entsprechend der Parametrisierung gewählt wird.

57

Beispiele für das gerichtete Oberflächenintegral  u1  u2 Beispiel: Es sei Φ die Abb. u = (u1 , u2 ) 7→  q



a2 − (u21 + u22 )



  (obere Hemisphäre) und v =



u1  0 . 0 Z

v · dA =

M

Z

< v(u), ∂1 Φ × ∂2 Φ > du1 du2

U



   1 0 mit ∂1 Φ =  0  , ∂2 Φ =  1  u1 z

u2 z

∂1 Φ × ∂2 Φ

=

< v(u), ∂1 Φ × ∂2 Φ > u21 q du1 du2 U a2 − (u21 + u22 )

=

u1 u2 , − , 1) z z 2 u1 /z ZZ 2 2πa3 r cos2 Φ √ r dr dφ = 3 a2 − r 2 0

(

Z

= ↑

Polarkoord.

U

Beispiel: Wir betrachten das Integral über der Menge M mit  M = (x, y, z)|x2 + y2 = 2z < 1 Die Fläche wird parametrisiert durch   Φ : (u1 , u2 ) 7→ 

(Rotationsparaboloid)



u1 u2 u21 +u22

 ;

n(0, 0, 0) = (0, 0, −1)

2

Das Vektorfeld ist gegeben durch: 

 x3 v(x, y, z) =  x2 y  xyz

 u31  u21 u2 v ◦ Φ(u) =  u1 u2 2 2 2 (u1 + u2 ) 

Der unnormierte Normalenvektor ∂1 Φ × ∂2 Φ ergibt sich aus:       1 0 −u1 ∂1 Φ =  0  ; ∂2 Φ =  1  ∂1 Φ × ∂2 Φ =  −u2  u1 u2 1 Z

v · dA = −

M

Z h

−u41 − u21 u22 +

i u1 u2 2 (u1 + u22 ) du1 du2 2

M

Z2πZ1

= 0 0

=

(r4 sin4 φ + r4 sin2 φ cos2 φ − r4 sin φ cos φ )r dr dθ | {z } | {z } | {z } 3 = 20 π

1 = 20 π

π 5

58

=0

5.10 Der Integralsatz von Gauß Bevor wir uns dem Gaußschen Satz zuwenden, diskutieren wir zunächst die anschauliche Interpretation der Divergenz eines Vektorfeldes. Die Strömung einer Flüssigkeit kann durch das Vektorfeld f (x) = ρ(x)v(x) = ρ(x)v(x)e(x) beschrieben werden, wobei ρ(x) die Dichte und v(x) = v(x)e(x) die Geschwindigkeit des Fluids bezeichnet.

Abbildung 9: Fluss durch die Fläche eines Quaders

Wir betrachten nun einen um den Punkt x zentrierten Quader mit den Kantenlängen dx, dy, dz. Der Fluss durch die Fläche A ist dann einfach f · n dy dz = fy dy dz. (Eine besonders einfache Situation ergibt sich für v = v · ex mit v = const. und ρ(x) = const. = ρ. Durch die Fläche A wird dann innerhalb eines Zeitintervalls ∆t die Flüssigkeitsmenge ρv · n dy dz · ∆t = ρv∆t dy dz transportiert.)

Abbildung 10: transportiertierte Flüssigkeitsmenge innerhalb ∆t

Der “Nettoabfluss” ergibt sich aus der Differenz zwischen Abfluss durch die Fläche A und Zufluss durch B. Insgesamt erhält man für den Nettoabfluss       dx dx f x + , y, z · ex − f x − , y, z · ex dy dz 2 2      dx dx ∂ f1 (x) = f1 x + , y, z − f1 x − , y, z dy dz = dx dy dz 2 2 ∂ x1 | {z } = dV

Analoge Resultate erhält man für die übrigen Seiten des Quaders.

59

Nun beschreibt das gerichtete Oberflächenintegral Z

v · n dA

∂Ω

über eine geschlossene Fläche ∂Ω den Nettodurchsatz durch das von ∂Ω umschlossene Volumen Ω. Wie wir durch Betrachtung eine infinitesimalen Quaders plausibel gemacht haben, ist der Durchfluss mit der Divergenz verknüpft. ∇ · v dV = ∑ dAi ni · v i=1

wobei dAi den Inhalt der i-ten Seitenfläche und ui die zugehörige Flächennormale bezeichnet. Der Fluss durch das Volumen Ω ist dann einfach die Summe der Flüsse durch die infinitesimalen Volumina. Die inneren Flächen tragen offenbar nicht bei, so dass man insgesamt den Gaußschen Satz erhält: Satz: Ist Ω ⊂ R3 ein Gaußsches Gebiet und v ein C1 -Vektorfeld auf einer Umgebung von Ω (abgeschlossenes Gebiet, “Ω mit Rand”), so gilt Z

Z

v · dA =

div v dV = ∂Ω



Z

v · n dA

∂Ω

wobei u die Flächennormale auf den Randseiten von Ω bezeichnet Bemerkung: Als ein Gaußsches Gebiet bezeichnet man ein beschränktes Gebiet Ω, dessen Oberfläche aus endlich vielen Flächenstücken besteht, die einen Normalenvektor besitzen. “Löcher” müssen geeignet berücksichtigt werden.

5.11 Der Integralsatz von Stokes Im Rahmen der Schulmathematik und der bisherigen Vorlesung haben Sie bereits 2 Integralsätze kennengelernt. Dies ist zunächst der Hauptsatz der Differential- und Integralrechnung Zb

f 0 (x) dx = f (b) − f (a)

a

und dann die Integration von Gradienten entlang von Kurvenstücken γ Z

∇U(x) · dx = U(x1 ) −U(x0 )

γ

wobei x0 den Anfangs- und x1 den Endpunkt des Weges darstellt. Hier betrachten wir den Integralsatz von Stokes, der einen Zusammenhang zwischen vektoriellen Oberflächenintegral und einem Wegintegral über den Rand der Fläche herstellt.

60

Integralsatz für Rechtecke Wir betrachten das offene Rechteck R = ]a, b[ × ]c, d[ in R2 , P1 und P2 seien in einer Umgebung von R stetig differenzierbar. Dann gilt Z Z (∂1 P2 − ∂2 P1 ) dx1 dx2 =

R

P1 dx1 + P2 dx2 ∂R

Der Integrationsweg lässt sich folgendermaßen veranschaulichen

Abbildung 11: Integrationsweg für das Rechteck R

Das Integral über den Rand ∂ R von R ist also die Summe der Wegintegrale über die σ k (mit k = 1, 2, 3, 4). Die Wege haben die einfache Parametrisierung     t b σ 1 : [a, b] 7→ R2 ; t 7→ ; σ 2 : [c, d] 7→ R2 ; t 7→ c t 2

σ 3 : [a, b] 7→ R ;

 t 7→



a+b−t d

;



2

σ 4 : [c, d] 7→ R ;

a c+d −t

t 7→



Entsprechend gilt: Zd

Z

∂1 P2 dx1 dx2

=

Zb

 c

R



Zd

=

(HDI)

a

 ∂ P2 (x1 , x2 ) dx1  dx2 ∂ x1

(P2 (b, x2 ) − P2 (a, x2 )) dx2 =

c

σ1

P2 dx2 +

σ2

Z

P2 dx2 +

σ3

Z

Z

P2 dx2 ∂R

σ1

R

R

R

∂R

Analog erhalten wir: ∂2 P1 dx1 dx2 = −

P2 dx2

σ4

Z

P2 dx2 =

(da

P2 dx2

σ4

Z

P2 dx2 +

=

Z

P2 dx2 + σ2

Z

Z

=

Z

P2 dx2 = 0 ) σ3

P1 dx1

Der Integralsatz von Stokes lässt sich auch für allgemeinere Flächen im R3 formulieren. Dazu führen wir den Begriff des zweidimensionalen Pflasters ein:

61

Definition: Ein zweidimensionales Pflaster in R3 ist ein orientiertes Flächenstück M, für das es eine C2 -Abbildung Φ : U 7→ R3 ,

(u1 , u2 ) 7→ Φ(u1 , u2 )

auf einer Umgebung U von [0, 1]2 gibt, mit den Eigenschaften (a) Die Einschränkung von Φ auf ]0, 1[2 ist eine positive Flächenparametrisierung von M (b) Die k-te Seitenkurve von Φ (k = 1, 2, 3, 4), eingeschränkt auf ]0, 1[ φk := Φ ◦ σk :]0, 1[7→ R3 ist entweder konstant (entartet) oder injektiv und regulär. (c) Für die Seiten, d.h. die Spuren φk (]0, 1[) gilt: Jede nicht-entartete Seite trifft höchstens eine weitere nicht entartete. Trifft sich die j-te Seite mit der k-ten für j 6= k, φ j (]0, 1[) ∩ φ j (]0, 1[) 6= 0 so gibt es eine C2 -Parametertransformation h :]0, 1[7→]0, 1[ mit φ j = φn ◦ h und h < 0, d.h. die gemeinsame Spur wird entgegengesetzt durchlaufen. Bemerkung: Den Begriff des Pflasters kann man anschaulich leicht verstehen: Ein Pflaster entsteht durch eine differenzierbare Deformation des Einheitsquadrats, wobei die Randstücke verklebt sein können. Für solche Flächen lässt sich der Satz von Stokes wie folgt formulieren: Ist v ein C1 -Vektorfeld auf Ω ⊂ R3 und M ein Pflaster mit |M| ⊂ Ω so gilt Z

(∇ × v) · dA =

M

Z

v · dx

∂M

Der Beweis basiert darauf, das Vektorfeld v durch eine Parametrisierung auf das Einheitsquadrat abzubilden und anschließend den Stokesschen Satz für Rechtecke anzuwenden.

62