Stochastische Prozesse und Finanzmathematik

Stochastische Prozesse und Finanzmathematik Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg Sommersemester 2009 St...
Author: Leon Bäcker
1 downloads 3 Views 961KB Size
Stochastische Prozesse und Finanzmathematik Prof. Dr. H.R. Lerche

Abteilung für Mathematische Stochastik Universität Freiburg

Sommersemester 2009 Stand 19.11.2009

Inhaltsverzeichnis 1 Historische Bemerkungen 1.1

3

Einsteins Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 Die mehrdimensionale Normalverteilung

5 9

3 Grundlegendes

13

4 Zur Existenz stochastischer Prozesse

17

4.1

Konstruktion einer Brownschen Bewegung auf RI

. . . . . . . . . . . . . . . . 19

5 Konstruktion der Brownschen Bewegung nach P. Lévy

25

6 Pfadeigenschaften der Brownschen Bewegung

31

7 Die Starke Markov-Eigenschaft I

43

7.1

Das Reflexionsprinzip

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

8 Die starke Markov-Eigenschaft II

49

8.1

Das Wiener-Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

8.2

Anwendung auf die k-dimensionale Brownsche Bewegung . . . . . . . . . . . . . 55

9 Stochastische Integration

61

9.1

Das Stieltjes Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

9.2

Variation und quadratische Variation . . . . . . . . . . . . . . . . . . . . . . . . 62

9.3

Das stochastische Integral – Ein erster Weg . . . . . . . . . . . . . . . . . . . . 64

9.4

Definition des stochastischen Integrals . . . . . . . . . . . . . . . . . . . . . . . 65

9.5

9.4.1

Das stochastische Integral für einfache Prozesse . . . . . . . . . . . . . 65

9.4.2

Das stochastische Integral für L–Prozesse . . . . . . . . . . . . . . . . . 69

Das stochastische Integral bezüglich L2 -Martingalen . . . . . . . . . . . . . . . 74 9.5.1

Das stochastische Integral für stetige lokale Martingale . . . . . . . . . . 76 i

10 Die Itô-Formel

79

10.1 Alternative Konstruktion des stochastischen Integrals . . . . . . . . . . . . . . . 79 10.2 Die Itô-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 10.2.1 Anwendung auf die komplexe Brownsche Bewegung . . . . . . . . . . . . 90 11 Der Satz von Girsanov

95

11.1 Der Darstellungssatz von Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 11.2 Der Satz von Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 11.3 Anwendung des Satzes von Girsanov auf die Brownsche Bewegung mit Drift . . 100 12 Die Black-Scholes-Formel

103

12.1 Anwendung auf die Call-Option . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

2

INHALTSVERZEICHNIS

Kapitel 1

Historische Bemerkungen Stochastischer Prozess ist der mathematishe Begriff von zufälligen Beobachtungen zeitlicher Verläufe. In den Wirtschaftswissenschaften und der Physik spricht man oft auch von Zeitreihen. In der Mathematik wird der Begriff Zeitreihen spezieller verwendet und steht für stationäre stochastische Prozesse. Wo findet man die ersten Zeitreihen? In der Wetterbeobachtung und an der Börse gibt es schon seit mehr als 250 Jahren Aufzeichnungen. Doch eine gute Antwort auf die Frage habe ich nicht. Im Folgenden will ich die Geschichte des wichtigsten stochastischen Prozesses an Hand einer Zeittafel aufzeigen. Es ist die Brownsche Bewegung. Sie wird auch im Mittelpunkt der Vorlesung stehen. 1828 beobachtete Robert Brown (* 21. Dezember 1773 in Montrose; †10. Juni 1858 in London; schottischer Botaniker) Pollenbewebungen auf dem Wasser und beschreibt diese. 1900 führt Louis Bachelier (* 11. März 1870 in Le Havre ; †28 April 1946 in St-Servan-surMer; französischer Mathematiker; ein Schüler von Poincare) die Brownsche Bewegung als Modell für den zeitlichen Verlauf von Aktienpreisen ein. Er berechnet die Verteilung des Maximums. 1905 Ohne Kenntnis de Entdeckung von Brown leitet Einstein die Brownsche Bewegung theoretisch als Folge der thermischen Molekularbewegung her. Er kann damit eine Formel für die Anzahl der Moleküle pro Mol herleiten (siehe unten!). 1905 gibl Smoluchowski unabhängig von Einstein eine ähnliche Ableitung. 1909 untersucht Pesrin die Pollenbewegung experimentell und bestätigt Einsteins Ergebnisse experimentell. 1923 erste mathematische Konstruktion der Brownschen Bewegung (als Wahrscheinlichkeitsmaß auf den stetigen Funktionen) durch N. Wiener. 1938 führt Ville den Begriff des Martingals ein. 1939 gibt P. Lévy eine einfache Konstruktion der Brownschen Bewegung (siehe Kapitel 4). 3

4

Kapitel 1: Historische Bemerkungen

1941 entwickelt K. Ito die stochastiche Integration und leitet die Ito-Formel her. Bereits im Februar 1940 hatte W. Döblin einen versiegelten Umschlag (plis cacheté) an die französiche Akademie der Wissenschaften gesendet, der erst im Jahre 2002 geöffnet wurde. Er enthält ein Schulheft, in dem sich Resultate zu Diffusionen befinden, die sich mit Itos Resultaten überschneiden. Nun noch einige Daten zur Entwicklung der stochastischen Finanzmathematik 1965 untersuchen Samuelson, Merton und McKean erstmals die geometrische Brownsche Bewegung. 1973 leiten Black-Scholes die nach ihnen benannte Formel mit partiellen Differentialgleichungen her. 1981 stellen Harrison, Krebs und Pliska die Black-Scholes Formel in einen stochastischen Zusammenhang und liefern damit den Rahmen für die stochastische Finanzmathematik.

Logarithmus des Dow-Jow-Index (1995–2001)

Abbildung 1.1

1.1. Einsteins Überlegungen

5

Simulierte Brownsche Bewegung mit den geschätzten Parametern aus den Beobachtungen von Abb. 1.1

Abbildung 1.2

1.1

Einsteins Überlegungen

Wir wollen nun Einsteins Überlegungen zur Brownschen Bewegung skizieren. Er macht dazu folgende Annahmen: a) X(t) sei der eindimensionale Ort einer zufälligen Brownschen Bewegung zur Zeit t. b) Diese zufällige Bewegung X genügt folgendem Gesetz: p(x, y; t) bezeichnet die Wahrscheinlichkeitsdichte, zur Zeit t ein Teilchen im Punkt y zu finden, wenn es zur Zeit 0 in x war. Insbesondere gilt Z p(x, y; t)dy = 1.

Für t1 , t2 , . . . , tn mit o < t1 < t2 < . . . < tn und αi , βi ∈ R mit αi < βi gilt

PX0 (α1 < X(t1 ) ≤ β1 , . . . , αn < X(tn ) ≤ βn ) Z βn Z β1 p(x0 , x1 ; t1 )p(x1 , x2 ; t2 − t1 ) · · · p(xn−1 , xn ; tn − tn−1 ) dx1 . . . dxn ... = α1

αn

Außerdem ist X(0) = x0 der Anfangspunkt der Bewegung.

6

Kapitel 1: Historische Bemerkungen

c)

Z

h∆Xi =



Z−∞ ∞

h(∆X)2 i =

−∞

(x − x0 )p(x0 , x; ∆t)dx ∼ F (x0 )∆t

für ∆t → 0

(x − x0 )2 p(x0 , x; ∆t)dx ∼ 2D · ∆t

für ∆t → 0

h(|∆X|k i = o(∆t)

für k ≥ 3

d) p(x, y; t) = p(y, x; t) Dabei ist F eine äußere Kraft mit Stärke F (x) im Punkt x und D ist die Diffusionskonstante. Wir wollen zeigen, dass p eine Diffusionsgleichung erfüllt und damit p bestimmen. Wegen b) muß gelten Z ∞ p(x, ξ; t)p(ξ, y; τ )dξ. p(x, y; t + τ ) = −∞

Daher gilt für den Differenzenquotienten p(x, y; t + τ ) − p(x, y; t) Q := ∆t

= =

 Z ∞ 1 p(x, ξ; t)p(ξ, y; ∆t)dξ − p(x, y; t) ∆t −∞ Z ∞ 1 (p(x, ξ; t) − p(x, y; t)) p(ξ, y; ∆t)dξ ∆t −∞

Nun entwickeln wir die Differenz mit der Taylor-Formel: p(x, ξ; t) − p(x, y; t)

1 1 = (ξ − y)∂y p(x, y; t) + (ξ − y)2 ∂y2 p(x, y; t) + (ξ − y)3 ∂y3 p(x, y; t) + . . . 2 6

Dann ergibt Einsetzen: Q =

 1 (ξ − y)∂y p(x, y; t) + (ξ − y)2 ∂y2 p(x, y; t) 2 −∞  1 + (ξ − y)3 ∂y3 p(x, y; t) + . . . p(y, ξ; ∆t)dξ. 6

1 ∆t

Z



Dabei haben wir zugleich Annahme d) angewendet. Integration der einzelnen Terme und Anwendung von Annahme c) liefert Q = F (y)∂y p(x, y; t) + D∂y2 p(x, y, t) + o(1)

für ∆t → 0.

Damit erhalten wir für p folgende Gleichungen und Eigenschaften: I)

∂ ∂2 ∂ p(x, y; t) = F (y) p(x, y; t) + D 2 p(x, y; t) ∂t ∂y ∂ y

II) p(x, y; t) ≥ 0 III) p(x, y; t) → δ(y − x)

für t → 0.

1.1. Einsteins Überlegungen

7

Dabei bezeichnet δ das Punktmaß in 0. Für den Fall, dass F (y) ≡ 0 ist, rechnet man leicht nach, dass   1 (y − x)2 p(x, y; t) = √ exp − 4Dt 2 πDt Lösung von I) - III) ist. Tatsächlich ist p eindeutig.

Eine einfache Rechnung zeigt nun, dass sich für die mittlere quadratische Abweichung ergibt: Z ∞ 2 (y − x)2 p(x, y; t)dy = 2 · Dt. h(∆X)t i = −∞

Nun kennt man aus der kinetischen Gastheorie, einer bis zum Jahr 1905 durch sehr wenige Experimente belegte Theorie, eine andere Formel für die Diffusionskonstante D: D=k·

R T R·T T = · = . f N f N · 6πηa

Dabei ist k die Boltzmann-Konstante, R die kinetische Gaskonstante, N die Anzahl der Moleküle pro Mol, T die absolute Temperatur und f die Kraft die auf ein sphärisches Teilchen wirkt. Die Stokessche Formel gibt einen Ausdruck für f f = 6π · η · a, die Reibungskraft. Dabei ist η der Viskositätskoeffizient der Flüssigkeit und a der Radius des sphärischen Teilchens. Nun trift nach unserer vorangegangenen Rechnung in der Wurzel der mittleren quadratischen Abweichung in x-Richtung D auf: √ λx,t = 2Dt. Einsetzen der Formel für die Diffusionskonstanten liefert weiter: s √ R·T 1 λx,t = t . N 3πηa Diese Gleichung liefert für N=

t λ2x,t

·

R·T . 3πηa

Diese Gleichung bildete die theoretische Grundlage für Perrin aus λx,t die Größe N zu bestimmen. Es ergibt sich ein Wert von N = 6, 02 · 1026 Teilchen/Kilomol.

8

Kapitel 1: Historische Bemerkungen

Kapitel 2

Die mehrdimensionale Normalverteilung Zunächst etwas Wiederholung aus WT II. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Sei X eine Zufallsvariable mit Verteilung P X und Verteilungsfunktion F . Die charakteristische Funktion ψX ist erklärt durch Z Z ψX (t) := EeitX = eitx P X (dx) = eitx F (dx).

Einige wichtige Eigenschaften:

1) Sind X,Y Zufallsvariablen mit X = aY + b, dann folgt ψX (t) = eitb ψY (at). P Q 2) Sind X1 , . . . , Xn unabhängig und ist Sn = ni=1 Xi , so gilt ψSn = ni=1 ψXi (t).

3) Sei X nach N (µ, σ 2 )-verteilt, d.h. P (X ≤ α) = ψX (t) = exp(itµ −

1 2 2 2 σ t ).



− (x−µ) √ 1 2σ 2 e −∞ 2πσ2

2

dx, α ∈ R. Dann gilt

Wir weisen 3) nach: Sei Y = X−µ σ . Dann ist Y nach N (0, 1)-verteilt und es gilt wegen 1) ψX (t) = eitµ ψY (σt). t2

Daher genügt es, ψY (t) = e− 2 nachzuweisen. Mit majorisierter Konvergenz folgt: itY

ψY (t) = Ee

=E

∞ X (itY )n

n=0

=

∞ X (it)2k k=0

= =

(2k)!

(2k)! 2k k!

= e

2

(− t2 )k k!

k=0 −t2 /2

=

n=0

n!

EY n

EY 2k (aus Symmetriegründen)

∞ X (it)2k (2k)! k=0 ∞ X

n!

∞ X (it)n

. 9

10

Kapitel 2: Die mehrdimensionale Normalverteilung

Dabei haben wir die Identität EY 2k = ist.

(2k)! 2k k!

benutzt, die in den Übungen nachgerechnet worden

Notation: Ein Zufallsvektor ist ein Vektor X = (X1 , . . . , Xn )T von Zufallsvariablen Xi , (1 ≤ i ≤ n). Der Erwartungswert von X wird komponentenweise definiert: EX := (EX1 , . . . , EXn )T . Die Kovarianzmatrix von X wird durch Kov(X) := (Kov(Xi , Xj ))1≤i,j≤n definiert, falls EXi2 < ∞ ist für i = 1, . . . , n. Dann gilt Kov(X)ij

= Kov(Xi , Xj ) = E((Xi − EXi )(Xj − EXj ))

= E(Xi Xj − EXi EXj )

= E((X − EX)(X − EX)T )ij . Kov(X) ist also offensichtlich eine symmetrische n×n-Matrix. Außerdem ist Kov(X) nichtnegativdefinit (d.h. für alle a ∈ Rn gilt aT Kov(X)a ≥ 0), denn aT Kov(X)a = aT E((X − EX)(X − EX)T )a  = E aT (X − EX)(X − EX)T a = E((aT (X − EX))2 ) = E

n X i=1

≥ 0.

!2

ai (Xi − EXi )

Im Folgenden sehen wir, dass umgekehrt jede nichtnegativ-definite symmetrische Matrix Kovarianzmatrix eines Zufallsvektors ist. Hierzu bemerken wir: Zu jeder nichtnegativ-definiten symmetrischen n × n-Matrix Σ gibt es eine nichtnegativ-definite und symmetrische “Wurzel” Q mit Σ = Q · QT : Ist Σ nichtnegative und symmetrische n × n-Matrix, dann gibt es eine orthogonale Matrix O mit   2 σ e   1   .. −1 e = OΣO und Σ e= Σ . .   2 σ en

e = aT OΣO−1 a = (OT a)T ΣOT a ≥ Dabei sind σ ei2 ≥ 0, (i = 1, . . . , n), denn für a ∈ Rn gilt aT Σa 0. Definition 2.1 Ein Zufallsvektor X : Ω → Rn , X = (X1 , . . . , Xn )T heißt n-dimensional P normalverteilt, wenn für jedes a ∈ Rn die Zufallsvariable aT X = ni=1 ai Xi eindimensional normalverteilt ist. Bemerkung 2.2 Ist X n-dimensional normalverteilt und ist A eine m × n-Matrix, so ist AX m-dimensional normalverteilt.

11 Satz 2.3 Sei Σ eine symmetrische und nichtnegativ-definite n × n-Matrix und sei µ ∈ Rn . Dann existiert ein Zufallsvektor X mit EX = µ und Kov(X) = Σ, der n-dimensional norT malverteilt ist. Außerdem gilt Eeit X = exp{itT µ − 12 tT Σ t} für t ∈ Rn . Beweis: 1. Schritt: Wir zeigen die Behauptung für µ = 0 und Σ = E (wobei E die Einheitsmatrix in Rn × Rn bezeichnet). Seien Y1 , . . . , Yn u.i.v. nach N (0, 1), dann ist der Zufallsvektor Y = (Y1 , . . . , Yn )T n-dimensional normalverteilt mit EY = 0 und Kov(Y ) = E. Weiter gilt für s ∈ R   n   X T Eeisa Y = E exp is aj Yj   j=1

n Y

=

j=1 n Y

=

Eeisaj Yj 1

2

e− 2 (saj )

j=1

  1 2 T = exp − s a a . 2 Dies ist die charakteristische Funktion einer N (0, aT a)-verteilten Zufallsvariablen. Daher ist aT Y normalverteilt. 2. Schritt: Sei Q symmetrisch und nichtnegativ-definit mit Σ = QQT und sei Y wie in Schritt 1. Dann ist X := QY + µ nach Bemerkung 2.2 n-dimensional normalverteilt mit EX = µ und Kov(X) = E((X − µ)(X − µ)T ) = E(QY (QY )T ) = QQT = Σ. Die charakteristische Funktion ist TX

Eeit und itT QY

Ee

i(QT t)T Y

= Ee

T (QY

= Eeit

+µ)



= eit

T QY

Eeit

    1 T T T 1 T = exp − (Q t) Q t = exp − t Σ t . 2 2

2

Satz 2.4 Seien Σ = QQT und X = µ + QY mit Y = (Y1 , . . . Yn )T und Y1 , . . . , Yn u.i.v. nach N (0, 1). Ist det(Σ) > 0, so hat die Verteilung L(X) eine Dichte f bezüglich des LebesgueMaßes λn auf Rn mit f (x) = p

(2π)n

1 p

  1 exp − (x − µ)T Σ−1 (x − µ) 2 det(Σ)

Beweis: Für eine beliebige Borelmenge A ⊂ Rn gilt P (X ∈ A) = P (µ + QY ∈ A) = P (Y ∈ Q

−1

(A − µ)) =

Z

für x ∈ Rn .

g(y) dy Y ∈Q−1 (A−µ)

12

Kapitel 2: Die mehrdimensionale Normalverteilung

mit g(y) =

n Y y2 1 √ e− i /2 , 2π i=1

da Y1 , . . . , Yn unabhängig verteilt sind. Mit der Transformationsformel für Lebesgue-Integrale folgt Z 1 g(Q−1 (x − µ)) P (X ∈ A) = dx | det(Q)| A Z   1 1 g Σ− /2 (x − µ) dx = p det(Σ) A   Z 1 1 −1 = p exp − (x − µ)Σ (x − µ) dx. 2 2 (2π)n det(Σ) A Korollar 2.5 Sei X n-dimensional normalverteilt. Die Komponenten X1 , . . . , Xn sind genau dann unabhängig, wenn Kov(X) Diagonalgestalt hat. Beweis: Sei Rg(Σ) = n, so ist   2 σ   1   .. Σ=  .   2 σn



  mit σi2 > 0 und Σ−1 =  

σ1−2

..



. σn−2

  . 

Mit dem vorangehenden Satz folgt, dass die Verteilung von X eine λn -Dichte f der Gestalt ( ) n 1 1 X (xi − µi )2 p f (x) = p exp − 2 2 σi2 (2π)n σ12 · · · σn2 i=1 =

n Y i=1

q

1

2π σi2

− 12

e

(xi −µi ) 2 σ2 i

hat. Da die Dichte in ein Produkt von Wahrscheinlichkeitsdichten zerfällt, ist P X ein Produktmaß und X1 , . . . , Xn sind stochastisch unabhängig. 2

Kapitel 3

Grundlegendes Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und I ⊂ [0, ∞) eine Indexmenge. Definition 3.1 1) Sei X = (Xt ; t ∈ I) mit Xt F-meßbare Zufallsvariable für t ∈ I. X heißt stochastischer Prozess. Die Abbildung t → Xt (ω) für ω ∈ Ω heißt Pfad des stochastischen Prozesses. 2) Sei {t1 , . . . , tn } ⊂ I. Die Verteilung P (Xt1 ,...,Xtn ) von (Xt1 , . . . , Xtn ) unter P heißt endlichdimensionale Randverteilung von X. Bemerkung 3.2 In der Vorlesung wird der Parameter t stets die Rolle eines Zeitpunktes übernehmen. Man kann I allgemeiner als eine beliebige Indexmenge auffassen. Beispielsweise I = R3 und (x, y, z) 7→ X(x,y,z) (ω) so interpretieren, dass dem Raumpunkt (x, y, z) die zufällig realisierte Temperatur X(x,y,z) (ω) zugeordnet wird. Beispiel 3.3 1. Eine symmetrische Irrfahrt: Zu einer u.i.v. Folge (Yi )i≥1 von Zufallsvariablen mit   +1 mit W -keit 1/2 Yi =  −1 mit W -keit 1/2 definiert Xn :=

Pn

i=1 Yi ,

n ∈ I = {1, 2, 3, . . .} einen stochastischen Prozess.

2. Seien die Zufallsvariablen Ti , i ≥ 1 unabhängig und exponentialverteilt zum Parameter λ P (d.h. P (Ti > t) = e−λt ). Sei S0 = 0 und Sn := ni=1 Ti . Dann definiert Xt := max{n ≥ 0 | repla ements Sn ≤ t} einen stochastischen Prozess zur Indexmenge I = R+ . PSfrag t 7→ Xt (ω) 3 2 1

T2 (ω)

T1 (ω)

Abbildung 3.1

13

T3 (ω)

t

14

Kapitel 3: Grundlegendes

Definition 3.4 Eine Familie (Ft ; t ∈ I) von Unter-σ-Algebren von F heißt eine Filtrierung zu einem W -Raum (Ω, F, P ), falls für s, t ∈ I, s ≤ t stets Fs ⊂ Ft gilt. Ein stochastischer Prozess (Xt ; t ∈ I) heißt an die Filtrierung (Ft ; t ∈ I) adaptiert, falls Xt Ft -messbar ist für alle t ∈ I. Mit (Xt , Ft ; t ∈ I) bezeichnen wir stets einen an die Filtrierung (Ft ; t ∈ I) adaptierten Prozess. Definition 3.5 Ein stochastischer Prozess (Xt , Ft ; t ≥ 0) heißt Poisson-Prozess zum Parameter λ, falls gilt: i) X0 = 0. ii) Für 0 ≤ s < t ist die σ-Algebra σ(Xt − Xs ) unabhängig von Fs . iii) Für 0 ≤ s < t ist (Xt − Xs ) Poisson-verteilt zum Parameter λ(t − s). Poisson-Prozesse sind bereits in Wahrscheinlichkeitstheorie II behandelt worden. Beispiel 3.3.2 gibt eine Konstruktion an. Definition 3.6 Ein stochastischer Prozess (Xt , Ft ; t ∈ I), I ⊂ (0, ∞) heißt Submartingal, falls gilt i) EXt+ < ∞ für alle t ∈ I und ii) E(Xt | Fs ) ≥ Xs für t > s. (Xt , Ft ; t ∈ I) heißt Supermartingal, falls −X Submartingal ist und Martingal, falls (Xt , Ft ; t ∈ I) sowohl Sub- als auch Supermartingal ist. Beispiele 3.7 Sei (Xt , Ft ; t ≥ 0) ein Poisson-Prozess mit Intensität λ. Dann sind 1) (Yt , Ft ; t ≥ 0) mit Yt := Xt − λt und 2) (Zt , Ft ; t ≥ 0) mit Zt := Yt2 − λt Martingale. Definition 3.8 Ein stochastischer Prozess X = (Xt , t ≥ 0) heißt Gaußscher Prozess, falls für alle n ≥ 1 und 0 < t1 < . . . < tn der Vektor (Xt1 , . . . , Xtn ) n-dimensional normalverteilt ist. t 7→ µ(t) = EXt heißt Mittelwertfunktion und (t, s) 7→ Γ(t, s) = Kov(Xs , Xt ) heißt Kovarianzfunktion von X. Definition 3.9 Ein stochastischer Prozess X = (Xt , t ≥ 0) heißt Brownsche Bewegung (mit Drift 0), falls 1. X0 = 0, 2. für n ≥ 1 und 0 ≤ t0 < t1 < . . . < tn sind (Xti − Xti−1 ) für i = 1, . . . , n stochastisch unabhängig und 3. L(Xt − Xs ) = N (0, t − s) für t > s.

15 Satz 3.10 Ein Gaußscher Prozess X ist genau dann Brownsche Bewegung, wenn die Mittelwertsfunktion µ(t) = 0 und die Kovarianzfunktion Γ(s, t) = s ∧ t ist. Zeige, dass ein Gaußscher Prozess mit µ(t) = 0 und Γ(s, t) = s ∧ t Brownsche Bewegung ist. Die Umkehrung ist eine Übungsaufgabe. Beweis: Seien t0 < t1 < . . . < tn gegeben mit ti ∈ I. Dann erhält man den Zufallsvektor Z := (Xt1 − Xt0 , . . . , Xt0 − Xtn−1 ) durch lineare Transformation aus (Xt0 , . . . , Xtn ). Letzterer ist nach Definition n-dimensional normalverteilt. Wegen Bemerkung 2.2 gilt dies auch für Z. Es bleibt zu zeigen, dass die Zuwächse Zi := Xti − Xti−1 für i = 1, . . . , n unabhängig sind. Nach Korollar 2.5 genügt es nachzuweisen, dass Kov((Z1 , . . . , Zn )T ) Diagonalgestalt hat: Sei s < t ≤ v < w, dann ist E(Xt − Xs )(Xw − Xv ) = EXt Xw − EXt Xv − Xs Xw + EXs Xv = t∧w−t∧v−s∧w+s∧v

= t−t−s+s

= 0. Für t > s gilt außerdem

EXs Xt = EXs (Xt − Xs ) + EXs2 = EXs E(Xt − Xs ) + EXs2 = s = s ∧ t. 2 Im Folgenden wollen wir eine Brownsche Bewegung konstruieren. In der Definition 3.9 für die Brownsche Bewegung wurden im Wesentlichen die endlichdimensionalen Randverteilungen des Prozesses festgelegt. Wir werden nun untersuchen, unter welchen Voraussetzungen man zu einer gegebenen Familie von W -Maßen auf (RI , B I ) einen stochastischen Prozess konstruieren kann, der diese vorgegebenen W -Maße als Randverteilungen besitzt.

16

Kapitel 3: Grundlegendes

Kapitel 4

Zur Existenz stochastischer Prozesse Notation 4.1 Sei I ⊂ [0, ∞) und RI = {ω = (ωt ; t ∈ I) | ωt ∈ R} die Menge der reellwertigen Funktionen auf I. Eine n-dimensionale Zylindermenge in RI ist eine Menge C mit C = {ω ∈ RI | (ωt1 , . . . , ωtn ) ∈ A} mit ti ∈ I für i = 1, . . . , n und A ∈ B n . Weiterhin sei C die Algebra der endlichdimensionalen Zylindermengen und sei B I := σ(C). Sei weiter T = {t∼ = (t1 , . . . , tn ) | ti ∈ I, n ≥ 1} die Menge aller endlichen Tupel aus I (man beachte, dass die Tupel nicht geordnet sein müssen). Für ∼t = (t1 , . . . , tn ) sei Q∼t ein W -Maß auf (Rn , B n ).

Definition 4.2 Eine Menge {Q∼t , ∼t ∈ T } von endlich-dimensionalen W -Maßen heißt konsistent,

falls gilt:

a) Entsteht ∼s = (ti1 , . . . , tin ) durch Permutation von t = (t1 , . . . , tn ), so gilt für beliebige Ai ∈ B und i = 1, . . . , n

Q∼s (Ai1 × Ai2 × . . . × Ain ) = Q∼t (A1 × . . . × An ). b) Sei n ≥ 1 beliebig. Wenn ∼t = (t1 , . . . , tn ) und ∼s = (t1 , . . . , tn−1 ) sind und A ∈ B n−1 ist, dann ist

Q∼t (A × R) = Q∼s (A). Die Bedingung a) rührt daher, dass wir ungeordnete Tupel (t1 , . . . , tn ) zulassen. Dies dient lediglich zur Vereinfachung der Notation. Wesentlich dagegen ist Bedingung b), die auch Verträglichkeitsbedingung oder Projektionseigenschaft genannt wird. Beispiel 4.3 Sei I = [0, ∞) und X = (Xt ; t ∈ I) ein stochastischer Prozess auf (Ω, F, P ). Für A ∈ B n sei Q∼t (A) = Q(t1 ,...,tn ) (A) = P ((Xt1 , . . . , Xtn ) ∈ A), für ∼t = (t1 , . . . , tn ) mit ti ∈ I. Dann ist die Menge {Q∼t ; ∼t ∈ T }, der endlich-dimensionalen Randverteilung, konsistent.

17

18

Kapitel 4: Zur Existenz stochastischer Prozesse

Satz 4.4 (Konsistenzsatz von Kolmogorov) Sei {Q∼t , ∼t ∈ T } eine konsistente Menge endlich-dimensionaler W -Maße. Dann existiert ein eindeutig bestimmtes W -Maß Q auf (RI , B I ), so dass gilt, Q∼t (A) = Q({ω ∈ RI | (ωt1 , . . . , ωtn ) ∈ A}) für A ∈ B n und ∼t = (t1 , . . . , tn ). Bemerkung 4.5 In der Wahrscheinlichkeitstheorie II heißt eine konsistente Menge von Wahrscheinlichkeitsmaßen projektive Familie und das Maß Q projektiver Limes . Theorem 4.7 sichert dort dessen Existenz. Bemerkung 4.6 Das Maß Q wird durch die Q∼t , ∼t ∈ T auf C festgelegt. C ist Algebra und

damit ist Q durch den Eindeutigkeitssatz festgelegt. Beweis: Für ∼t ∈ T mit ∼t = (t1 , . . . , tn ) setze

Q(C) := Q∼t (A), falls C = {ω ∈ RI | (ωt1 , . . . , ωtn ) ∈ A}. Dann ist Q eine additive Mengenfunktion auf C mit Q(RI ) = 1. Wir zeigen die ∅-Stetigkeit von Q auf B, denn dann existiert nach dem Fortsetzungssatz eine eindeutige Fortsetzung auf BI . (Zur Erinnerung: Q ist ∅-stetig, falls für jede Folge (Ck ; k ≥ 1) aus C mit Ck−1 ⊂ Ck für alle n k ≥ 1 und mit ∩∞ k=1 Ck = ∅ gilt limn→∞ Q(∩k=1 Ck ) = 0.) Wir zeigen dies durch Widerspruch. Sei (Ck ; k ≥ 1) absteigende Folge wie oben. Wir nehmen an, limk→∞ Q(Ck ) = α > 0. Es gilt Ck = {ω ∈ RI | (ωt1 , . . . , ωtmk ) ∈ Amk } mit Amk ∈ B mk , wobei ∼t mk = (t1 , . . . , tmk ). Da Ck+1 ⊂ Ck , ist entweder Amk+1 ⊂ Amk oder ∼t mk+1 ist eine Erweiterung von ∼t mk und Amk+1 ⊂ Amk × Rmk+1 −mk .

Somit können wir die Folge (Ck ; k ≥ 1) in eine Folge (Dm ; m ≥ 1) einbetten mit Ck = Dmk . Die Folge (Dm ; m ≥ 1) kann so gewählt werden, dass Dm = {ω ∈ RI | (ωt1 , . . . , ωtm ) ∈ Am } mit Am ∈ B m und Dm+1 ⊂ Dm für alle m ≥ 1 ist. Dann gilt \ \ Ck = Dm = ∅. k≥1

m≥1

Aus der inneren Regularität von Borel-Maßen auf (Rn , B n ) lässt sich folgern, dass zu Am eine kompakte Menge Km existiert mit Q∼t m (Am \Km )


α 2m .

e m 6= ∅ für alle m ≥ 1 und wegen der Kompaktheit der K e m folgt ∩m≥1 K e m 6= ∅ und Es folgt K e somit auch ∩m≥1 Em 6= ∅. Wir führen diese Argumentation ausführlich durch: (m) (m) e 1 kompakt ist, e m für m ≥ 1, dann ist x(m) ∈ K e 1 für alle m ≥ 1. Da K Sei (x1 , . . . , xm ) ∈ K 1 (m ) k existiert eine konvergente Teilfolge (x , k ≥ 1) mit Limes x1 ∈ K1 . (mk ) (mk ) e Nun ist (x1 , x2 ) ∈ K2 für alle k ∈ N und es existiert wiederum eine konvergente Teilfolge e 2. mit Limes (x1 , x2 ) ∈ K So fortfahrend erhält man eine Folge (x1 , x2 , . . .) ∈ RN , die in ∩∞ i=1 Ki liegt. Sei nun S = {ω ∈ em ⊂ Em ⊂ Dm für alle m ∈ N im Widerspruch zu RI | ωti = xi , i = 1, 2, . . .}, dann ist S ⊂ E ∩m≥1 Dm = ∅. 2 Bemerkung 4.7 Durch die Koordinatenabbildungen Xt (ω) := ωt , t ∈ I wird ein stochastischer Prozess (Xt ; t ∈ I) auf dem W -Raum (RI , B I , Q) definiert. Dies ist der sog. kanonische Prozess. Die Verteilungen {Q∼t ; ∼t ∈ T } sind die endlichdimensionalen Randverteilungen von

X: Q((Xt1 , . . . , Xtn ) ∈ A) = Q∼t (A) für ∼t = (t1 , . . . , tn ). Folglich ist Q das Maß, das die vorgegebenen Randverteilungen annimmt.

4.1

Konstruktion einer Brownschen Bewegung auf RI

Für ω ∈ R[0,∞) setze Xt (ω) = ωt , t ≥ 0. Wegen der Definition der Brownschen Bewegung (3.9) muss die gemeinsame Verteilungsfunktion F von (Xs1 , . . . , Xsn ) für 0 ≤ s1 < . . . < sn wie folgt sein: Z xn Z x1 p(0, y1 ; s1 ) p(y1 , y2 , s2 − s1 ) ... F(s1 ,...,sn ) (x1 , . . . , xn ) = (4.1) −∞ −∞ . . . p(yn , yn−1 ; sn − sn−1 ) dyn . . . dy1 für (x1 , . . . , xn )T ∈ Rn mit p(x, y; t) =

(y−x) √ 1 e− 2t 2πt

2

. Für ∼s = (s1 , . . . , sn ) sei Q∼s das durch

F∼s bestimmte W -Maß auf Rn . Der Konsistenzsatz von Kolmogorov liefert nun auf (RI , B I )

ein Maß Q, unter dem der kanonische Prozess die endlich-dimensionalen Randverteilungen 4.1 annimmt. Dieser ist offenbar eine Brownsche Bewegung nach Definition 3.9.

20

Kapitel 4: Zur Existenz stochastischer Prozesse

Die Verträglichkeitsbedingung ergibt sich folgendermaßen: Seien 0 ≤ s1 < s2 < . . . < sn . P (Xs1 ∈ A1 , . . . , Xsn ∈ An ) Z Z p(0, y1 ; s1 ) p(y1 , y2 ; s2 − s1 ) . . . p(yn−1 , yn ; sn − sn−1 ) dyn . . . dy1 ... = An

A1

P (Xs1 ∈ A1 , . . . , Xsi−1 ∈ Ai−1 , Xsi ∈ R, Xsi+1 ∈ Ai+1 , Xsn ∈ An ) =

=

=

Z

Z Z

...

Z

Ai−1

A1

...

Z

Ai−1

A1

Z Z R

Z

...

Ai+1

... Ai+1

Z

Z

An

p(0, y1 ; s1 ) . . . p(yn−1 , yn ; sn − sn−1 ) dyn . . . dy1

p(0, y1 ; s1 ) . . . An

Z

R

p(yi−1 , yi ; si − si−1 ) p(yi , yi+1 ; si+1 − si ) dyi

p(yn−1 , yn ; sn − sn−1 ) dyn . . . dyi+1 dyi−1 . . . dy1 ... A1

Z

Ai−1

Z

... Ai+1

Z

An

p(0, y1 ; s1 ) . . . p(yi−1 , yi+1 ; si+1 − si−1 )

p(yn−1 , yn ; sn − sn−1 ) dyn . . . dyi+1 dyi−1 . . . dy1 = P (Xs1 ∈ A1 , Xsi−1 ∈ Ai−1 , Xsi+1 ∈ Ai+1 , Xsn ∈ An ) Hierbei wurde die Faltungseigenschaft der Normalverteilung verwendet. Es stellt sich nun die Frage, ob wir auch eine Brownsche Bewegung mit stetigen Pfaden konstruieren können. Dies führt zu folgendem Begriff. Definition 4.8 Seien X = (Xt ; t ∈ I) und Y = (Yt ; t ∈ I) stochastische Prozesse auf (Ω, F, P ). Der Prozess X heißt Modifikation von Y , falls P (Xt = Yt ) = 1 für alle t ∈ I. Offensichtlich ist X genau dann ein Modifikation von Y , wenn Y eine Modifikation von X ist. Bemerkung 4.9 1. Ist X Modifikation von Y , so stimmen die endlich-dimensionalen Randverteilungen von X und Y überein: P (Xti = Yti , i = 1, . . . , n) = 1 für alle 0 ≤ t1 < t2 < . . . < tn und alle n ≥ 1. 2. Im Allgemeinen ist bei Modifikationen das Pfadverhalten verschieden. Beispiel 4.10 Sei X ein stochastischer Prozess auf [0, 1] mit P ({ω | t 7→ Xt (ω) ist stetig auf [0, 1)}) = 1, das heißt, die Pfade von X sind fast sicher stetig. Wir setzen   X für T 6= t t Yt :=  Xt + 1 für T = t,

4.1. Konstruktion einer Brownschen Bewegung auf RI

21

wobei T eine gleichverteilte Zufallsvariable auf [0, 1] sei. Dann gilt P (Xt = Yt ) = P (T 6= t) = 1 für alle t ∈ [0, 1]. Aber es gilt P ({ω | t 7→ Yt (ω) ist stetig auf [0, 1]}) = 0. Wir werden nun untersuche, wann man zu einem gegebenen Prozess X eine Modifikation Y konstruieren kann, deren Pfade fast sicher stetig sind. Satz 4.11 Sei X = (Xt ; 0 ≤ t ≤ T ) ein stochastischer Prozess auf (Ω, F, P ) mit E|Xt − Xs |α ≤ c|t − s|1+β für 0 ≤ s, t ≤ T mit α, β, c > 0. Dann existiert eine Modifikation von X, deren Pfade fast sicher stetig sind. Mit Aufgabe 3 gilt für eine N (0, 1)-verteilte Zufallsvariable Y , dass EY 4 = 3. Ist nun X eine s ) = N (0, 1). Daher Brownsche Bewegung, so ist L(Xt − Xs ) = N (0, t − s) und somit L( X√t −X t−s

gilt E(Xt − Xs )4 = 3(t − s)2 und wir erhalten (mit α = 4, c = 3 und β = 1):

Korollar 4.12 Es existiert eine Modifikation der Brownschen Bewegung X = (Xt ; t ∈ [0, T ]) auf (R[0,T ] , B [0,T ] ), deren Pfade fast sicher stetig sind. Beweis zu Satz 4.11: O.B.d.A. setzen wir T = 1. Für ε > 0 liefert die ChebyshevUngleichung c 1 P (|Xt − Xs | > ε) ≤ α E|Xt − Xs |α ≤ α |t − s|1+β . ε ε Daraus folgt für s → t die stochastische Konvergenz von Xs → Xt . −γn mit 0 < γ < β/α in die Ungleichung ein und Wir setzen t = 2kn , s = k−1 2n und ε = 2 erhalten  P |Xk/2n − X(k−1)/2n | ≥ 2−γn ≤ c2−n[(1+β)−αγ) und weiter   2n X −γn P max n |Xk/2n − X(k−1)/2n | ≥ 2 ≤ P (|Xk/2n − X(k−1)/2n | ≥ 2−γn ) 1≤k≤2

k=1 n

≤ 2 c · 2−n[(1+β)−αγ]

≤ c · 2−n(β−αγ) . Damit gilt

X

n≥1

P



max n |Xk/2n − X(k−1)/2n | ≥ 2−γn

1≤k≤2



n > n∗ (ω) gilt (siehe unten) (*)

|Xs (ω) − Xt (ω)| ≤ 2

m X

j=n+1

2−γj , falls t, s ∈ Dm und 0 < t − s < 2−n .

Für alle s, t ∈ D mit 2−(n+1) < t − s < 2−n und n ≥ n∗ (ω) gilt somit |Xs (ω) − Xt (ω)| ≤ 2 ·

∞ X

j=n+1

2−γj = 2 ·

2−(n+1)γ 1 − 2−γ

und folglich ist für ω ∈ Ω∗ (**)

|Xs (ω) − Xt (ω)| ≤

2 ∗ |t − s|γ , falls t, s ∈ D und |t − s| < 2−n (ω) , γ 1−2

das heißt, X ist auf den dyadischen Zahlen D gleichmäßig stetig.

Da die dyadischen Zahlen dicht in [0, 1] liegen, lässt sich X(ω) für ω ∈ Ω∗ stetig auf [0, 1] fortsetzen. Ausführlich geschrieben bedeutet dies, wir definieren für ω ∈ Ω∗   falls t ∈ D,  Xt (ω), e Xt (ω) := Xsn (ω), falls t ∈ [0, 1]\D.   slim n →t sn ∈D

et (ω) = 0 für alle t ∈ [0, 1]. Für ω ∈ / Ω∗ setzen wir X

Die Fortsetzung ist wohldefiniert, da für sn , sm ∈ D wegen (**) für n, m groß genug |Xsn (ω) − Xsm (ω)| ≤ K · |sn − sm |γ

e gilt; also ist (Xsn (ω))n≥1 für sn → t eine Cauchy-Folge in R. Nun gilt auch (∗∗) für X.

e eine Modifikaton von X ist. Wir zeigen nun, dass X et (ω) = Xt (ω) für ω ∈ Ω∗ , dass X et = Xt fast sicher ist. Für t ∈ [0, 1]\D Für t ∈ D gilt mit X sei (sn )n≥1 ⊂ D mit sn → t für n → ∞. Dann folgt Xsn → Xt stochastisch und nach et fast sicher. Konstruktion gilt Xsn → X

Wählen wir nun eine Teilfolge von (sn )n≥1 , so dass Xsni → Xt fast sicher konvergiert, so folgt et ) = 1. mit der Eindeutigkeit des Limes P (Xt = X

Wir weisen nun durch Induktion über m ≥ n die Ungleichung (*) nach.

Ist m = n+1 und |t−s| < 2−n , so ist t = k ·2−m und s = (k −1)2−m und (*) gilt offensichtlich, da ω ∈ Ω∗ .

Sei (*) für m = n + 1, . . . , M − 1 nachgewiesen und sei s, t ∈ DM mit s < t. Wir setzen t1 = max{u ∈ DM −1 ; u ≤ t} und s1 = min{u ∈ DM −1 ; u ≥ s}, dann gilt s < s1 < t1 < t und s1 − s ≤ 2−M sowie t − t1 ≤ 2−M . Wegen ω ∈ Ω∗ gilt |Xs1 (ω) − Xs (ω)| ≤ 2−γM und |Xt1 (ω) − Xt (ω)| ≤ 2−γM sowie |Xt1 (ω) − P −1 −γj Xs1 (ω)| ≤ 2 · M , letzteres nach Induktionsannahme. Mit der Dreiecksungleichung j=1 2 folgt nun (*) für m = M . 2

4.1. Konstruktion einer Brownschen Bewegung auf RI Bemerkung 4.13 Wegen (**) gilt   P

sup

∗ 0 εn ) = P (max0≤l≤2n | 2l−1,n+1 n 2 /2+1 P2n−1 |ξ | > εn ) ≤ l=1 P ( 2l−1,n+1 n +1 22

n

= 2n P (|ξ2l−1,n+1 | > εn 2 2 +1 ) R∞ 2 n ≤ 2n+1 an √12π e−z /2 dz ( mit an := εn 2 /2+1 ) 2

1 ≤ 2n+1 √2πa e−an /2 n

=

2 n+1 n √1 2 /2 ε−1 e−εn 2 n 2π

=: βn

Im vorletzten Schritt haben wir die Beziehung 1 − Φ(z) ≤

1 ϕ(z) für z ∈ R z

für die Verteilungsfuntion Φ der Standard-Normalveteilung ausgenutzt. Für εn := 2−n/4 folgt P P 3/4n e−2n/2+1 auch √1 n≥1 εn < ∞ und wegen βn = 2π 2 n≥1 βn < ∞, das heißt X

n≥1

P ( max |Xn+1 (t) − Xn (t)| > εn ) < ∞. 0≤t≤1

Mit dem Lemma von Borell-Cantelli gilt P (Ω∗ ) = 1 für [ \ Ω∗ := { max |Xn+1 (t) − Xn (t)| < εn }. m≥0 n≥m

0≤t≤1

28

Kapitel 5: Konstruktion der Brownschen Bewegung nach P. Lévy

Das heißt, für jedes ω ∈ Ω∗ existiert ein m∗ (ω), so dass für alle n ≥ m∗ (ω) max |Xn+1 (t, ω) − Xn (t, ω)| < εn .

0≤t≤1

gilt und Behauptung 5.2 ist gezeigt. P εn < ∞ ist, ist Xn (·, ω) eine Cauchy-Folge in C[0, 1]. Da n≥1

  lim n→∞ Xn (t, ω) Sei X(t, ω) :=  0

für ω ∈ Ω∗

für ω 6∈ Ω∗ ,

so ist (X(t), 0 ≤ t ≤ 1) stetig, d. h. alle Pfade des Prozesses sind stetig.

2

Behauptung 5.3 (X(t), 0 ≤ t ≤ 1) hat unabhängige Zuwächse mit L(X(t)−X(s)) = N (0, t− s) für t > s. Beweis zu Behauptung 5.3: Sei 0 ≤ t0 < t1 < . . . < tk ≤ 1 und seien (tnj )n≥1 dyadische Approximationen von tj , j = 0, . . . , k von links. Dann ist     k k   X  X  λj (X(tj ) − X(tj−1 )) E exp i λj lim X(tnj ) − X(tnj−1 ) = E exp i n→∞     j=1 j=1   k  X  = lim E exp i λj X(tnj ) − X(tnj−1 ) n→∞   j=1

=

=

=

lim

n→∞

lim

n→∞ k Y

j=1

k Y

j=1 k Y

j=1

  E exp iλj X(tnj ) − X(tnj−1 )    1 n n exp − λj tj − tj−1 2

  1 2 exp − λj (tj − tj−1 ) . 2

Die rechte Seite ist die Charakteristischen Funktion einer k-dimensional normalverteilten Zufallsvariablen mit Erwartungswert 0 und Kovarianzmartrix     

tk − tk−1 0

0 ..

. t1 − t0

    

2

29 Definition 5.4 Ein Gaußscher-Prozess Y = (Yt ; 0 ≤ t ≤ 1) heißt Brownsche Brücke, falls für alle 0 ≤ s, t ≤ 1 a) EYt = 0 und b) Kov(Ys , Yt ) = s ∧ t − s t gilt. Behauptung 5.5 Man beachte, dass Y0 = 0 = Y1 gilt ! Nach Aufgabe 13 ist für eine Brownsche Bewegung X der Prozess X0 (t) := X(t) − tX(1) eine Brownsche Brücke. Demnach liefert die Konstruktion von Lévy für die Brownsche Bewegung auch eine Konstruktion für eine Brownsche Brücke. Fassen wir die Lévy-Kontruktion noch einmal kurz zusammen: Sei h1,0 (t) = t. Für n ∈ N, k ∈ N und ungerade sei   falls |t − 2kn | > 2−h  0 n hk,n (t) = 2− 2 +1 falls t = 2kn   lineare Interpolation für k−1 ≤ t ≤ 2n

k+1 2n

Seien ξk,n , 1 ≤ k ≤ 2n für n ≥ 0 u.i.v. nach N (0, 1)-verteilt. Dann ist die Brownschen Bewegung gegeben durch ∞ X X hk,n (t)ξk,n . X(t) = n=0

k ungerade 1≤k≤2n

Ersetzt man nun alle ξk,n durch 1, so erhält man f (t) =

∞ X

n=0

X

hk,n (t).

k ungerade 1≤k≤2n

Dies ist eine stetige, aber nirgends differenzierbare Funktion, wie sich zum Beispiel durch Exercise (17.20) in Hewitt–Stromberg: „Real and Abstract Analysis“, Springer 1965, ergibt. Man hängt also an jede Zackenfunktion hk,n eine unabhängige normalverteilte Zufallsvariable ξk,n als Faktor an, um die Brownsche Bewegung zu erhalten. Die Menge der nirgends differenzierbaren Funktionen ist unter allen stetigen Funktionen die „große Mehrheit“. Die Menge der stetigen Funktionen, z.B. auf [0, 1], die an irgendeiner inneren Stelle eine rechtsseitige Ableitung haben, ist eine nirgends dichte Menge von C[0, 1] (siehe dazu Hewitt–Stromberg, S. 260). Um die Brownsche Bewegung auf [0, ∞) zu erklären, seien (Xi ; i ≥ 1) unabhängige Kopien von Brownschen Bewegungen auf [0, 1]. Sei   X1 (t) für 0 ≤ t ≤ 1      X (1) + X (t − 1) für 1 ≤ t ≤ 2 1 2 X(t) =  ...      X (1) + · · · + X (1) + X für n ≤ t ≤ n + 1 1 n n+1 (t − n)

Dann ist (X(t); 0 ≥ t < ∞) eine Brownsche Bewegung auf [0, ∞).

30

Kapitel 5: Konstruktion der Brownschen Bewegung nach P. Lévy

Kapitel 6

Pfadeigenschaften der Brownschen Bewegung In diesem Kapitel ist mit Brownscher Bewegung stets eine stetige Version der Brownschen Bewegung ohne Drift gemeint und diese wird mit X = (X(t); t ≥ 0) bezeichnet.

Transformationseigenschaften der Brownschen Bewegung auf [0, ∞) 1) X1 (t) := −X(t) ist Brownsche Bewegung auf [0, ∞). 2) Für festes s > 0 ist X2 (t − s) := X(t) − X(s) eine Brownsche Bewegung auf [s, ∞). √ 3) Für jede Konstante a > 0 ist X3 (t) := aX(t/a) eine Brownsche Bewegung auf [0, ∞). 4) Sei X4 (t) := t X(1/t) für t > 0 und X4 (0) = 0. Dann ist X4 Brownsche Bewegung auf [0, ∞). Satz 6.1 (Dvoretzky - Erdös - Kakutani) Mit Wahrscheinlichkeit 1 gilt, dass jeder Pfad der Brownschen Bewegung nirgends differenzierbar ist. (D.h. für fast alle ω ∈ Ω ist der Pfad t → X(t)(ω) nirgends differenzierbar) Beweis: Sei β > 0 und sei f ∈ C([0, 1]) im Punkt 0 < s < 1 differenzierbar mit |f ′ (s)| ≤ β. Dann gilt |f (t) − f (s)| ≤ 2β|t − s| für |t − s| hinreichend klein. Sei Aβn = {ω| |X(s)(ω) − X(t)(ω)| ≤ 2β|t − s|, falls |t − s| ≤ n2 für ein 0 < s < 1}. Dann ist die Folge (Aβn )n≥1 aufsteigend. S Setzen wir nun Aβ := n∈N Aβn , so enthält Aβ alle Pfade, die in einem Punkt s ∈ (0, 1) eine Ableitung besitzen, deren Absolutbetrag kleiner oder gleich β ist. Sei ω ∈ Aβn und wählen wir k so, dass nk ≤ s ≤ k+1 n . Für i = 0, 1, 2 gilt dann         k + i k + i − 1 k + i k + i − 1 X ≤ X −X − X(s) + X(s) − X n n n n   k + i k + i − 1 − s + s − ≤ 2β n n ≤ 8β/n. 31

32

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

       k+1 k k+1 k k−1 , X , X − X − X − X und Sei Yk := max X k+2 n n n o n n n n β 8β Bn = ω ∃k mit 1 ≤ k ≤ n − 2 mit Yk ≤ n , so ist An ⊂ Bn für alle n ≥ 1 und da die Mengen (Aβn )n≥1 aufsteigen, gilt P (Aβ ) = limn→∞ P (Aβn ) ≤ limn→∞ P (Bn ). Wir zeigen nun, P (Bn ) → 0 für n → ∞. Es ist P (Bn ) ≤ = = = = = ≤ = =



   8β 8β P Yk ≤ ≤ nP Y1 ≤ n n k=1               3 2 1 2 1 8β , X , X nP max X −X −X ≤ n n n n n n 3    1 8β ≤ nP X n n 3  8β |X(1)| √ ≤ nP n n   8β 3 nP |X(1)| ≤ √ n !3   Z a Z 8β/√n 2a ϕ(x)dx ϕ(x)dx ≤ √ da n für a → 0 √ 2π −a −8β/ n   32β 1 3 n √ √ für n → ∞ 2π n   1 3 √ n K n 3 √ K / n → 0 für n → ∞. n−2 X

Damit ist P (Aβ ) = 0. Da β > 0 beliebig ist, können wir eine Folge (βn )n≥1 mit limn→∞ βn = ∞ 2 wählen und schließen, dass P (∪n≥1 Aβn ) = 0 ist, womit die Behauptung gezeigt ist. Wir untersuchen nun das Pfadverhalten der Brownschen Bewegung nahe 0 und nahe ∞. Der folgende Satz wird als Gesetz vom iterierten Logarithmus für die Brownsche Bewegung bezeichnet. Satz 6.2 Es gilt 1.

2.

X(t) =1 lim sup p 2t log log(1/t) t→0 lim inf p t→0

X(t) = −1. 2t log log(1/t)

Mit Zeitinversion (siehe Eigenschaft 4) ) folgt

33 Satz 6.3 Es gilt 1.

X(t) lim sup √ =1 2t log log t t→∞

2.

lim inf √ t→∞

X(t) = −1 . 2t log log t

Als Folgerung sehen wir, dass die Menge der asymptotischen Häufungspunkte von t 7→ für t → ∞ das Intervall [−1, 1] ist.

√ X(t) 2t log log t

Lemma 6.4 Sei (Zt , Ft , ; t ≥ 0) Submartingal mit stetigen Pfaden. Dann gilt P



max Zt ≥ b

0≤t≤t1





EZt+1 . b

Beweis: Es gilt P



max Z kt1 ≥ b

0≤k≤n

n



→P



max Zt ≥ b

0≤t≤t1



für n → ∞

und nach der Doobschen Ungleichung für Submartingale im Diskreten gilt P



max Z kt1 ≥ b

0≤k≤n

n



EZt+1 . ≤ b

Da die rechte Seite nicht von n abhängt, folgt die Ungleichung.

2

Lemma 6.5 Sei (X(s); s ≥ 0) Brownsche Bewegung und Ft = σ(X(s); s ≤ t) für t > 0. Weiter sei   1 2 Zt = exp θX(t) − θ t . 2 Dann ist (Zt , Ft ; t ≥ 0) Martingal mit EZt = 1 für alle t ≥ 0. 1 2 t

Beweis: Es ist Zt = f (t, X(t)) mit f (t, x) = eθx− 2 θ Ef (t, X(t)) = = =

Z



Z−∞ ∞

Z−∞ ∞

−∞

= 1.

f (t, x) √

und

1 x2 /(2t) e dx 2πt

1 − (x−θt)2 2t dx e 2πt 1 2 √ e−y /2 dy (via Substitution y := x − θt) 2π √

34

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

Weiter gilt für s ≤ t



   1 2 E(f (t, X(t))|Fs ) = E exp θ(X(t) − X(s)) − θ (t − s) f (s, X(s)) Fs 2    1 2 = f (s, X(s))E exp θ(X(t) − X(s)) − θ (t − s) 2 = f (s, X(s)) 2

Beweisidee zu Satz 6.2: Sei 0 < α < 1 und tn =

αn ,

dann gilt tn → 0 für n → ∞.



Tangente in tn p

2t log log(1/t)

PSfrag repla ements

tn

t

Abbildung 6.1

Wir wollen die Wahrscheinlichkeit berechnen, dass die Brownsche Bewegung eine um (1 + δ) steilere Gerade als die Tangente im Punkt tn vor tn erreicht oder überschreitet, vgl. Abb. 6.1. Anschließend lassen wir tn ↓ 0 und wenden das Lemma von Borel-Cantelli an. Die Steigung der Tangente an die Kurve ψ im Punkt (t, ψ(t)) beträgt für t → 0 ψ ′ (t) =

1 ψ(t) (1 + o(1)) . 2 t

für t → 0.

Die Gleichung der Tangente im Punkt s ist somit s ψ(t) Λ(t) + sψ ′ (t) ∼ = Λ(t) + 2 t

für t → 0 ,

wobei Λ(t) der y-Achsenabschnitt von ψ ist. Daher ergibt sich für tn = αn und n → ∞ 1 s ψ(αn ) ψ(αn ) + 2 2 αn se = βn + θn 2

Λ(tn ) + sψ ′ (tn ) ∼ =

mit βn = 12 ψ(αn ) und θen =

ψ(αn ) αn .

35

Tangente an ψ

ψ(t)

Λ(t)

θen t

Abbildung 6.2

2 Beweis von Satz 6.2: 1. Schritt: Wir zeigen lim sup X(t) ψ(t) ≤ 1 mit ψ(t) = t→0

p

2t log log(1/t).

Lemma 6.4 und 6.5 liefern       θs θX(s)− 12 θs2 βθ P max X(s) − >β = P max e >e 0≤s≤t 0≤s≤t 2   βθ = P max Zs > e 0≤s≤t

≤ e−θβ EZt = e−θβ .

Wir wählen nun 0 < α < 1 und 0 < δ < 1. Sei θn = (1 + δ)ψ(αn )/αn und βn = ψ(αn )/2. Es ist θn βn = (1 + δ) log log α−n und somit −n

e−θn βn = e−(1+δ) log log α

=

1 1 = . (log α−n )1+δ (log(1/α))1+δ n1+δ

Mit tn = αn−1 folgt P



   θn s > βn ≤ Kα · n−(1+δ) , max X(s) − 0≤s≤tn 2

wobei Kα = (log(1/α))1+δ . Die Summe über die rechte Seite ist endlich und das Lemma von Borel-Cantelli liefert, dass   θn s ≤ βn für alle n ≥ n0 (ω) max X(s) − 0≤s≤tn 2 mit Wahrscheinlichkeit 1 gilt.

36

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

Sei αn ≤ t ≤ αn−1 = tn . Dann ist X(t) ≤ max X(s) ≤ θn tn /2 + βn 0≤s≤tn

Dann folgt X(t) ≤

1+δ 2α

+

1 2



αn−1 + ψ(αn )/2 = (1 + δ)α−n ψ(αn ) 2   1+δ 1 = + ψ(αn ) 2α 2   1+δ 1 + ψ(t). ≤ 2α 2 ψ(t) für alle t ≤ tn0 fast sicher.

Wählen wir α nahe 1 und δ nahe 0, so folgt lim sup X(t) ψ(t) ≤ 1 + ε für alle ε > 0, also ist t→0

lim sup X(t) ψ(t) ≤ 1. t→0

2. Schritt: Wir zeigen nun lim sup X(t) ψ(t) ≥ 1 f.s.. t→0

Sei 0 < θ < 1 und Bn = {X(θ n ) − X(θ n+1 ) ≥ (1 − P (Bn ) = P = P 



θ)ψ(θ n )}. Dann ist ! √ X(θ n ) − X(θ n+1 ) p ≥1− θ 2θ n log log(θ −n ) √ ! 1− θ X(θ n ) − X(θ n+1 ) p ≥√ 1−θ 2θ n (1 − θ) log log(θ −n )



√   X(θ n ) − X(θ n+1 ) 1 − θp   ≥√ 2 log log(θ −n ) = P p n   1−θ θ (1 − θ) {z } |

=

Z

=:aθ



da Var(X(θ n ) − X(θ n+1 )) = θ n (1 − θ)

ϕ(x)dx





aθ ϕ(aθ ) 1 + a2θ



n c1 p exp − (log log(θ −n )) log log(θ −n ) √

(1− θ)2 c2 = √ n− 1−θ log n c2 = √ n−(1−α) mit 0 < α < 1, log n √ √ √ da (1 − θ)2 < (1 − θ)(1 + θ) = 1 − θ. Daraus folgt

X

n≥2

P (Bn ) ≥ c2

X n−(1−α) n≥2

(log n)

1/2

√ !2 o 1− θ √ 1−θ

= ∞.

Die Folge (Bn )n≥1 ist stochastisch unabhängig und das 2. Lemma von Borel-Cantelli liefert P (Bn für unendlich viele n ≥ 2) = 1.

37 Daher gilt fast sicher, dass X(θ n ) ≥ (1 −

√ θ)ψ(θ n ) + X(θ n+1 ) für unendliche viele n ≥ 2.

Andererseits ist bereits nach Schritt 1 bekannt, dass X(θ n+1 ) ≥ −2ψ(θ n+1 ) für alle hinreichend großen n ∈ N gilt. Also ist √ X(θ n ) ≥ (1 − θ)ψ(θ n ) − 2ψ(θ n+1 ) √ √ ≥ (1 − θ − 3 θ)ψ(θ n ) √ = (1 − 4 θ)ψ(θ n ). p p Dabei haben wir verwendet, dass 2θ n+1 log log θ −(n+1) ≤ 1, 5 2θ n log log θ −n . √ n) Somit ist lim sup X(θ ψ(θ n ) ≥ 1 − 4 θ fast sicher und da 0 < θ < 1 beliebig ist, folgt n→∞

lim sup t→0

X(t) ≥ 1. ψ(t)

2

Wir erwähnen nun noch ein Resultat, das in der Aussage schärfer ist als das Gesetz vom iterierten Logarithmus. Ist ψ eine monoton wachsende Funktion auf [0, 1] mit ψ(0) = 0 und sei T0 := inf{t > 0 | X(t) ≥ ψ(t)}. ψ

heißt upper class function,

falls P (T0 > 0) > 0 ist und

ψ

heißt lower class function,

falls P (T0 > 0) = 0.

Nach dem 0 − 1−Gesetz von Blumenthal-Getoor (dessen Beweis erfolgt später!) gilt P (T > 0) = 0 oder P (T > 0) = 1 . KPE-Test: Der Kolmogorov-Petrovski-Erdös-Test besagt, dass   Z δ ψ(t) ψ(t) √ ϕ P (T > 0) = 1 genau dann gilt, wenn dt < ∞ für ein δ > 0. 3/2 t 0 t √ Voraussetzen muss man dabei noch, dass ψ stetig und ψ(t)/ t fallend ist. (Siehe Itô-McKean, S. 33.) Bemerkung: Der KPE-Test impliziert das Gesetz des iterierten Logarithmus. Weitergehendes Beispiel: Sei s   3 −1 −1 −1 ψε (t) = 2t (log2 t ) + (log3 t ) + (1 + ε) log 4 (t ) mit logn (t) := log logn−1 (t) . 2 Dann ist ψ0 (t) lower class function und ψε (t) ist upper class function, falls ε > 0.

38

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

Wir formulieren nun den Stetigkeitssatz von Lévy, der eine ähnliche Aussage trifft wie Satz 6.2; nur kann X(s) frei variieren. Satz 6.6 (Satz von Lévy) Für die Standard Brownsche Bewegung gilt fast sicher |X(t) − X(s)| lim sup max p =1 0≤s 0 .



für |t − s| hinreichend klein.

Beweis von Satz 6.6: Wir zeigen lediglich |X(t) − X(s)| ≥ 1. lim sup max p 0≤s 0 und sei Jn := P mit h(γ) =

p



      k k−1 −n max n X − X ≤ (1 − δ)h(2 ) 1≤k≤2 2n 2n

2γ log(1/γ). Es gilt 2n Jn = P X(1/2n ) ≤ (1 − δ)h(2−n ) 2n  p p = P X(1/2n )/ 1/2n ≤ (1 − δ) 2 log 2n !2n Z =

1−



|

ϕ(x)dx {z }

√ (1−δ) 2 log 2n =:In 2n

= (1 − In ) n

≤ e−In 2 . Dabei ist 2n In = 2n n

≥ 2

Z



an an 2 an +

ϕ(x)dx 1

ϕ(an )

p mit an = (1 − δ) 2 log 2n

K1 2 n √ e−(1−δ) log 2 (1 − δ) 2 log 2n K2 2 = 2n √ 2−n(1−δ) n K2 [1−(1−δ)2 ]n = √ 2 n K2 nδ ≥ √ 2 , n

≥ 2n

39 nδ



da (1 − δ)2 < (1 − δ) für 0 < δ < 1. Also ist Jn < e−2 K2 / n und somit dem Lemma von Borel-Cantelli folgt      . k k−1 lim sup max n X h(2−n ) ≥ 1 − δ −X n n 1≤k≤2 2 2 n→∞

P

n≥1 Jn

< ∞. Mit

fast sicher für alle δ > 0. Also ist

|X(t) − X(s)| ≥ 1 f.s. lim sup max p 0≤s≤t 2γ log(1/γ) γ→0 t−s≤γ

Für “≤ 1” siehe etwa Seite 115, Karatzas, Shreve: “Brownian motion and stochastic calculus”. 2 Wir wollen nun noch angeben, wie man das Gesetz vom iterierten Logarithmus allgemein beweist. Dazu benötigen wir das folgende für sich interessante Resultat. R Satz R6.7 (Skorokhod-Einbettung) 1. Sei F Verteilungsfunktion mit xF (dx) = 0 und x2 F (dx) = σ 2 . Zu einer Brownschen Bewegung X = (Xt ; t ≥ 0) existiert eine Stoppzeit T , so daß XT nach F verteilt ist. 2. Seien Y1 , Y2 , . . . u.i.v. Zufallsvariablen mit EY1 = 0 und EY12 = σ 2 < ∞. Sei P Sn = ni=1 Yi und S0 = 0. Dann existiert ein Wahrscheinlichkeitsraum, auf dem eine Brownsche Bewegung (X(t); t ≥ 0) erklärt ist und eine Folge nicht negativer Zufallsvariablen T1 , T2 , . . ., so dass für Sen := X(T1 + T2 + . . . + Tn ) gilt, dass Außdem ist ET1 = σ 2 .

L(Sen ; n ≥ 0) = L(Sn ; n ≥ 0) .

Die T1 , T2 , . . . sind Stoppzeiten, wie sich später herausstellen wird. (Sen ; n ≥ 1) ist die in die Brownsche Bewegung eingebettete Folge. e −X(t) S √ [t] t→∞ 2t log log t

Satz 6.8 Für die Folge (Sen ; n ≥ 0) gilt lim

= 0 fast sicher.

Ohne Beweis.

Korollar 6.9 Seien Y1 , Y2 , . . . u.i.v. mit EY1 = 0 und EY12 = σ 2 < ∞. Dann gilt lim sup √ n→∞

Sn = 1. 2n log log n e

Sn Beweis zu Korollar 6.9: Es ist lim sup √2n log = 1 wegen log n n→∞



X(n) Sen −√ →0 2n log log n 2n log log n

Da L(Sen ; n ≥ 0) = L(Sn ; n ≥ 0), folgt die Behauptung.

für n → ∞ . 2

40

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

Beweis von Satz 6.7, Teil 1.): Sei F Verteilungsfunktion mit R∞ R∞ 2 2 −∞ xF (dx) = 0 und −∞ x F (dx) = σ < ∞. Gesucht ist eine Stoppzeit T für die Brownsche Bewegung mit L(X(T )) = F und ET = σ 2 . Sei µ Maß auf R2 mit µ(da, db) = γ(b − a)F+ (db)F− (da) mit F+ = F |[0,∞) und F− = −F |(−∞,0] sowie Z Z ∞ −1 bF+ (db) = − γ =

0

1 aF− (da) = 2 −∞

0

Z

|x|F (dx) .

Um nun weiter argumentieren zu können, benötigen wir folgendes Lemma. Lemma 6.10 Sei τ = inf{t > 0 | X(t) 6∈ (a, b)}, (inf ∅ =: ∞) mit a < 0 und b > 0. Dann ist τ < ∞ fast sicher und es gilt a) P (X(τ ) = b) =

−a b−a ,

b) Eτ = |a · b|. Wir wählen nun zufällig gemäß der Verteilung µ Zahlen a < 0 < b und stetzen T = inf{t > 0 | X(t) 6∈ (a, b)}. Behauptung 6.11 Dann gilt L(X(T )) = F und ET = σ 2 . Beweis: P (X(T ) ∈ db) = γ = γ

Z

Z

0 −∞ 0 −∞

−a (b − a)F+ (db)F− (da) b−a (−a)F− (da)F+ (db)

= F+ (db) = F (db) wegen Lemma 6.10 a) und nach der Definition von γ. Da die Schranken a, b gemäß der Verteilung µ gewählt sind, ergibt sich mit Lemma 6.10 b) Z ∞Z 0 |a · b|µ(da, db) ET = 0 −∞  Z ∞ Z 0 (b − a)|ab|F− (da) F+ (db) γ = −∞ 0 | {z } =:A

nach Definition von µ. Weiter ist Z A = γ

0

(b − a)(−a)bF− (da)

−∞ Z 0 2

= γb

−∞

= b2 + γb

(−a)F− (da) + γb

Z

0 −∞

a2 F− (da)

Z

0

−∞

a2 F− (da)

41 nach Definition von γ. Wir setzen dies oben ein und erhalten Z 0 Z ∞  a2 F− (da) F+ (db) b2 + γ · b ET = = =

Z

0



Z0 ∞

b2 F+ (db) +

−∞ 0

Z

−∞

a2 F− (da)

x2 F (dx)

−∞

und die Behauptung ist gezeigt.

2

Damit und mit Hilfe der starken Markov-Eigenschaft der Brownschen Bewegung (die bedeutet, dass mit (X(t), t ≥ 0) auch (X(T + t) − X(T ), t ≥ 0) Brownsche Bewegung ist, falls T eine Stoppzeit mit P (T < ∞) = 1 ist) lässt sich Satz 6.7 nun induktiv folgern. Sei T1 = T . Wir haben gezeigt, dass L(X(T1 )) = F und ET1 = σ 2 . Wir wenden diese Konstruktion nun auf (X(T1 + t) − X(T1 ); t ≥ 0) an. Dies liefert eine Stoppzeit T2 , so dass L(X(T1 + T2 ) − X(T1 )) = F und ET2 = σ 2 . Entsprechend liefert die folgende Brownsche Bewegung (X(T1 + T2 + t) − X(T1 + T2 ); t ≥ 0) passend gestoppt die Stoppzeit T3 und so weiter.

2

Im nächsten Kapitel wenden wir uns ausführlich der starken Markov-Eigenschaft der Brownschen Bewegung zu.

42

Kapitel 6: Pfadeigenschaften der Brownschen Bewegung

Kapitel 7

Die Starke Markov-Eigenschaft I Sei (Ω, F, P ) Wahrscheinlichkeitsraum und Ft = σ(X(s); 0 ≤ s ≤ t) für t ≥ 0 sowie F∞ = σ(Ft , t ≥ 0). Weiter sei X = (Xt , t ≥ 0) Brownsche Bewegung auf (Ω, F, P ). Dann gilt für s > 0, dass auch (X(s + t) − X(s); t ≥ 0) Brownsche Bewegung ist. Wir verallgemeinern dies auf Stoppzeiten S anstelle des festen Zeitpunktes s > 0. Definition 7.1 1. Die Abbildung S : Ω → R ∪ {∞} heißt Stoppzeit, falls {S ≤ t} ∈ Ft für alle t > 0 gilt. 2. Die σ-Algebra der S-Vergangenheit FS ist durch gegeben.

FS := {A ∈ F | A ∩ {S ≤ t} ∈ Ft für alle t ≥ 0}

Eigenschaften: 1. Sind S und T Stoppzeiten, so sind auch S ∧ T und S ∨ T sowie S + T Stoppzeiten. 2. Die konstante Zufallsvariable T := t für ein t ≥ 0 ist Stoppzeit und es gilt FT = Ft . 3. Für Stoppzeiten S, T mit S ≤ T gilt FS ⊂ FT . Zum Beweis siehe Aufgabe 23. Wir zeigen nun die starke Markov-Eigenschaft für die Brownsche Bewegung. Satz 7.2 (Starke Markov-Eigenschaft) Sei T Stoppzeit mit P (T < ∞) = 1. Dann ist e e e (X(t), t ≥ 0) mit X(t) = X(T + t) − X(T ) Brownsche Bewegung. Außerdem ist σ(X(t); t ≥ 0) stochastisch unabhängig von FT .

Lemma 7.3 Ist T Stoppzeit der Brownschen Bewegung mit T < ∞, so ist X(T ) FT -messbar. e Bemerkung 7.4 Damit ist (X(t); t ≥ 0) in Satz 7.2 wohldefiniert. 43

44

Kapitel 7: Die Starke Markov-Eigenschaft I (n)

Beweis: Wir zeigen lediglich, dass X(T ) F-messbar ist. Für jedes n ∈ N sei Ak = { k−1 n ≤ P k (n) (T ) Zufallsvariable, denn X 1 . Dann ist X T < nk } und X (n) (T ) = ∞ (n) k=1 n A k

{X (n) (T ) ≤ α} = Sei N ∈ N. Auf {T ≤ N } gilt

∞ [

k=1

n k o\ (n) Ak X ≤α n{z } |{z} | ∈Fk/n

∈F

!

∈ F.

|X (n) (T ) − X(T )| ≤ sup |X(t + h) − X(t)|. 0≤t≤N 1 0 σ(ω).

Dann ist B = (B(t), t ≥ 0) ein stochastischer Prozess mit stetigen Pfaden. Ist etwa σ = inf{t > 0|X(t) ≥ γ(t)} die Stoppzeit bei der X erstmals die Kurve γ überschreitet, so lassen sich die Pfade von B wie folgt darstellen.

t → Xt (ω)

PSfrag repla ements

γ(t)

X(σ)(ω)

t → Bt (ω)

σ(ω)

t

Abbildung 7.1

Der Pfad t 7→ B(t)(ω) stimmt mit t 7→ X(t)(ω) für die Zeitpunkte t ≤ σ(ω) überein, nach σ(ω) verläuft t 7→ B(t)(ω) als der an der Höhe X(σ)(ω) gespiegelte Pfad. Es gilt X(t) = X(σ) + (X(t) − X(σ)) und es ist B(t) = X(σ) − (X(t) − X(σ)) = 2X(σ) − X(t) für t > σ.

46

Kapitel 7: Die Starke Markov-Eigenschaft I

Satz 7.6 Der Prozess B = (B(t); t ≥ 0) ist Brownsche Bewegung. Beweis: Auf der Menge {σ = ∞} gilt B(t) = X(t) für alle t ≥ 0. Daher nehmen wir ohne Einschränkung P (σ < ∞) = 1 an. Sei Xσ (t) = X(t ∧ σ) für t ≥ 0. Dann ist Xσ (t) = X(t) für t < σ und Xσ ist Fσ -messbar. Außerdem ist σ bezüglich Fσ messbar, da {σ ≤ α} ∩ {σ ≤ t} ∈ Ft∧α ⊂ Ft für alle t ≥ 0 und somit {σ ≤ α} ∈ Fσ für alle α ∈ R. Nach Satz 7.2 ist mit X und −X sowohl (X(σ+t)−X(σ); t ≥ 0) als auch (−X(σ+t)+X(σ); t ≥ 0) Brownsche Bewegung und stochastisch unabhängig von Xσ und σ. Damit besitzen die beiden Tripel (σ ; (Xσ (t); t ≥ 0); (X(σ + t) − X(σ); t ≥ 0)) und

(σ ; (Xσ (t); (t ≥ 0)); (−X(σ + t) + X(σ); t ≥ 0))

dieselbe Verteilung. Wegen

  X (t) für t ≤ σ σ X(t) =  Xσ (σ) + (X(t) − X(σ)) für t > σ   X (t) für t ≤ σ σ B(t) =  Xσ (σ) − (X(t) − X(σ)) für t > σ

folgt daher X und B besitzen dieselbe Verteilung.

2

Anwendung: Sei Tb = inf{t > 0 | X(t) ≥ b} mit b > 0. Nach Satz 7.6 erhalten wir für a < b P (Tb ≤ t, X(t) < a) = P (Tb ≤ t, B(t) < a)

= P (Tb ≤ t, 2X(Tb ) − X(t) < a)

= P (Tb ≤ t, X(t) > 2b − a)

= P (X(t) > 2b − a) Z ∞ 1 − x2 √ e 2t dx, = 2πt 2b−a

da mit X(t) > 2b − a auch Tb ≤ t ist. Sei M (t) = max X(s) das laufende Maximum der Brownschen Bewegung, vgl. Abbildung 7.2. 0≤s≤t

M (t) s → X(s)

PSfrag repla ements t

Abbildung 7.2

7.1. Das Reflexionsprinzip

47

Das Maximum M (t) ist genau dann größer oder gleich b, wenn die Brownsche Bewegung die Höhe b zum Zeitpunkt t bereits erreicht hat, also wenn Tb ≤ t gilt. Daher können wir nun mit Hilfe des Reflexionsprinzips die gemeinsame Verteilung des laufenden Maximums und der Brownschen Bewegung angeben. Satz 7.7 Sei t > 0 und a′ ≤ b′ mit b′ > 0. Dann gilt Z b′ Z a′ 2(2b − a) − (2b−a)2 ′ ′ 2t √ da db. P (M (t) ≤ b , X(t) ≤ a ) = e 2πt3 0 −∞ Beweis: Es gilt P (X(t) ≤ a, M (t) > b) = P (X(t) ≤ a, Tb ≤ t) = und somit

Z



2b−a



1 − x2 e 2t dx 2πt

∂ ∂ P (X(t) ≤ a) − P (X(t) ≤ a, M (t) > b) ∂b ∂b 2 − (2b−a)2 2t = −√ e 2πt

∂ P (X(t) ≤ a, M (t) ≤ b) = ∂b

und ∂ ∂ 2(2b − a) − (2b−a)2 2t , P (X(t) ≤ a, M (t) ≤ b) = √ e ∂a ∂b 2πt3 womit der Satz gezeigt ist.

2

Folgerungen: 1) Es ist L(M (t)) = L(|X(t)|) = L(M (t) − X(t)), vgl. Übungsaufgabe 26. 2) Die Dichte ft der gemeinsamen Verteilung von M (t) und M (t)−X(t), also von L(M (t), M (t)− X(t)), ist durch ft (b, c) =

2(b+c) − (b+c) √ e 2t 2πt3

2

gegeben. Dies folgt durch Variablensubstitution.

Eine weitere Anwendung der starken Markov-Eigenschaft: Sei ψ : R+ → R+ stetig und monton mit P (Tψ > 0) = 1, wobei Tψ = inf{t > 0|X(t) ≥ ψ(t)} und F sei die Verteilung von Tψ . Dann gilt     Z t z − ψ(s) z 1−Φ √ F (ds) 1−Φ √ = t−s t 0 für z ≥ ψ(t), die sogenannte Master-Gleichung. Daraus folgt insbesondere mit z = c > 0   c 1 1 − Φ √ = P (Tc ≤ t) 2 t für die Stoppzeit Tc zur konstanten Funktion ψ ≡ c. (Vergleiche Aufgabe 27)

48

Kapitel 7: Die Starke Markov-Eigenschaft I

Kapitel 8

Die starke Markov-Eigenschaft II 8.1

Das Wiener-Maß

Sei C[0, ∞) der Raum der stetigen Funktionen auf [0, ∞). Sei 0 ≤ t1 < t2 < . . . < tk < ∞ mit k ∈ N und sei At1 ,...,tk die kleinste σ-Algebra, bezüglich der die Koordinatenabbildungen Wti (ω) = ωti , 1 ≤ i ≤ k messbar sind.

Sei A die kleinste σ-Algebra bezüglich der alle Koordinatenabbildungen messbar sind.

Aufgrund der Konstruktion in Kapitel 5 existiert ein Maß P0 auf (C[0, ∞), A), so dass (Wt ; t ≥ 0) eine Standard Brownsche Bewegung mit P0 (W0 = 0) = 1 ist. Sei Px (A) := P0 (A − x) für A ∈ A und A − x := {ω x | ω ∈ A} mit ωtx = ωt − x. Dann ist Px (W· ∈ A) = P0 (x+W· ∈ A). Px heißt Wiener-Maß mit Start in x. Die zugehörige Erwartung wird mit Ex bezeichnet. Für s ∈ (0, ∞) sei θs : C[0, ∞) → C[0, ∞) mit (θs ω)t = ωs+t für t ≥ 0. Die Abbildung θs wird als Shift-Operator bezeichnet. Bemerkung 8.1

1. Es ist Ws+t (ω) = Wt (θs ω)

2. Der Shift-Operator θs ist A − A-messbar, denn θs−1 ({ωti ∈ Di , i = 1, . . . , n}) = {ωs+ti ∈ Di , i = 1, . . . , n} mit Di ∈ B. Satz 8.2 Sei Ft = σ(Wu , u ≤ t) und sei s > 0. 1. Ist f : R → R beschränkt und messbar, so ist Ex (f (Wt+s ) | Fs ) = EWs f (Wt ). 2. Sei Y : C[0, ∞) → R beschränkt und A-messbar, dann ist Ex (Y ◦ θs | Fs ) = EWs (Y ). 49

50

Kapitel 8: Die starke Markov-Eigenschaft II

Beweis: Wir zeigen zunächst die erste Aussage des Satzes. 1. Schritt: Sei f beschränkt und messbar, dann gilt Ex f (Wt+s − Ws ) = EWs f (Wt+s − Ws ) , denn mit ϕ(x) =

2 √1 e−x /2 2π

(+)

gilt

√ Ex f (Wt+s − Ws ) = Ef ( tX)

für X ∼ N (0, 1).

Andererseits ist   1 z − Ws √ f (z − Ws ) √ ϕ EWs f (Ws+t − Ws ) = dz t t −∞ √ = Ef ( tX) für X ∼ N (0, 1), Z



damit gilt (+). 2. Schritt: Sei A ∈ Fs , dann ist Z

A

f (Wt+s − Ws )dPx =

Z

1A f (Wt+s − Ws )dPx

= Px (A)Ex f (Wt+s − Ws ) Z Ex f (Wt+s − Ws )dPx = ZA EWs f (Wt+s − Ws )dPx . = A

und damit Ex [f (Wt+s − Ws ) | Fs ] = EWs [f (Wt+s − Ws )].

(8.1)

3. Schritt: Ist g beschränkt und messbar, so gilt Ex (g(Ws , Wt+s − Ws ) | Fs ) = ϕg (Ws ) (∗)   R mit ϕg (x) = g(x, y) √1t ϕ √yt dy. Ist (∗) gezeigt, so folgt Aussage 1) via g(x, y) := f (x + y). Wir zeigen nun (∗). Sei g(x, y) = g1 (x)g2 (y), dann ist

Ex [g(Ws , Wt+s − Ws ) | Fs ] = Ex [g1 (Ws )g2 (Wt+s − Ws ) | Fs ]

= g1 (Ws )Ex [g2 (Wt+s − Ws ) | Fs ]

= g1 (Ws )EWs [g2 (Wt )]   Z y 1 = g1 (Ws ) g2 (y) √ ϕ √ dy. t t

Um nun (∗) auf beliebige beschränkte und messbare Funktionen zu verallgemeinern, bedienen wir uns eines nützlichen Beweisprinzips, dem Theorem über monotone Klassen:

8.1. Das Wiener-Maß

51

Lemma 8.3 Sei A1 ein durchschnittstabiles Mengensystem und H ein Vektorraum von Funktionen mit den folgenden Eigenschaften: i) Ist A ∈ A1 , so ist 1A ∈ H, außerdem ist 1 ∈ H. ii) Ist (fn )n≥1 eine Folge von Funktionen aus H, so dass fn ↑ f punktweise für eine beschränkte Funktion f , dann ist auch f ∈ H. Dann enthält H alle σ(A1 )-messbaren Funktionen. Zum Beweis siehe: Blumenthal and Getoor, Brownian motion and martingales in analysis. Wenden wir nun das Lemma auf unsere Situation an. Sei hierzu A1 = {A×B ⊂ R2 | A, B ∈ B} und H = {g(x, y) | g beschränkt und g erfüllt (∗)}. Dann gilt i) von Lemma 8.3 mit g1 (x) = 1A (x), g2 (y) = 1B (y) für A, B ∈ B

Teil ii) des Lemmas folgt über monotone Konvergenz. Insgesamt ist somit die erste Aussage gezeigt.

Zum Beweis von 2) verallgemeinern wir die Gleichung (∗) auf Funktionen g : Rn → R. 1.Schritt: Sei s = t0 < t1 < . . . < tn und ∆i = Wti − Wti−1 . Sind f1 , . . . , fn beschränkte messbare Funktionen von R und ist A ∈ Fs , so gilt Z Y n n Y fi (∆i )dPx = Px (A)Ex fi (∆i ). A i=1

i=1

Dies zeigt man analog dem 1. Schritt in Teil 1 des Beweises.

2. Schritt: Wieder analog dem 1. Teil des Beweises schließen wir Ex (g(Ws , ∆1 , . . . , ∆n ) | Fs ) = ϕg (Ws ) R Q mit ϕg (z) = g(z, z1 , . . . , zn ) ni=1 pti −ti−1 (zi )dz1 . . . dzn , wobei pt (y) =

1 √ ϕ t



y √

t



(8.2) ist.

3. Schritt: Eine ähnliche Argumentation wie in Teil 1 mit Hilfe von Lemma 8.3 liefert aus (8.2) die Behauptung. 2 Bisher haben wir als Filtrierung stets Ft = σ(Ws ; s ≤ t), die natürliche Filtrierung der Brownschen Bewegung betrachtet. Nun definieren wir eine weitere etwas größere Filtrierung durch \ Fu Ft+ = u>t

Trivialerweise gilt Ft ⊂ Ft+ für alle t > 0. Für F + gilt \\ \ \ Fu = Fu = Fs+ , Ft+ = t>s

d.h. die Filtrierung

F+

t>s u>t

ist rechtsstetig.

u>s

52

Kapitel 8: Die starke Markov-Eigenschaft II

Markov-Eigenschaft auf Ft+ Satz 8.4 Sei f beschränkt und messbar. Dann gilt für alle s, t > 0 und x ∈ R 1. Ex (f (Wt+s ) | Fs+ ) = EWs f (Wt ) 2. Ex [Y ◦ θs | Fs+ ] = EWs Y

Px − f.s.

Px − f.s.

Beweis: Sei s < r < t + s mit t > 0. Für f beschränkt und messbar gilt nach Satz 8.2 Ex (f (Ws+t ) | Fr ) = EWr f (Wt+s−r ). Sei ϕf (x, u) := Ex f (Wu ). 1. Schritt: Sei f stetig und beschränkt. Für A ∈ Fs+ gilt nach der Glättungsregel und Satz 8.2 Teil 1, dass Z Z Z ϕf (Wr , t + s − r)dPx . Ex (f (Wt+s ) | Fr )dPx = f (Wt+s )dPx = A

A

A

Für r ↓ s folgt mit der Dreiecksungleichung und mit majorisierter Konvergenz Z Z ϕf (Ws , t)dPx . ϕf (Wr , t + s − r)dPx → A

A

Insgesamt ist

für A ∈ Fs+ beliebig.

Z

f (Wt+s )dPx = A

Z

ϕf (Ws , t)dPx

(+)

A

2. Schritt: Wir verallgemeinern die Aussage nun mit Hilfe des Theorems über monotone Klassen auf beliebige messbare und beschränkte Funktionen. Sei H die Menge aller messbaren, beschränkten Funktionen, für die die Gleichung (+) gilt und sei A = {A = (a, b) | a < b}.

H ist offensichtlich ein Vektorraum und erfüllt Eigenschaft 2) von Lemma 8.3, wie man mit majorisierter Konvergenz leicht sieht. Ist A ∈ A, so existiert eine aufsteigende Folge stetiger Funktionen (fn )n≥1 mit 1A = limn fn , daher ist auch 1) in Lemma 8.3 gegeben. Anwendung des Lemmas liefert die Aussage. 2 Als Folgerung erhalten wir einen sehr nützlichen Sachverhalt. Satz 8.5 (0-1-Gesetz von Blumenthal) Für alle x ∈ R und alle A ∈ F0+ = ∩u>0 Fu gilt Px (A) = 0 oder Px (A) = 1. Beweis: Für alle A ∈ F0+ gilt nach Satz 8.4  1A = Ex 1A | F0+ = EW0 (1A ) = Ex (1A ) = Px (A)

Px − f.s.

Also ist Px (A) = 1A und es muss entweder Px (A) = 0 oder Px (A) = 1 gelten.

2

8.1. Das Wiener-Maß

53

Anwendungen 1. Sei τ = inf{t > 0 | Wt > 0}. Damit ist P0 (τ = 0) = 1. Denn es ist P0 (τ ≤ t) ≥ P0 (Wt > 0) = 21 für alle t > 0 und somit P0 (τ = 0) = P (∩t>0 {τ ≤ t}) = lim P (τ ≤ t) ≥ 1/2. t→0

Da {τ = 0} ∈ F0+ , folgt mit dem 0 − 1-Gesetz von Blumenthal P0 (τ = 0) = 1. 2. Auch für τ = inf{t > 0 | Wt >

√ t}, gilt P0 (τ = 0) = 1. Denn es ist

P0 (τ ≤ t) ≥ P0 (Wt >



√  t t) = 1 − Φ √ = 1 − Φ(1) > 0 t

und damit P0 (τ = 0) = P (∩t>0 {τ ≤ t}) = lim P (τ ≤ t) ≥ 1 − Φ(1) > 0. t→0

Bisher haben wir die starke Markov-Eigenschaft der Brownschen Bewegung nur in der Form kennengelernt, dass für endliche Stoppzeiten T durch (X(T + t) − X(T ), t ≥ 0) eine neue Brownsche Bewegung definiert wird. Nun wollen wir Satz 8.2 2) auf Stoppzeiten ausdehnen. Hierzu erklären wir zunächst den Shift-Operator für endliche Stoppzeiten durch θS (ω) := θS(ω) (ω) für S(ω) < ∞. Wegen θs (ω)t = ωs+t ist damit θS (ω)(t) = ωS(ω)+t . Satz 8.6 Sei die Abbildung (ω, s) 7→ Ys (ω) beschränkt und A ⊗ B-messbar. Ist S eine F + -messbare Stoppzeit, so gilt für alle x ∈ R, dass Ex (YS ◦ θS | FS ) = EWS (YS )

Px − f.s.

auf {S < ∞}. Bemerkung 8.7 Mit Satz 8.6 gilt insbesondere Ex (Y ◦ θS | FS ) = EWS (Y )

Px − f.s.

für endliche Stoppzeiten S und beschränkte Borel-messbare Zufallsvariablen Y . Beweis des Satzes: Wir zeigen die Aussage zunächst nur für Stoppzeiten S mit diskretem P Wertebereich. Sei hierzu S(Ω) = {ti ; i ≥ 1} und x ∈ R. Dann ist Px (S < ∞) = n≥1 Px (S = tn ). Für A ∈ FS gilt A ∩ {S = tn } = A ∩ ({S ≤ tn }\{S ≤ tn−1 }) ∈ Ftn

54

Kapitel 8: Die starke Markov-Eigenschaft II

Damit ist Z

A∩{S 0 | |Wt | = r} und 0 < r < |x| < R. Wir wollen Px (Sr < SR ) bestimmen.

G

PSfrag repla ements

x

0

r

Abbildung 8.3

R

8.2. Anwendung auf die k-dimensionale Brownsche Bewegung

59

Sei G = {x ∈ Rk | r < |x| < R}. Sei T := Sr ∧ SR , die erste Austrittszeit aus dem Kreisring. Setze u(x) := Px (WT ∈ A) mit A = {x ∈ Rk | |x| = r}. Das heißt, u(x) ist die Wahrscheinlichkeit, mit der die Brownsche Bewegung beim ersten Verlassen des Kreisrings durch den inneren Rand austritt. Nach der Folgerung in Anwendung 1 erfüllt u die Mittelwerteigenschaft, das heißt, es gilt u(x) = Ex u(WT ). Mit u e(|x|) = u(x) gilt somit u(x) = Ex u(WT )

also

= u e(r)Px (Sr < SR ) + u e(R)(1 − Px (Sr < SR ))

= Px (Sr < SR ) · (e u(r) − u e(R)) + u e(R), Px (Sr < SR ) =

u e(|x|) − u e(R) . u e(r) − u e(R)

Andererseits wissen wir nach dem Satz von Gauß-Koebe, dass u harmonisch in G ist. Da u außerdem rotationssymmetrisch ist, gilt nach Lemma 8.15 ,   b log |x| + c , falls k = 2 u(x) =  b|x|2−k + c , falls k ≥ 3 .

mit b, c ∈ R. Da u nicht konstant ist, ist b 6= 0. Für Dimension k = 2 folgt also Px (Sr < SR ) =

log |x| − log(R) . log(r) − log(R)

Hält man nun r fest und betrachtet R → ∞, so konvergiert die rechte Seite gegen 1 und Px (Sr < ∞) = 1,

für 0 < r.

Das heißt, die Brownsche Bewegung mit Start in x trifft fast sicher jede Kugel um den Ursprung. Andererseits ist Px (S0 < ∞) = 0, denn für r → 0 folgt Px (S0 < SR ) = 0 für jedes R > 0 und es ist Px (S0 < ∞) = limR→∞ Px (S0 < SR ) = 0. Die Wahrscheinlichkeit, dass die Brownsche Bewegung mit Start in x exakt auf den Ursprung trifft, ist Null. Für Dimensionen k ≥ 3 führt die gleiche Argumentation zu Px (Sr < SR ) =

R2−k − |x|2−k R2−k − r 2−k

für 0 < r < |x| < R. Fixiert man r und lässt R → ∞, so konvergiert die rechte Seite gegen  2−k  k−2 |x| r Px (Sr < ∞) = = < 1. r |x|

Das heißt in Raumdimensionen k ≥ 3 ist für Radien 0 < r < |x|, die Wahrscheinlichkeit, dass die Brownsche Bewegung mit Start in x die Kugel um die Null mit Radius r trifft, stets kleiner als 1 ist.

60

Kapitel 8: Die starke Markov-Eigenschaft II

Kapitel 9

Stochastische Integration 9.1

Das Stieltjes Integral

Sei A ein monoton wachsender, rechtsstetiger, adaptierter Prozess. Dann wird für s < t, s, t ∈ [0, ∞) durch µA ((s, t])(ω) := At (ω) − As (ω) pfadweise ein (positives) Borelmaß auf [0, ∞) definiert. Für einen adaptierten Prozess e mit t → et (ω) Borel–messbar lässt sich somit ein Integral nach dem Prozess A pfadweise durch Z t Z t es (ω)dµA (s)(ω) es (ω)dAs (ω) := 0

0

definieren, falls die linke Seite wohldefiniert ist. Sei V ein rechtsstetiger, adaptierter Prozess mit Zerlegung V = A+ − A− , wobei A+ , A− monoton wachsend, rechtsstetige, adaptierte Prozesse sind. Dann lässt sich das Integral nach dem Prozess V analog definieren als Z t Z t es (ω)dµV (s)(ω) es (ω)dVs (ω) := 0

0

mit µV (ω) (B) := µA+ (ω) (B) − µA− (ω) (B) für Borelmengen B über [0, ∞). Damit ist µV pfadweise ein signiertes Borelmaß und es gilt Z t Z t Z t es dA− (s) es dA+ (s) − es dVs = 0

0

0

fast sicher. Damit ergibt sich die Frage, wann für einen Prozess V eine solche Zerlegung existiert. Dies führt uns zum Begriff der Variation eines Prozesses.

61

62

9.2

Kapitel 9: Stochastische Integration

Variation und quadratische Variation

Definition 9.1 Sei f : [s, t] → R. Die Variation von f über dem Intervall [s, t] ist erklärt als X |f (ti+1 ) − f (ti )|. V f [s, t] = lim sup n→∞ e t∈∆(n−1 )

e t

Dabei ist ∆(ε) die Menge aller ε-Zerlegungen e t von [s, t]. Eine ε-Zerlegung von [s, t] ist eine Folge reeller Zahlen ti mit s = t0 < t1 < . . . < tl = t mit ti+1 − ti ≤ ε. Die quadratische Variation von f über dem Intervall [s, t] wird als X |f (ti+1 ) − f (ti )|2 QV f [s, t] = lim sup n→∞ e t∈∆(n−1 )

e t

definiert.

Satz 9.2 Eine Funktion ist genau dann von beschränkter Variation auf einem Intervall, wenn sie dort als Differenz zweier wachsender Funktionen dargestellt werden kann. Damit lässt sich das Integral nach einem Prozess V nur für Prozesse mit beschränkter Variation wie in 9.1 definieren. Wir untersuchen daher im Folgenden die Variation sowie die quadratische Variation der Brownschen Bewegung. Satz 9.3 (Quadratische Variation) Sei t > 0. Mit Wahrscheinlichkeit 1 gilt    2 2n  X X t k − X t k − 1 = t. lim n n n→∞ 2 2 k=1

Die Gültigkeit der Gleichung im Mittel ist wegen

X(t)−X(s) √ t−s

∼ N (0, 1) zu erwarten.

2 n Beweis des Satzes: Sei Dk,n = |X(t 2kn ) − X(t k−1 2n )| für k = 1, . . . , 2 . Die Zufallsvariablen Dk,n , k = 1, . . . , 2n sind stochastisch unabhängig und EDk,n = E(X(t/2n )2 ) = t/2n . Weiter ist  n  n !2  !2  2 2 X X E Dk,n − t  = E  (Dk,n − t/2n )  k=1

k=1

=

2n X k=1 n

E((Dk,n − t/2n )2 )

wegen Unabhängigkeit

= 2 E((D1,n − t/2n )2 )

= 2n E((X(t/2n )2 − t/2n )2 )  !  t 2 t 2 n X(1) − n = 2 E 2n 2

= 2n = =

(da



tX1 ∼ Xt )

t2 E((X(1)2 − 1)2 ) 22n

t2 E(X(1)4 − 2X(1)2 + 1) 2n 2t2 → 0 für n → ∞. 2n

(da EX(1)4 = 3)

9.2. Variation und quadratische Variation

63

Die Markov-Ungleichung liefert   !2 2n X P > εn  ≤ Dk,n − t



1  E εn

k=1

εn 2n 2t2 2−n/2

= Daher ist

n≥1 P

 P2n

k=1 Dk,n

scheinlichkeit 1 gilt

−t

2

> εn





n

2 X k=1

Dk,n − t

k=1

2t2



P

n

2 X

(für εn := 2−n/2 ).

P

!2

!2  Dk,n − t 

2t2 n≤1 2−n/2

< ∞ und es folgt, dass mit Wahr-

≤ εn

für alle n hinreichend groß.

2

Der folgende Satz ist eine Verallgemeinerung von Satz 6.8. Satz 9.4 Sei Pn = {t0,n , . . . , tkn ,n } eine Zerlegung des Intervalls [0, t] und kPn k := sup |tk,n − tk−1,n |. 1≤k≤kn

Falls Pn+1 eine Verfeinerung von Pn für alle n ≥ 1 ist und kPn k → 0 für n → ∞, dann gilt lim

n→∞

kn X k=1

|X(tk,n ) − X(tk−1,n )|2 = t

fast sicher.

Man beachte, dass im Gegensatz zur Variation hier nicht das Supremum über alle ε-Zerlegungen betrachtet wird; der Ausdruck in Satz 9.4 hängt nur von abzählbar vielen deterministischen Stellen ab, während die Variation vom gesamten Pfad abhängt. Korollar 9.5 Mit Wahrscheinlichkeit 1 gilt, die Pfade der Standard-Brownschen Bewegung sind auf jedem Intervall [s, t] mit s < t von unendlicher Variation. Das bedeutet, dass die Pfade der Brownschen Bewegung über [0, t] unendlich lang sind. Beweis des Korollars: Wegen Satz 9.3 gilt fast sicher,    2 2n  X k k−1 X s + n (t − s) − X s + n (t − s) = t − s. lim n→∞ 2 2 k=1

Angenommen

   2n  X k − 1 k X s + (t − s) (ω) − X s + V (ω) := lim (t − s) (ω) < ∞ n n n→∞ 2 2 k=1

64

Kapitel 9: Stochastische Integration

Dann ist    2  k−1 k X s + n (t − s) (ω) − X s + n (t − s) (ω) 2 2 k=1     k k−1 ≤ V (ω) sup X s + n (t − s) (ω) − X s + n (t − s) (ω) 2 2 k∈{1,...,2n } | {z }

2  X n

=:Hn (ω)

= V (ω) · Hn (ω).

Da s 7→ X(s) auf [0, t] fast sicher gleichmäßig stetig ist, gilt Hn → 0 fast sicher für n → ∞. Dies steht im Widerspruch zu Satz 9.3. 2

9.3

Das stochastische Integral – Ein erster Weg

Fast alle Pfade der Brownschen Bewegung sind auf jedem Intervall [0, t] mit t ≥ 0 von unbeschränkter Variation. Das heißt für eine Brownsche Bewegung W , dass Var(W )t (ω) = lim

n→∞

n X k=1

|Wtk/n (ω) − Wt(k−1)/n (ω)| = ∞ .

Die Definition eines stochastischen Integrals bezüglich der Brownschen Bewegung ist daher nicht wie oben als Stieltjes Integral möglich. Für deterministische, stetig differenzierbare Funktionen e : R → R mit e(1) = 0 gibt es nach N. Wiener folgenden Ausweg per partieller Integrationsformel: Z 1 Z 1 Z 1 1 ′ e(t) dWt := e · W |0 − e (t)Wt dt = − e′ (t)Wt dt. 0

0

Bei dieser Definition gilt: Z 1  e(t) dWt = 0 a) E 0

b) E

Z

1

e(t) dWt 0

Zum Beweis: Zu a): Es ist E

Zu b): E

Z

Z

2 !

1

e(t) dWt 0

1

e(s) dWs 0

=

Z

0

Z 

1

0

e(t)2 dt .

0

 Z =E −

1

e(t) dWt

1



e (t)Wt dt

0



Z

= E  Z = 



1Z 1

0 0 1Z 1

=− ′

Z

0

1

e′ (t) E(Wt ) dt = 0 . | {z } =0



e (s)Ws e (t)Wt ds dt





e′ (s) E(Ws Wt ) e′ (t) ds dt | {z } 0 0 s∧t Z Z ′ ′ e′ (s) t e′ (t) ds dt e (s) s e (t) ds dt + = {s≥t}∩I0 {s≤t}∩I0 | {z } | {z } =:I =:II

9.4. Definition des stochastischen Integrals

65

mit I0 = [0, 1] × [0, 1]. Z

I =

da

0

1



e (s) · s

0

1 2

= Z

1

Z

1

Z

1



e (t) dt ds = s

1 0

=0

e(s) ds ,

0

2

2

e · 1 ds = [e(t) ·

t]10



Z

t



e (s) · s [e(1) −e(s)] ds = |{z}

2

Entsprechend erhalten wir

9.4

Z

Z

1 0

e′ (s) · s [−e(s)] ds

2e(s)e′ (s)s ds.

0

1 II = 2

Z

1

e(s)2 ds.

0

Definition des stochastischen Integrals

Sei (Ω, F, P ) ein vollständiger Wahrscheinlichkeitsraum und die Filtrierung (Ft , t ≥ 0) genüge den üblichen Bedingungen, das heißt, (Ft , t ≥ 0) ist rechtsstetig und jede Nullmenge, die zur P -Vervollständigung von F gehört, ist in F0 enthalten. Sei (Wt , t ≥ 0) eine Brownsche Bewegung mit Start in 0, definiert auf (Ω, F, P ). Notation: Xt (ω) = X(t)(ω) = X(t, ω).

9.4.1

Das stochastische Integral für einfache Prozesse

Definition 9.6 Ein Stochastischer Prozess heißt einfach, wenn eine abzählbare aufsteigende Folge {tn ; n ≥ 1} mit t0 = 0 und limn→∞ tn = ∞ existiert sowie eine Folge von Zufallsvariablen {fi ; i ≥ 0}, so dass gilt a) fi ist Fti -messbar, b) sup sup |fi (ω)| < ∞ und i≥0

ω

c) X(t, ω) =

  f0 

fi

für t = 0 für t ∈ (ti , ti+1 ],

i ≥ 0.

Damit ist X von der Form X(t, ω) = f0 (ω) 10 (t) +

∞ X i=0

fi 1(ti ,ti+1 ] (t).

66

Kapitel 9: Stochastische Integration

f3 (ω) t 7→ X(t, ω)

f1 (ω) f2 (ω)

f0 (ω)

t1

t2

t3

t4

···

Abbildung 9.1

Wir definieren nun das stochastische Integral für einfache Prozesse auf naheliegende Weise. Definition 9.7 (Stochastisches Integral über einfache Prozesse) n−1 X

It (X)(ω) :=

i=0

 fi (ω) Wti+1 (ω) − Wti (ω) + fn (ω) (Wt (ω) − Wtn (ω))

für tn < t < tn+1 . Eine andere Schreibweise für (It (X))t≥0 ist I(X) = X ◦ W . ∞ X  fi Wt∧ti+1 − Wt∧ti , für jedes feste ω wird aber effektiv nur Bemerkung: Es ist It (X) = i=0

über endlich viele Indizees i summiert.

Lemma 9.8 (Eigenschaften des stochastischen Integrals für einfache Funktionen) Es gilt 1) I0 (X) = 0 P – f.s.,  2) E It (X) Fs = Is (X) P – f.s. für s < t,  Z t i h 2 2 Xu du , 3) E (It (X)) = E 0



2



4) E (It (X) − Is (X)) Fs = E

Z

t

s



Xu2 du Fs



5) It (αX + βY ) = αIt (X) + βIt (Y ) für α, β ∈ R.

P – f.s. falls s < t,

9.4. Definition des stochastischen Integrals

67

Wegen der Eigenschaften 2) und 3) ist für eine einfache Funktion X das stochastische Integral I(X) ein quadratintegrierbares Martingal. Beweis: Zu 2): Es gilt   E It (X) Fs = Is (X) + E It (X) − Is (X) Fs .

Sei tm−1 ≤ s < tm und tn ≤ t < tn+1 dann folgt, E(It (X) − Is (X) Fs )

!  fi (Wti+1 − Wti ) Fs + E fn (Wt − Wtn ) Fs = E fm−1 (Wtm i=m ! n−1  X   = E fm−1 (Wtm − Ws ) Fs + E E fi (Wti+1 − Wti ) Fti Fs i=m    +E E fn (Wt − Wtn ) Ftn Fs .  − Ws ) Fs + E

Nun ist

n−1 X

 E fi (Wti+1 − Wti ) Fti = fi E(Wti+1 − Wti ) = 0 .

Zu 4): Es ist  E (It (X) − Is (X))2 Fs 

!2   fi (Wti+1 − Wti ) + fn (Wt − Wtn ) Fs  = E fm−1 (Wtm − Wt ) + i=m ! n−1 X 2 fi2 (Wti+1 − Wti )2 + fn2 (Wt − Wtn )2 Fs = E fm−1 (Wtm − Ws )2 + n−1 X

i=m

+ gemischte Glieder {z } | =0, zeigen wir später

= E = E

2 fm−1 (tm − s) +

Z

s

t

n−1 X

i=m

 2 Xu du Fs .

fi2 (ti+1 − ti ) + fn2 (t − tn ) Fs

!

Betrachten wir nun die gemischten Glieder. Für ti < tj gilt     E fi fj (Wti+1 − Wti )(Wtj+1 − Wtj ) Fs = E E fi fj (Wti+1 − Wti )(Wtj+1 − Wtj ) Ftj Fs    = E fi fj (Wti+1 − Wti ) E Wtj+1 − Wtj Fs | {z } =0

= 0.

Zu 3): Eigenschaft 3) erhalten wir aus 4) indem wir dort s = 0 einsetzen.

2

68

Kapitel 9: Stochastische Integration

Wir wollen nun anhand eines Beispiels sehen, wie man ausgehend vom stochastischen Integral für einfache Prozesse ein stochastisches Integral für kompliziertere Integranden definieren kann. Eine naheliegende Idee ist, den Integranden durch einfache Prozesse zu approximieren. Dies führen wir für die Brownsche Bewegung als Integranden explizit durch. Beispiel: Berechnung des stochastischen Integrals

Z

t

Ws dWs .

0

Sei W Brownsche Bewegung und Pn = {t0 , . . . , tn } eine Partition von [0, t]. Wir approximieren n−1 X Wti 1(ti ,ti+1 ] = X n . die Brownsche Bewegung durch die einfachen Funktionen i=0

Das stochastische Integral von X n bezüglich der Brownschen Bewegung ist gegeben durch

I(X n ) = = = = =

n−1 X

i=0 n−1 X

Wti (Wti+1 − Wti ) Wti Wti+t −

i=0 n−1 X

1 2

i=0

n−1 X

Wt2i

i=0

n−1

(Wt2i+1 − Wt2i ) −

1 1 (Wt2n − Wt20 ) − 2 2 1 2 1 Wtn − 2 2

n−1 X i=0

1X (Wti+1 − Wti )2 2 i=0

n−1 X i=0

(Wti+1 − Wti )2

(Wti+1 − Wti )2 .

Nach dem Satz von Knight über die quadratische Variation gilt n−1

1 2 1 1X Wtn − (Wti+1 − Wti )2 → (Wt2 − t) f.s. 2 2 2 i=0

für kPn k → 0. Wir zeigen nun, dass diese Konvergenz nicht nur fast sicher sondern sogar im L2 -Sinn gilt, also

E

1 (W 2 − t) − 2 t

Wt2



n−1 X i=0

2

(Wti+1 − Wti )

!!2

1 für kPn k → 0. Damit ist It (W ) := lim It (X n ) = (Wt2 − t), d.h. n 2 Z

0

t

1 Wu du = (Wt2 − t). 2

→0

(9.1)

9.4. Definition des stochastischen Integrals

69

Zum Beweis der Konvergenz in L2 : E

1 1 (Wt2 − t) − (Wt2 − 2 2

!2

n−1 X i=0

(Wti+1 − Wti )2 )



1 2

= E = = = =

n−1 X

(Wti+1

i=0

n−1 X 

1 E 4

(Wti+1

i=0

!2  1 − Wti )2 − t  2

2 − Wti )2 − (ti+1 − ti )

n−1 2 1X E (Wti+1 − Wti )2 − (ti+1 − ti ) 4

1 4 1 2

i=0 n−1 X

(ti+1 − ti )2 E (W12 − 1)2

i=0 n−1 X i=1



(ti+1 − ti )2 .

L

Die beiden letzten Gleichheiten gelten, da (Wti+1 − Wti ) = (ti+1 − ti )1/2 W1 und E[(W12 − 1)2 ] = EW14 + 1 − 2EW12 = 2 gilt. Die rechte Seite verschwindet für kPn k → 0, da n−1 n−1 X X (ti+1 − ti ) = t max(ti+1 − ti ) . (ti+1 − ti )2 ≤ max(ti+1 − ti ) i

j=1

Legt man das Integral dies

Rt 0

j=1

Ws dWs als den L2 – Limes der Integrale Z

0

9.4.2

t

1 Ws dWs = (Wt2 − t) . 2

i

Rt 0

Xsn dWs fest, so bedeutet

Das stochastische Integral für L–Prozesse

Definition 9.9 Ein stochastischer Prozess X = (Xt ; t ≥ 0) erklärt über (Ω, F, P; Ft , t ≥ 0) heißt messbar, wenn die Abbildung (t, ω) → X(t, ω) produktmessbar bzgl. B[0, ∞) ⊗ F ist. Der wesentliche Maßraum, den wir zunächst betrachten werden, ist mit T ∈ R ([0, T ] × Ω, P, λT ⊗ P ) , wobei λT das Lebesguemaß auf [0, T ] bezeichnet, und P die σ-Algebra der previsiblen Ereignisse ist. Dies ist die von den previsiblen Rechtecken R erzeugte σ-Algebra. Dabei ist R = {{0} × F0 | F0 ∈ F} ∪ {(s, t] × Fs | Fs ∈ Fs , 0 < s < t ≤ T } .

!

70

Kapitel 9: Stochastische Integration

Definition 9.10 1. Ein stochastischer Prozess X heißt previsibel, falls X adaptiert und P-messbar ist. 2. Ein stochastischer Prozess X heißt progressiv messbar, falls X|[0,t]×Ω B[0, t]⊗Ft -messbar ist für 0 ≤ t ≤ T . Jeder previsible Prozess ist progressiv messbar und damit wiederum messbar. Typische Beispiele für previsible Prozesse sind linksstetige Prozesse: Denn es gilt Xt (ω) = X0 (ω)1{0} (t) + lim

n→∞

n n·2 X

Xk·2−n (ω)1(k·2−n ,(k+1)2−n ] (t).

k=1

Previsible Prozesse sind die natürlichen Integranden bei stochastischer Integration. Definition 9.11 Zwei messbare Prozesse X und Y heißen äquivalent (X ∼ Y ), falls X = Y λT ⊗ P – fast sicher gilt. Der Nachweis, dass es sich bei ∼ um eine Äquivalenzrelation handelt, bleibt dem Leser als Übungsaufgabe überlassen. Bemerkung : Ist X an F adaptiert und ist für jedes t ≥ 0 Xt = Yt f.s., dann ist auch Y an F adaptiert. Definition 9.12 Sei L = L2 ([0, T ] × Ω, P, λT ⊗ P). Sei L der Raum der Äquivalenzklassen (gemäß ∼) der quadratintegrierbaren und previsiblen Prozesse über [0, T ] × Ω. Mit L0 bezeichnen wir die Menge aller Äquivalenzklassen von einfachen Prozessen. Satz 9.13 1. Es gilt L ⊃ L0 . 2. Der Raum L ist bezüglich dem Skalarprodukt hX, X ′ iL2 = E

Z

T

X(u, ω)X ′ (u, ω)du

0

ein Hilbertraum. 3. Der Raum L0 liegt dicht in L (bezüglich der Norm aus 2.)). Definition 9.14 M2 sei die Menge aller quadratintegrierbaren rechtsstetigen Martingale M mit M0 = 0 f.s., die an die Filtrierung (Ft ; 0 ≤ t ≤ T ) adaptiert sind. Dabei heißt ein rechtsstetiges Martingal M quadratintegrierbar (über [0, T ]), falls sup EMt2 < ∞ .

0≤t≤T

Mit Mc2 bezeichnen wir die Menge aller stetigen Martingale aus M2 .

9.4. Definition des stochastischen Integrals

71

Bemerkung: Für Martingale M gilt sup0≤t≤T EMt2 < ∞ genau dann, wenn EMT2 < ∞ ist.

Für M ∈ M2 sei |M | = E(MT2 )1/2 . Es lässt sich leicht nachprüfen, dass | · | eine Norm auf M2 ist. Ebenso lässt sich nachweisen, dass h·, ·i, gegeben durch hM, M ′ i := E(MT MT′ ) für M, M ′ ∈ M2 ein Skalarprodukt definiert. Weiter nennen wir zwei Martingale M, M ′ ∈ M2 äquivalent (∼), falls  P Mt = Mt′ für alle t ∈ (0, T ) = 1 und ∼ ist eine Äquivalenzrelation. Satz 9.15 1. Der Raum (M2 , h·, ·i) ist ein Hilbertraum. 2. M2c ist abgeschlossener Teilraum von M2 . Korollar 9.16 Damit ist auch der Raum (Mc2 , h·, ·i) ein Hilbertraum. Die Aussage des Korollars beweisen wir am Ende des Abschnitts (ohne Satz 9.15 zu verwenden). Wir können nun das stochastische Integral konstruieren. Satz 9.17 (Stochastisches Integral ) Das stochastische Integral einfacher Funktionen I : L0 → Mc2 besitzt eine eindeutige Fortsetzung I¯ : L → Mc2 , die linear, injektiv und längenerhaltend (d.h. kXk = |I(X)|) ist. R T ∧· ¯ Für X ∈ L heißt I(X) =: 0 Xs dWs stochastisches Integral von X (bezüglich W ).

¯ Im Folgenden schreiben wir auch für X ∈ L den Ausdruck I(X) statt I(X).

Bemerkung

1. Da I linear und längenerhaltend ist, ist die Abbildung I : L → Mc2 insbesondere stetig. 2. Zusätzlich ist die Abbildung I von L nach Mc2 winkelerhaltend. Das heißt, für X und X ′ ∈ L ist Z T  Xs Xs′ ds = hI(X), I(X ′ )iMc2 = E IT (X)IT (X ′ ) . hX, X ′ iL2 = E 0

Zum Beweis von Satz 9.17 ist zu zeigen, dass das Integral einfacher Funktionen eine lineare, injektive und längenerhaltende Abbildung I : L0 → Mc2

72

Kapitel 9: Stochastische Integration

ist. Insbesondere ist I damit eine lineare, stetige Abbildung von (L0 , k · k) in den Hilbertraum (Mc2 , | · |). Da L0 dicht in L liegt, besitzt I eine eindeutige lineare und stetige Fortsetzung I¯ : L → Mc2 und es ist einfach, nachzuweisen, dass diese längenerhaltend und injektiv ist. Die Aussage über die stetige Fortsetzung ist ein funktionalanalytisches Resultat, das man etwa im Rahmen einer Vorlesung über Funktionalanalysis kennenlernt. Wir verzichten hier auf diese Vorkenntnisse und geben einen vollständigen Beweis an, indem wir die Fortsetzung explizit konstruieren. Beweis von Satz 9.17: Nach Lemma 9.8 wissen wir bereits, dass für X ∈ L0 das stochastische Integral I(X) ein quadratintegrierbares Martingal ist und dass die Abbildung X 7→ I(X) linear ist. Außerdem ist die Abbildung t 7→ It (X) für jedes ω ∈ Ω nach Definition stetig, da dies auf die Pfade der Brownschen Bewegung zutrifft. Daher ist I : L0 → Mc2 linear und nach Lemma 9.8 Eigenschaft 3) auch längenerhaltend. Aus Eigenschaft 3) und der Linearität folgt auch die Injektivität von I, denn gilt I(X) = I(X ′ ) in Mc2 für X, X ′ ∈ L0 , so ist  Z t   ′ 2 ′ 2 ′ 2 (Xu − Xu ) du . 0 = E (IT (X) − IT (X )) = E (IT (X − X )) = E 0

Wir konstruieren nun die Fortsetzung der Abbildung I von L0 auf L. Sei hierzu X ∈ L. Nach Satz 9.13 liegt L0 dicht in L, das heißt, es existiert eine Folge {Xn ; n ≥ 1} ⊂ L0 mit kXn − Xk → 0 für n → ∞. Insbesondere ist {Xn , ; n ≥ 1} eine Cauchy-Folge. Da I längenerhaltend ist, bildet {I(Xn ); n ≥ 1} eine Cauchy-Folge in Mc2 , d.h. |I(Xn ) − I(Xm )| = |I(Xn − Xm )| = kXn − Xm k → 0. Wegen der Vollständigkeit des Hilbertraums M2c besitzt die Folge {I(Xn ); n ≥ 1} einen eindeutigen Grenzwert in Mc2 und ¯ I(X) := lim I(Xn ) n→∞

ist wohldefiniert. Wir weisen nun nach, dass I¯ linear, längenerhaltend (und injektiv) von L nach Mc2 abbildet, indem wir die Eigenschaften 1) - 5) aus Lemma 9.8 für I¯ und X, X ′ ∈ L nachweisen. 2 ¯ Es gelten auch hier die Eigenschaften 1)-5). Die Eigenschaften 1) und 2) sind erfüllt, da I(X) ∈ c M2 . Eigenschaft 3) folgt direkt aus 4). Die Linearität, Eigenschaft 5), ist nach Konstruktion erfüllt. Wir zeigen nun Eigenschaft 4), nämlich Z t   2 2 Xu du Fs E (It (X) − Is (X)) Fs = E P – f.s. falls s < t . s

Seien Xn einfach mit Xn → X (in L2 ). Aus der Submartingaleigenschaft folgt E (It (Xn ) − It (X))2 ≤ E (IT (Xn ) − IT (X))2

für t ≤ T .

9.4. Definition des stochastischen Integrals Mc

73

L2 (P )

Falls I(Xn ) →2 I(X), so gilt also It (Xn ) → It (X) für alle t ∈ [0, T ]. Weiter gilt   E (1A (It (X) − Is (X))) = lim E 1A (It (Xn ) − Is (Xn ))2 , n→∞

(∗)

da

|1A · (It (X) − Is (X)) | ≤ |1A (Is (Xn ) − It (Xn )) | + |Is (Xn ) − Is (X)| + |It (Xn ) − It (X)| = |1A (Is (Xn ) − It (Xn )) | + o(1)

und ebenso |1A · (Is (Xn ) − It (Xn )) | ≤ |1A (Is (X) − It (X)) | + o(1) . Schließlich ist mit Hilfe von (∗)   lim E 1A (It (Xn ) − Is (Xn ))2 n→∞ Z t (Xn (u))2 du = lim E 1A n→∞ s Z t X(u)2 du . = E 1A

E (1A (It (X) − Is (X))) =

s

Dabei ist die letzte Gleichheit erfüllt, da Xn → X in L2 .

Beweis von Korollar 9.16: Es ist klar, dass | · | eine Norm über dem Vektorraum Mc2 ist. Wir zeigen zunächst die Vollständigkeit von (Mc2 , | · |). Sei hierzu {Y (n) ; n ≥ 1} eine Cauchy-Folge in (Mc2 , | · |), das heißt, {Y (n) ; n ≥ 1} ⊂ Mc2 und lim |Y (n) − Y (m) |2 =

m,n→∞

(m)

lim E(YT

m,n→∞

(n)

− YT )2 = 0 .

Aus der Submartingaleigenschaft von |Y (n) − Y (m) |2 schließen wir, dass

n

(n)

Yt

o ; n ≥ 1 für

jedes feste t ∈ [0, T ] eine Cauchy-Folge in L2 (Ω, Ft , P ) mit Grenzwert Yt ist. Wir zeigen o n (n) ist gleichgradig integrierbar. (∗) Yt ; n ≥ 1

 o  n   (n) (n) 2 (n) 2 , da (Yt )2 ; t ≥ 0 ein Submartingal ist. Des Weiteren ist ≤ E YT Es gilt E Yt (n)

supn E(YT )2 < ∞, denn

max |Y (n) | ≤ max |Y (n) − Y (n0 ) | + |Y (n0 ) | 0≤n 0≤n   (n) (n0 ) < max max |Y −Y |, ε + |Y (n0 ) | , 0≤n≤n0

da |Y (n) − Y (m) | < ε ∀n, m ≥ n0 (ε) , damit ist auch

(n) 2

sup E(Yt 0≤n

) < ∞,

t≤T

74

Kapitel 9: Stochastische Integration

und (∗) ist gezeigt. Sei A ∈ Fs . Für s < t gilt (n)

E1A Ys(n) = E1A Yt ↓

(wegen der Martingal-Eigenschaft)



E1A Ys = E1A Yt (n)

sowie E(Ys )2 → E(Ys )2 . Also ist Y ist ein quadratintegrierbares Martingal.

Wir zeigen nun noch, dass t 7→ Yt fast sicher stetig ist. Die Ungleichung von Doob liefert P

"

sup

0≤t≤T

(n) |Yt

#

1 (n) − Yt | ≥ ε ≤ 2 E(YT − YT )2 = ε

Für eine passende Teilfolge {nk ; k ≥ 1} gilt P

sup 0≤t≤T

(n ) |Yt k

1 − Yt | ≥ k

!





2 1 (n) |Y − Y | → 0. ε

1 . k2

Die rechte Seite ist summierbar und das Lemma von Borel-Cantelli liefert Y (nk ) → Y

gleichmäßig auf [0, T ] f.s.

und damit die fast sichere Stetigkeit von Y .

2

Beweis von Satz 9.13: Sei L = L2 ([0, T ]×Ω, P, λT ⊗P ), µW = λT ⊗P und L0 der Abschluss n S von L0 in L. Dann existiert zu jedem ε > 0 und A ∈ P mit µW (A) < ∞ ein A′ = Rj mit j=0

Rj ∈ R für j = 0, . . . , n und Rj paarweise disjunkt, so dass µW (A△A′ ) < ε ist. Dies folgt aus der Caratheodory-Maßfortsetzung. Nun ist aber ′

µW (A△A ) =

Z

(1A − 1A′ )2 dµW .

Folglich ist L0 ⊃ {1A | A ∈ P}. Mit algebraischer Induktion folg L0 ⊃ L.

9.5

2

Das stochastische Integral bezüglich L2-Martingalen

Bisher haben wir das stochastische Integral als Integral einfacher Funktionen bezüglich der Brownschen Bewegung definiert und dies für Prozesse aus L als Integranden verallgemeinert. Nun werden wir Verallgemeinerungen hinsichtlich der Integratoren betrachten. Wir setzen voraus, dass die Filtrierung den üblichen Bedingungen genügt.

9.5. Das stochastische Integral bezüglich L2 -Martingalen

75

Definition 9.18 1. Ist X = {Xt ; t ≥ 0} ein stochastischer Prozess, so dass die Menge {Xτ ; τ endliche Stoppzeit} gleichgradig integrierbar ist, so gehört X zur Klasse (D). 2. Ein adaptierter Prozess heißt wachsend, wenn für fast alle ω ∈ Ω gilt: (a) A0 (ω) = 0, (b) t 7→ At (ω) ist monoton wachsend

(c) EAt < ∞ für alle t ≥ 0.

Beispiel 9.19 Ein gleichgradig integrierbares Martingal ist in der Klasse (D), denn Mt = E(Y | Ft ) mit F∞ -messbarem Y und es gilt für T endliche Stoppzeit.

MT = E(Y | FT )

Da {E(Y | G), G ⊂ F∞ , G – σ-Algebra} gleichgradig integrierbare Menge ist, folgt dass {MT ; T endliche Stoppzeit} gleichgradig integrierbar ist. Satz 9.20 (Doob-Mayer-Zerlegung) Ist X ein stetiges Submartingal der Klasse (D) mit X0 = 0, so existiert ein stetiges Martingal M und ein wachsender Prozess A, so dass für alle t ≥ 0

Xt = Mt + At gilt. Die Zerlegung ist eindeutig.

Bemerkung und Definition: Ist M ∈ Mc2 , so ist (Mt2 , t ≥ 0) ein Submartingal. Nach Satz 9.20 existiert ein eindeutiger, stetiger, wachsender Prozess hM it mit hM i0 = 0, so dass Mt2 − hM it ein Martingal ist. Der Prozess hM i heißt quadratischer Variationsprozess von M . Der quadratische Variationsprozess der Brownschen Bewegung W ist hW it = t, wie wir bereits nachgewiesen haben.

Zur Konstruktion des Stochastischen Integrals Wir wollen nun das stochastische Integral I(X)t =

Z

t

Xs dMs 0

R  t für M ∈ Mc2 und X previsibel mit E 0 X 2 dhM it < ∞ analog dem stochastischen Integral Rt 0 Xs dWs definieren. Für alle 0 ≤ t ≤ T erklären wir Z für A ∈ Ft . µM ([0, t] × A) = hM it dP A

Die Konstruktion geht entsprechend wie bei der Brownschen Bewegung, jedoch muß λT ⊗ P durch die Fortsetzung von µ auf P ersetzt werden. Dass diese existiert, besagt das nächste Resultat.

76

Kapitel 9: Stochastische Integration

Satz 9.21 Sei M stetiges Martingal. Es existiert ein Maß auf ([0, T ] × Ω, P) mit Z µM ([0, t] × A) = hM it dP. A

Es folgt dann ein zu Satz 9.17 entsprechender Approximationssatz, dessen Beweis genauso verläuft wie der von Satz 9.17. Korollar 9.22 L0 ist dicht in L = L2 ([0, T ] × Ω, P, µM ) Wir erhalten nun analog zum vorigen Abschnitt das stochastische Integral Z t Xs dMs I(X)t = 0

für M ∈ Mc2 und für Integranden X ∈ L, also (bis auf Äquivalenzklassenbildung) für previsible Prozesse X mit Z T  2 Xt dhM it < ∞. E 0

Beispiel 9.23 Seien X, Y previsibel  Z T 2 Xs ds < ∞ E

und

E

0

Gilt

9.5.1

Mt =

Z

t

Z

so ist

Xs dWs , 0

Z

t

Ys dMs =

T

(XY 0

Z

t

)2s ds



< ∞.

(XY )s dWs .

0

0

Das stochastische Integral für stetige lokale Martingale

Definition 9.24 Ein stochastischer Prozess Y = {Yt , Ft , t ≥ 0} heißt lokales Martingal, falls eine monoton wachsende Folge von Stoppzeiten {Tn ; n ≥ 1} existiert, so dass P (limn→∞ Tn = ∞) = 1 ist und {Yt∧Tn , Ft , t ≥ 0} für jedes n ∈ N ein Martingal ist. Die Folge {Tn , n ≥ 1} heißt Lokalisierung oder auch lokalisierende Folge von Stoppzeiten für M . Sei X previsibel mit (∗)

P

Z

0

T

Xt2 dhM it

0,

=1

wobei M ein stetiges lokales Martingal ist. Sei weiter {Sn ; n ≥ 1} eine lokalisierende Folge von Stoppzeiten für M . Setzen wir Z t   Rn := n ∧ inf 0 ≤ t < ∞ Xs2 dhM is ≥ n , 0

so ist lim Rn = ∞ fast sicher wegen (∗). n→∞

Wir definieren durch Tn := Sn ∧ Rn eine weitere Stoppzeit und setzen (n)

Mt

:= Mt∧Tn

9.5. Das stochastische Integral bezüglich L2 -Martingalen

77

sowie (n)

Xt

:= Xt 1{t≤Tn } .

Nach Konstuktion ist M (n) für jedes n ∈ N ein stetiges, beschränktes Martingal, insbesondere also aus Mc2 . Daher sind die stochastischen Integrale I

M (n)

(X

(n)

)=

Z

Tn ∧·

0

(n)

(n)

Xt dMt

erklärt und es gilt ItM

(n)

(X (n) ) = ItM

(m)

(X (m) ) für 0 ≤ t ≤ Tn und 1 ≤ n ≤ m .

Daher ist It (X) := ItM

(n)

(X (n) ) auf {0 ≤ t ≤ Tn }

wohldefiniert und I(X) ist ein stetiges lokales Martingal. Natürlich ist I(X) linear. Außerdem sei Tn = inf{t > 0 | It (X) ≥ n} und sei Itn (X) = It∧Tn (X) für n ∈ N. Dann hat I n (X) alle Eigenschaften des L2 -stochastischen Integrals. Wir untersuchen nun noch den Zusammenhang zwischen lokalen Martingalen und Martingalen. Satz 9.25 Sei M ein nichtnegatives lokales Martingal mit EM0 < ∞. Dann ist M ein Supermartingal. Beweis: Sei {Tn ; n ≥ 1} eine Folge von {Mt − M0 ; t ≥ 0}. Dann gilt für t > s E (Mt∧Tn | Fs ) = Ms∧Tn . Mit dem Lemma von Fatou für bedingte Erwartungen folgt dann:   E (Mt | Fs ) = E lim Mt∧Tn | Fs ≤

=

n →∞

lim E (Mt∧Tn | Fs )

n→∞

lim Ms∧Tn = Ms .

n→∞

Da EM0 < ∞ ist, folgt EMt < ∞.

2

Das folgende Beispiel ist bemerkenswert. Es gibt ein positives lokales Martingal an, das kein Martingal ist. Nach dem vorangegangenen Satz ist es dann aber Supermartingal. Beispiel 9.26 (Helms und Johnson) B sei Brownsche Bewegung im R3 mit kB0 k = 1. Sei Mt := 1/kBt k. k · k bezeinet dabei die euklidische Norm. Dann gilt mit Tn = inf{t | Mt > n} : a) E (Mt∧Tn | Fs ) = Ms∧Tn b) E (Mt | Fs ) < Ms für s < t.

78

Kapitel 9: Stochastische Integration

Eigenschaft a) folgt aus der Tatsache, dass f (x) = 1/kxk für kxk = 6 0 harmonische Funktion in R3 ist. Dann folgt mit Satz 8.10 das M auf einem beschränkten Gebiet, das die 0 nicht enthält ein Martingal ist. Nun wählt man eine Folge von Gebieten, die gegen R2 \ {0} wachsen. Dann ergeben sich Stoppzeiten Tn als die jeweiligen Austrittzeiten der Brownschen Bewegung aus den Gebieten und es gilt Tn → ∞. Die zugehörigen gestoppten Prozesse M Tn sind Martingale. 1 . Dann ist M gleichgradig integrierbar. Folglich ist M lokales Martingal. Nun gilt EMt2 = t+1 Da M Supermartingal ist, konvergiert es gegen null, sowohl fast sicher als auch in L1 . Wäre nun M Martingal, so würde gelten: Mt = E(M∞ | Ft ) = 0

∀ t, da M∞ = 0 ist.

Das ist aber ein Widerspruch. Schließlich soll noch bemerkt werden, dass für jedes stetige lokale Martingal M mit M0 = 0 und beschränkter Variation gilt, dass es konstant gleich Null ist.

Kapitel 10

Die Itô-Formel Sei (Ω, F, (Ft )t≥0 , P ) ein Maßraum mit einer Filtrierung, die den üblichen Bedingungen genügt, das heißt (Ft )t≥0 ist rechtsseitig stetig und jede Nullmenge, die zur P -Vervollständigung von F gehört, ist in F0 enthalten. Weiter sei W eine Standard Brownsche Bewegung.

10.1

Alternative Konstruktion des stochastischen Integrals

Im Gegensatz zur L2 -Konstruktion des stochastischen Integrals in Kapitel 9 basiert die Konstruktion, die wir hier angeben auf der fast sicheren Konvergenz der approximierenden Integrale. Dies erlaubt uns eine einfache Argumentation im Beweis der Itô-Formel. Das Vorgehen ist McKean, Stochastic Integrals, entnommen. Tatsächlich handelt es sich um eine fast sichere Konstruktion lokaler Martingale bezüglich der Brownschen Bewegung. Rt Satz 10.1 Sei e auf [0, T ] previsibel mit 0 e2 ds < ∞ f.s. Dann existiert eine Folge von Rt einfachen Prozessen (en )n≥1 auf [0, T ] mit 0 (en − e)2 dt → 0, so dass für fast alle ω ∈ Ω die Funktionenfolge Z  t

t 7→

en (s)dWs (ω)

0

in C([0, T ]) für n → ∞ konvergiert. Ist e ∈ L, so stimmt die Grenzfunktion t 7→ I e (t) für jedes 0 ≤ t ≤ T fast sicher mit dem stochastischen Integral überein, Z t e e(s)dWs f.s. I (t) = 0

Beweisskizze: Ohne Einschränkung sei T = 1. 1. Schritt: Ist e einfach, so ist Z(t) = exp

Z

t 0

1 e(s)dWs − 2

Z

t

2

e (s)ds 0



ein Martingal. Siehe auch Lemma 6.5. Dann lässt sich mit der Doobschen Ungleichung zeigen:    Z t Z α t 2 e (s)ds > β ≤ e−αβ für e einfach und α, β ≥ 0. e(s)dWs − P max 0≤t≤1 2 0 0 79

80

Kapitel 10: Die Itô-Formel

2. Schritt: Für {ω ∈ Ω | ∃ n0 ∈ N mit an (ω) ≤ bn ∀ n ≥ n0 } für bn ∈ R schreiben wir kurz {an ≤ bn , n ↑}. Mit Hilfe des Lemmas von Borel-Cantelli und Schritt 1zeige man, dass für R 1 2 eine Folge von einfachen Prozessen (en )n≥1 mit P 0 en (t)dt ≤ 2−n , n ↑ = 1 gilt P für alle θ > 1.



Z t  p −n+1 log n, n ↑ = 1 max en (s)dWs < θ 2 0≤t≤1 0

3. Schritt: Falls e nicht vorausgreifend ist, so existieren einfache Prozesse en , n ≥ 1 mit  Z 1 2 −n (en (t) − e(t)) dt < 2 , n ↑ = 1. P 0

4. Schritt: Ist (en )n≥1 eine Folge, die e wie in Schritt 3 approximiert, dann gilt wegen Z Also ist P

1 0

R 1

2

(en (t) − en−1 (t)) dt ≤ 2

Z

1

0 −n

2

(en − e) dt +

≤ 4·2

Z

1

0

2

(en−1 − e) dt



 2 dt ≤ 4 · 2−n , n ↑ = 1. Nach Schritt 2 folgt (e (t) − e (t)) n−1 0 n P

Damit ist



Z t  p max (en (s) − en−1 (s))dWs ≤ 4 · θ 2−n log n, n ↑ = 1. 0≤t≤1 0

X

Z

max

t

0≤t≤1 0 n≥1

und daher ist

max

Z

0≤t≤1 0

(en (s) − en−1 (s))dWs < ∞

f.s.

t

für n, m → ∞

(en (s) − em (s))dWs

f.s. eine Nullfolge. Das bedeutet, für fast alle ω ∈ Ω gilt, dass die Funktionenfolge  Z t   en (s)dWs (ω); n > 1 t 7→ 0

eine Cauchy-Folge in C([0, 1]) bildet. Demnach existiert lim

Z

t

en (s)dWs

n→∞ 0

f.s. in C[0, 1].

Eindeutigkeit: Ist e previsibel und e ∈ L, so existiert eine Folge (e′n )n≤1 von einfachen Prozessen, mit  Z 1 ′ 2 (en (s) − e(s)) ds < ∞. E 0

10.2. Die Itô-Formel

81

Nach Übergang zu einer Teilfolge ist (e′n )n≤1 auch eine approximierende Folge für e im Sinn von Schritt 3. Nach Konstruktion des stochastischen Integrals in Kapitel 9 ist bekannt, dass Z 1 Z 1 ′ e(s)dWs in L2 (Ω, Ft P ) en (s)dWs → 0

0

für 0 ≤ t ≤ T .

Rt Rt Für eine Teilfolge gilt also 0 e′nk (s)dWs → 0 e(s)dWs fast sicher für k → ∞. Wegen der Rt Eindeutigkeit des Grenzwertes folgt I e (t) = 0 e(s)dWs fast sicher. 2

Bei dieser Konstruktion des stochastischen Integrals haben wir einen Konvergenzsatz für stochastische Integrale gewonnen, den wir noch festhalten wollen. Folgerung 10.2 Falls (en )n≥1 eine passende Folge einfacher Prozesse ist und Z

T 0

(en (t) − e(t))2 dt → 0

dann folgt

Z

·

0

enk (s)dWs →

f.s. für n → ∞, Z

·

e(s)dWs

0

fast sicher gleichmäßig in [0, T ] für eine Teilfolge (enk )k≥1 .

10.2

Die Itô-Formel

Definition 10.3 Ein stetiger stochastischer Prozess (Yt , Ft ; 0 ≤ t ≤ T ) heißt Itô-Prozess, falls previsible Prozesse e = (et , Ft ; 0 ≤ t ≤ T ),

f

= (ft , Ft ; 0 ≤ t ≤ T )

RT RT mit P ( 0 |ft |dt < ∞) = P ( 0 |et |2 dt < ∞) = 1 existieren, so dass mit Wahrscheinlichkeit 1 für 0 ≤ t ≤ T gilt, dass Z t Z t fs ds für 0 ≤ t ≤ T. es dWs + Yt = Y0 + 0

0

Sprechweise: Y hat das stochastische Differential dYt = et dWt + ft dt. Beispiel 10.4 (Wt2 , Ft ; 0 ≤ t ≤ T ) ist ein Itô-Prozess, denn es gilt Z t Z t 2 1ds, Ws dWs + Wt = 2 0

0

oder in differentieller Schreibweise dWt2 = 2Wt dWt + dt,

W02 = 0.

82

Kapitel 10: Die Itô-Formel

Satz 10.5 Seien e und f previsible Prozesse. Sei u : R+ ×R → R, (t, x) 7→ u(t, x) mit stetigen partiellen Ableitungen ∂u ∂2u ∂u , uy = , uyy = . ut = ∂t ∂y ∂y 2 Rt Rt Sei außerdem Yt = Y0 + 0 es dWs + 0 fs ds ein Itô-Prozess. Dann ist für Vt = u(t, Yt ) der Prozess (Vt )t≥0 ebenfalls ein Itô-Prozess und es gilt Vt = u(0, Y0 ) + +

Z

Z

t 0

1 [ut (s, Ys ) + uy (s, Ys )fs + uyy (s, Ys )e2s ]ds 2

t

uy (s, Ys )es dWs 0

fast sicher für 0 ≤ t ≤ T.

In differenzieller Schreibweise: 1 dVt = [ut (t, Yt ) + uy (t, Yt )ft + uyy (t, Yt )e2t ]dt + uy (t, Yt )et dWt , 2

V0 = u(0, Y0 )

und in Kurzform: 1 dVt = [ut + uy ft + uyy e2t ]dt + uy et dWt . 2 Bemerkung 10.6 Eine andere Schreibweise ist 1 dVt = ut (t, Yt )dt + uy (t, Yt )dYt + uyy (t, Yt )dhY it 2 Beispiele 10.7 1. Ist u(t, y) = u(y), so hängt die Funktion u nur von der 2. Komponente ab, und es gilt mit Yt = Wt : 1 d(u(Wt )) = u′ (Wt )dWt + u′′ (Wt )dt, 2 oder u(Wt ) − u(W0 ) =

Z

t

1 u′ (Ws )dWs + u′′ (Ws )ds. 2

0

2. Sei speziell u(y) = y 2 und Yt = Wt , so folgt mit der Itô-Formel, Wt2 − W02 =

Z

t

2Ws dWs + 0

das heißt Wt2

=2

Z

1 2

Z

t

Ws dWs + t. 0

0

t

2ds,

10.2. Die Itô-Formel

83

3. Stochastisches Exponential: Sei Zt := eWt −t/2 = u(Yt ) für u(y) = ey und Yt = Wt − t/2. Nach der Itô-Formel gilt 1 dZt = u′ (Yt )dYt + u′′ (Yt )dhY it 2   1 1 Yt = e dWt − dt + eYt dt 2 2 = eYt dWt

= Zt dWt ; Z erfüllt also die stochastische Differentialgleichung dZt = Zt dWt ,

Z0 = 1

Die analoge analytische Differentialgleichung ist dy = ydt, y(0) = 1, deren Lösung y(t) = et ist. Deshalb spricht man bei Zt = eWt −t/2 von dem stochastischen Exponential. Beweis von Satz 10.5: Schritt 1: Es genügt, Itô-Prozesse über einfachen Prozessen zu betrachten, d.h. Z t Z t f (s)ds e(s)dWs + Yt = Y0 + 0

0

mit e und f einfach: Seien e und f wie im Satz. Dann gibt es Folgen von einfachen Prozessen (en )n≥1 und (fn )n≥1 mit Z T Z T 2 |fn − f |(s)ds → 0 f.s. für n → ∞. |en − e| (s)ds → 0 f.s. und 0

0

Gemäß R · der Konstruktion R · des stochastischen Integrals können die Folgen so gewählt werden, dass 0 en (s)dWs → 0 e(s)dWs fast sicher gleichmäßig über [0, T ] konvergiert. Dann konvergiert auch Z Z Y· n = Y0 +

·

0

·

fn (s)ds +

en (s)dWs

0

gleichmäßig auf [0, T ] gegen Y .

Gelte nun die Itô-Formel für Y n , en , fn , das heißt, für n ≥ 1 sei  Z t 1 n n n n n 2 u(t, Yt ) = u(0, Y0 ) + us (s, Ys ) + uy (s, Ys )fn (s) + uyy (s, Ys )en (s) ds 2 0 Z t uy (s, Y0n )en (s)dWs . + 0

Wegen der gleichmäßigen Konvergenz von Y n → Y und der Stetigkeit der partiellen AbleitunRt gen folgt die Itô-Formel allgemein. Für die Konvergenz von 0 uy (s, Ysn )en (s)dWs überzeuge man sich, dass Z t (uy (s, Ysn )en (s) − uy (s, Ys )e(s))2 ds → 0 für n → ∞. 0

84

Kapitel 10: Die Itô-Formel

Nach der Konstruktion des stochastischen Integrals folgt die Itô-Formel allgemein. Schritt 2: Seien nun e, f einfach. Wegen der Additivität der stochastischen Integrale genügt es, ein Intervall [t0 , t0 ] zu betrachten. Für t ∈ [t0 , t0 ] und (t0 − t0 ) klein genug gilt Yt = Yt0 + f (t − t0 ) + e(Wt − Wt0 ). Dabei sind Yt0 , f und e Zufallsvariablen, die bezüglich Ft0 messbar sind. Sei V (s) := u(s, Ys ) und t0 < t1 < . . . < tkn = t0 sei eine dyadische Zerlegung Pn von [t0 , t0 ] mit kPn k := sup {ti+1 − ti } → 0. Es gilt 1≤i≤kn

V (t0 ) − V (t0 ) =

kn X k=1

(u(tk , Ytk ) − u(tk−1 , Ytk−1 )).

Wir entwickeln u(tk , Ytk ) − u(tk−1 , Ytk−1 ) = [u(tk , Ytk ) − u(tk−1 , Ytk )] + [u(tk−1 , Ytk ) − u(tk−1 , Ytk−1 )] mit der Taylorformel. Den linken Summanden entwickeln wir um den Punkt tk−1 , den rechten um Ytk−1 und erhalten u(tk , Ytk ) − u(tk−1 , Ytk−1 ) = (Ytk − Ytk−1 ) · ∂y u(tk−1 , Ytk−1 ) {z } | =:I

1 + (Ytk − Ytk−1 )2 ∂yy u(tk−1 , Ytk−1 + θk (Ytk − Ytk−1 )) {z } |2 =:II

+ (tk − tk−1 )∂t u(tk−1 + θk (tk − tk−1 ), Ytk−1 ) {z } | =:III

mit 0 ≤ θk , θk ≤ 1. Wir untersuchen nun die Konvergenz der Terme I, II, III für n → ∞ und somit für kPn k → 0. Wegen der Stetigkeit von Y, W, ut und uyy gilt für n → ∞ max | ut (tk−1 , Ytk−1 + θk (tk − tk−1 ), Ytk−1 ) − ut (tk−1 , Ytk−1 ) |→ 0,

1≤k≤kn

sowie max | uyy (tk−1 , Ytk−1 + θk (Ytk − Ytk−1 ), Ytk−1 ) − uyy (tk−1 , Ytk−1 ) |→ 0.

1≤k≤kn

Es genügt daher die rechte Seite von X X u(tk , Ytk ) − u(tk , Ytk−1 ) ≈ uy (tk−1 , Ytk−1 )(Ytk − Ytk−1 ) {z } | k≥1 k≥1 +

+

1X

2

=:I′ =I

uyy (tk−1 , Ytk−1 )(Ytk − Ytk−1 )2 | {z } k≥1

X k≥1

=:II′

ut (tk−1 , Ytk−1 )(tk − tk−1 ) {z } | =:III′

10.2. Die Itô-Formel

85

zu untersuchen. Zu III’: Für n → ∞ gilt

X k≥1

ut (tk−1 , Ytk−1 ) · (tk − tk−1 ) →

Z

t0

ut (s, Ys )ds

t0

fast sicher, da die linke Seite für jedes ω ∈ Ω eine konvergente Riemann-Summe ist. Zu I’: Setze un (t) :=

kn P

k=1

uy (tk−1 , Ytk−1 )1(tk−1 ,tk ) (t), dann ist un einfach und es gilt Z

t0

t0

(un (t) − uy (t, Yt ))2 dt → 0

f.s.

mit Hilfe von Folgerung 10.2 in §10.1 und der selben Argumentation wie zu III’ folgt Z t0 Z t0 Z t0 I′ = unl (t)dYt = e unl (t)dWt + f unl (t)dt t0

→ e = für eine Teilfolge (unl ) fast sicher.

Z

Z

t0 t0

uy (t)dWt + f

t0 t0

Z

t0 t0

uy (t)dt t0

uy (t)dYt t0

Zu II’: Es ist ′

II

=

kn X k=1

= f2 |

uyy (tk−1 , Ytk−1 )(Ytk − Ytk−1 )2

kn X k=1

uyy (tk−1 , Ytk−1 )(tk − tk−1 )2 {z

+ 2ef |

+ e2 |

kn X k=1

uyy (tk−1 , Ytk−1 )(tk − tk−1 )(Wtk − Wtk−1 ) {z

=:II2 kn X k=1

uyy (tk−1 , Ytk−1 )(Wtk − Wtk−1 )2 .

|II1 | ≤ |f 2 | kuyy k

{z

}

=:II3

Bezeichne kuyy k := max |uyy (t, Yt )|. Es gilt t∈[t0 ,t0 ]

}

=:II1

kn X (tk−1 − tk ) max (tk − tk−1 ) k=1 0

1≤k≤kn

≤ |f 2 | kuyy k(t − t0 )kPn k → 0

f.s für n → ∞.

}

86

Kapitel 10: Die Itô-Formel

Ähnlich lässt sich der zweite Term abschätzen: |II2 | ≤ 2|ef | · kuyy k · (t0 − t0 ) max (Wtk − Wtk−1 ) → 0 1≤k≤kn

f.s. für n → ∞.

Zur Konvergenz von II3 : Es ist 2

II3 = e

kn X k=1

+e2

uyy (tk−1 , Ytk−1 )(tk − tk−1 ) kn X k=1

  uyy (tk−1 , Ytk−1 ) (Wtk − Wtk−1 )2 − (tk − tk−1 ) .

Der erste Term konvergiert gegen 2

e

Z

t0

uyy (t, Yt )dt.

t0

Um den Rest abzuschätzen, nehmen wir zunächst an, dass gilt sup |uyy (t, z)| =: kuyy k∞ < ∞.

(+)

t0 ≤t≤t0 z∈R

Dann ist Zn (tjn ) =

jn X k=1

für 1 ≤ jn ≤ kn =

Dabei ist

2n

|uyy (tk−1 , Ytk−1 )| [(Wtk − Wtk−1 )2 − (tk − tk−1 )]

ein quadratintegrables Martingal. Mit der Maximalungleichung folgt    2n n P max n Zn (tk ) > n/2 ≤ E Zn (t0 )2 2 . 1≤k≤2 n 2 

!2  2n X [(Wtk − Wt−k−1 )2 − (tk − tk−1 )]  E(Zn (t0 )2 ) ≤ kuyy k2∞ · E  2n

= kuyy k2∞

X k=1

k=1

  E ((Wtk − Wtk−1 )2 − (tk − tk−1 ))2

  t0 − t0 ≤ kuyy k2∞ 2n E ((Wt1 − Wt0 )2 − (t1 − t0 ))2 mit t1 = t0 + 2n  0 2  t − t0 = kuyy k2∞ 2n E W t20 −t0 − 2n 2n 2  n  0 2 2 2 2 n t − t0 E 0 W 0 0 −1 = kuyy k∞ 2 2n t − t0 t 2−t n 0 2   (t − t0 ) E (W12 − 1)2 = kuyy k2∞ 2n C = 2n

10.2. Die Itô-Formel

und P



87

max Zn (tk ) >

1≤k≤2n

n 2n/2



P

≤ 

C . n2

Das Lemma von Borel-Cantelli liefert

 max Zn (tk ) ≤ n/2 , n ↑ = 1. 1≤k≤2n 2 n

Der zweite Term von II’3 verschwindet für n → ∞ also unter Annahme (+). Wir weisen nun zuletzt nach, dass auf Bedingung (+) verzichtet werden kann. Sei hierzu ZnK (tjn )

=

jn X k=1

i h  2 2 W − W − (t − t ) uyy tk−1 , YtK t t k k−1 k k−1 k−1

mit

Y

K

=

    K   

Y

, falls Y > K , falls − K < Y < K

−K , falls Y ≤ −K.

ZnK ist also das bei K trunkierte Martingal. Sei kuyy kK := sup |uyy (t, z)|. t0 ≤t≤t0 |z|≤K

In obiger Rechnung kann durchgehend kuyy kK < ∞ ersetzt werden und man erhält schließlich P



max ZnK (tkn ) 1≤k≤2n

 n ≤ n , n ↑ = 1 ∀K > 0. 2

Wegen P ( sup |Yt | < ∞) = 1 folgt t0 ≤t≤t0

P

)!  (   n n K max Zn (tkn ) ≤ n , n ↑ ∩ sup Yt ≤ K . →P max Zn (tkn ) ≤ n , n ↑ 1≤k≤2n 1≤k≤2n 2 2 t0 ≤t≤t0



Andererseits konvergiert die erste Zeile für K → ∞ gegen 1.

2

Folgerung 10.8 Ist f ∈ C 2 (R), f beschränkt, dann ist M mit 1 Mt := f (Wt ) − f (W0 ) − 2

Z

t

f ′′ (Ws )ds

0

ein Martingal. Rt Denn: f (Wr ) − f (W0 ) = 0 f ′ (Ws )dWs + stochastisches Integral ein Martingal.

1 2

Rt 0

f ′′ (Ws )ds. Also ist M· =

R· 0

f ′ (Ws )dWs als

Wir wollen nun noch die Itô-Formel in höheren Dimensionen angeben, zunächst jedoch betrachten wir die quadratische Variation zweier quadratintegrabler, stetiger Martingale.

88

Kapitel 10: Die Itô-Formel

Definition 10.9 Ein stetiges Semimartingal X = {Xt , Ft ; t ≥ 0} ist ein adaptierter Prozess mit der Darstellung (+) Xt = X0 + Mt + At für t ≥ 0, wobei M ein F-adaptiertes, lokales, stetiges Martingal ist mit M0 = 0 und A ein F-adaptierter Prozess von beschränkter Variation mit A0 = 0 ist. Satz 10.10 (Itô-Formel für Semimartingale) Sei f : R2 → R stetig differenzierbar und X ein stetiges Semimartingal mit der Darstellung (+). Dann gilt fast sicher Z t Z t Z 1 t ′′ ′ ′ f (Xs )dAs + f (Xs )dMs + f (Xt ) = f (X0 ) + f (Xs )dhM is 2 0 0 0 Der Satz lässt sich ganz ähnlich wie Satz 10.5 beweisen. Nun wollen wir eine multidimensionale Form der Itô-Formel kennenlernen. Dazu brauchen wir einige Vorbereitungen. Satz 10.11 Seien M, N ∈ M2c . Dann existiert ein eindeutiger, adaptierter, stetiger Prozess A mit beschränkter Variation und mit A0 = 0, so dass M · N − A ein Martingal ist. Einen solchen Prozess bezeichnen wir mit A = hM, N i, die quadratische Kovarianz von M und N . Beweis: Sind M, N ∈ M2c , so sind die Prozesse (M + N ) und (M − N ) ∈ M2c und (M + N )2 − hM + N i sowie (M − N )2 − hM − N i Martingale und hM + N i sowie hM − N i sind monoton wachsend, stetig und adaptiert. Damit ist auch  1 1 1 (M + N )2 − (M − N )2 − [hM + N i − hM − N i] = M N − [hM + N i − hM − N i] 4 4 4

ein Martingal und der zweite Summand ist von beschränkter Varation. Der Prozess hM, N i := 1 2 4 [hM + N i − hM − N i] ist demnach die quadratische Kovarianz von M und N . Bemerkungen 10.12 1. Ist Yi (t) = Yi (0) +

Rt 0

ei (s)dWi (s) +

Rt

hYi , Yj it :=

0

fi (s)ds wie im Satz 10.5, dann ist

Z

t 0

ei (s)ej (s)dhWi , Wj is

bzw. dhYi , Yj it = ei (t)ej (t)dhWi , Wj it 2. Ist Wi ≡ W für alle i = 1, . . . , n dann ist hWi , Wj it = t für alle i, j ∈ {1, . . . , n}. 3. Sind Wi und Wj dagegen stochastisch unabhängige 1-dimensionale Standard Brownsche Bewegungen, dann gilt   t , falls i = j hWi , Wj it =  0 , falls i 6= j

10.2. Die Itô-Formel

89

und entsprechend dhWi , Wj it

  dt =  0

, falls i = j , falls i 6= j.

Wir formulieren nun die höherdimensionale Itô-Formel. Satz 10.13 Sei u : R+ × Rn → R, (t, y1 , . . . , yn ) 7→ u(t, y1 , . . . , yn ) mit stetigen partiellen Ableitungen ∂u ∂2u , 1 ≤ i ≤ n und uij = , 1 ≤ i, j ≤ n. ∂yi ∂yi ∂yj Rt Rt Seien Yi (t) = Yi (0) + 0 ei (s)dWi (s) + 0 fi (s)ds mit Yi (0) ∈ R und ei , fi previsibel. Ferner sei W = (W1 , . . . , Wn ) eine n-dimensionale Brownsche Bewegung. Dann ist mit V (t) = u(t, Y1 (t), . . . , Yn (t)) der Prozess V ein Itô-Prozess mit Z t n Z t X u0 (s, Y1 (s), . . . , Yn (s))ds V (t) − V (0) = ui (s, Y1 (s), . . . , Yn (s))dYi (s) + u0 =

∂u ∂t

ui =

i=1

0

0

n Z 1 X t uij (s, Y1 (s), . . . , Yn (s))ei ej dhWi , Wj is + 2 0 i,j=1

In differentieller Kurzform: dVt = u0 dt +

n X

ui dYi +

i=1

= u0 dt +

n X

ui dYi +

i=1

n 1 X uij dhYi Yj i 2

1 2

i,j=1 n X i,j=1

uij ei ej dhWi , Wj i .

Folgerungen 10.14 1. Produktregel für Itô-Prozesse: Seien dYi = ei dWi + fi ds, Prozess und

i = 1, 2 Itô-Prozesse. Dann ist Y1 · Y2 ebenfalls ein Itô-

d(Y1 · Y2 )(t) = Y2 (t)dY1 (t) + Y1 (t)dY2 (t) + dhY1 , Y2 it

= Y2 (t)dY1 (t) + Y1 (t)dY2 (t) + e1 (t)e2 (t)dhW1 , W2 it .

in Kurzschreibweise: d(Y1 Y2 ) = Y2 dY1 + Y1 dY2 + e1 e2 dhW1 , W2 i. 2. Quotientenregel für Itô-Prozesse: Seien Y1 , Y2 wie oben. Dann ist auch YY21 ein Itô-Prozess und es gilt in Kurzschreibweise   1 Y1 Y1 Y2 dY1 + Y1 dY2 − 2 e1 e2 dhW1 , W2 i + 3 e22 dt. d = 2 Y2 Y2 Y2 Y2

90

Kapitel 10: Die Itô-Formel

Denn mit u(t, y1 , y2 ) = y1 /y2 gilt für u(t, y1 , y2 ) in Kurzform u0 = 0, u1 =

y1 y1 1 1 , u11 = 0, u12 = − 2 , u2 = − 2 , u22 = 2 3 . y2 y2 y2 y2

Nach der Itô-Formel gilt   Y1 1 1 1 d = u0 dt + u1 dY1 + u2 dY2 + u12 dhY1 , Y2 i + u21 dhY2 , Y1 i + u22 dhY2 , Y2 i Y2 2 2 2 1 + u11 dhY1 , Y1 i 2 1 Y1 Y1 1 dY1 − 2 dY2 − 2 dhY1 , Y2 i + 3 dhY2 , Y2 i. = Y2 Y2 Y2 Y3

10.2.1

Anwendung auf die komplexe Brownsche Bewegung

Kurze Wiederholung von Funktionentheorie: (Hierzu vgl. etwa Jänich S.1, S.5-7.) Definition 10.15 (einer holomorphen Funktion) Eine Funktion f : U → C mit U ⊂ C offen heißt komplex differenzierbar an der Stelle z0 ∈ U , wenn der Differenzenquotient f (z) − f (z0 ) z − z0

für z → z0

(z0 ) die komplexe Ableitung von f in z0 . Ist f in konvergiert. Dann ist f ′ (z0 ) := limz→z0 f (z)−f z−z0 jedem Punkt z0 ∈ U komplex differenzierbar, so heißt f holomorph.

Die Cauchy-Riemannschen Differentialgleichungen: Wegen der Isomorphie R2 → C

(x, y) 7→ x + iy lässt sich der Zusammenhang zwischen komplexer und reeller Differenzierbarkeit herleiten, der durch die Cauchy-Riemannschen Differentialgleichungen gegeben ist. Setzen wir fe : R2 → C

Dann konvergiert

fe(x, y) := f (x + iy)

für f : C → C holomorph.

f (x + ∆x + iy) − f (x + iy) fe(x + ∆x , y) − fe(x, y) = → f ′ (x + iy) ∆x ∆x

für ∆x → 0. Das heißt ∂x fe(x, y) = f ′ (x + iy). Andererseits ist

fe(x, y + ∆y ) − fe(x, y) → if ′ (x + iy), ∆y

10.2. Die Itô-Formel

91

das heißt ∂y fe(x, y) = if ′ (x + iy) und somit gilt

i∂x fe(x, y) = ∂y fe(x, y).

(∗)

Untersuchen wir nun den Real- und Imaginärteil von f . Dazu setzen wir f (x + iy) = fe(x, y) = u(x, y) + iv(x, y)

mit u, y : R2 → R. Wegen (∗) gilt i∂x u(x, y) − ∂x v(x, y) = ∂y u(x, y) + i∂y v(x, y) und weiter ∂x u(x, y) = ∂y v(x, y) ∂x v(x, y) = −∂y u(x, y) , das heißt die Funktionen u und v erfüllen die Cauchy-Riemannschen Differentialgleichungen . Weiter ist jede holomorphe Funktion bereits unendlich oft komplex differenzierbar. Eine direkte Folge ist, dass für eine holomorphe Funktion f sowohl der Realteil als auch der Imaginärteil die Laplace-Gleichung lösen: ∂xx Re f = ∂xy Im f = −∂yy Re f , d.h. [∂xx + ∂yy ] Re f = 0, analog für den Imaginärteil. Wir wollen nun holomorphe Funktionen angewendet auf die komplexe Brownsche Bewegung untersuchen.

Die komplexe Brownsche Bewegung: Definition 10.16 (komplexe Brownsche Bewegung) Seien X, Y unabhängige Brownsche Bewegungen. Dann ist Z(t) := Z(0) + X(t) + iY (t) eine komplexe Brownsche Bewegung. Lemma 10.17 Ist f : C → C holomorph, so gilt Z t f ′ (Zs )dZs . f (Zt ) = f (Z0 ) + 0

Dabei ist das Stochastische Integral für komplexwertige Prozesse wie folgt festgelegt: Seien Zt1 = Xt1 + iYt1 Zt2 = Xt2 + iYt2 mit X i , Y i reellwertige Prozesse für i = 1, 2. Dann gilt Z

T 0

Zt1 dZt2

Z

T

(Xt1 + iYt1 )d(Xt2 + iYt2 ) 0 Z T Z T 2 2 1 Yt1 d(Xt2 + iYt2 ) Xt d(Xt + iYt ) + i := 0 0 Z Z T Z T Z T 1 2 1 2 1 2 Yt dXt + i iYt1 dYt2 iXt dYt + i Xt dXt + := 0 0 0 Z T Z Z T Z T Yt1 dXt2 , Xt1 dYt2 + i Xt1 dXt2 − Yt1 dYt2 + i =

:=

0

0

0

92

Kapitel 10: Die Itô-Formel

falls die stochastischen Integrale auf der rechten Seite existieren. Weiter ist die quadratische Variation zweier komplexwertiger Prozesse X, Y dadurch definiert, dass X · Y − hX, Y i

ein komplexwertiges lokales Martingal ist,

das heißt Real- und Imaginärteil sind lokale Martingale. Daher ist hiY, Xit = ihY, Xit und hiY, iXit = −hY, Xit

für reellwertige stetige Prozesse X und Y.

Beweis des Lemmas: Sei f : C → C holomorph. Wir stellen f (z) für z = x + iy mit x, y ∈ R wie folgt dar: f (z) = f (x + iy) = u(x, y) + iv(x, y) = fe(x, y) mit u, v : R2 → R und fe : R2 → C. Damit ist

df (Zt ) = du(Xt , Yt ) + idv(Xt , Yt ).

Mit Hilfe der Itô-Formel erhalten wir 1 du(Xt , Yt ) = ∂x u(Xt , Yt )dXt + ∂y u(Xt , Yt )dYt + ∂xx u(Xt , Yt )dhX, Xit 2 1 + ∂xy u(Xt , Yt )dhX, Y it + ∂yy u(Xt , Yt )dhY, Y it 2 1 = ∂x u(Xt , Yt )dXt + ∂y u(Xt , Yt )dYt + [∂xx + ∂yy ]u(Xt , Yt )dt, 2 weil X und Y stochastisch unabhängige Brownsche Bewegungen sind. Da die Cauchy-Riemannschen Differentialgleichungen erfüllt sind, gilt weiter du(Xt , Yt ) = ∂x u(Xt , Yt )dXt + ∂y u(Xt , Yt )dYt und entsprechendes für dv(Xt , Yt ). Insgesamt gilt   ∂x u(Xt , Yt ) + i∂x v(Xt , Yt ) dXt + ∂y u(Xt , Yt ) + i∂y v(Xt , Yt ) dYt = ∂x fe(Xt , Yt )dXt + ∂y fe(Xt , Yt )dYt

df (Zt ) =

= f ′ (Xt + iYt )dXt + if ′ (Xt + iYt )dYt = f ′ (Zt )dZt .

2 Sei Z eine komplexe Brownsche Bewegung. Wir werden nun folgern, dass (f (Zt ))t≥0 für eine holomorphe Funktion f : C → C eine zeittransformierte, komplexe Brownsche Bewegung ist. Hierzu setzen wir θt := arg(f ′ (Zt )) (d.h. f ′ (Zt ) = eiθt |f ′ (Zt ))|). Es lässt sich zeigen, dass Zt∗ =

Z

t 0

eiθs dZs

10.2. Die Itô-Formel

93

ebenfalls eine komplexe Brownsche Bewegung definiert. Dies liegt im Wesentlichen daran, dass die Abbildung z 7→ eiθ z eine Drehung in der komplexen Ebene ist und dass die 2-dimensionale Brownsche Bewegung in Verteilung drehungsinvariant ist. Weiter gilt Z t Z t Z t |f ′ (Zs )|dZs∗ . |f ′ (Zs )|eiθs dZs = f ′ (Zs )dZs = f (Zt ) − f (Z0 ) = 0

0

0

nach Lemma 10.17. Insbesondere ist Z t Z t ′ ′ f (Zs ) f (Zs ) ds = hf (Z), f (Z)it = |f ′ (Zs )|2 ds. 0

0

Betrachten wir nun die monotone Zeittransformation Z t |f ′ (Zs )|2 ds T (t) := 0

sowie T

−1

  Z t ′ 2 |f (Zu )| du ≥ s . (s) := inf t > 0 0

Nach dem Satz von Dubins und Schwarz (Satz 10.18) ist Z

0

T −1 (t)

|f ′ (Zs )| dZs∗

eine komplexe Standard Brownsche Bewegung. Mit anderen Worten ist f (Z) bis auf eine Zeittransformation selbst eine Brownsche Bewegung. Rt Satz 10.18 (Dubins-Schwarz) Sei W Brownsche Bewegung und X(t) = 0 es dWs sowie Rt T (t) = 0 e2 ds mit einer previsiblen Funktion e, so dass T (t) → ∞ für t → ∞. Sei Z t   −1 2 T (s) = inf t > 0 eu du ≥ s . 0

Dann ist B(t) = X(T −1 (t)) Brownsche Bewegung.

Der Beweis erfolgt, indem man die endlich-dimensionalen Randverteilungen von B bestimmt.

Satz 10.19 (Lévy) Sei f : C → C holomorph und sei Z = (Zt , Ft ; t ≥ 0) komplexe Brownsche Bewegung. Dann ist f (Z) bis auf Zeittransformation eine komplexe Brownsche Bewegung. Nun sollen noch einige Anwendungen des Satz von Lévy folgen. Satz 10.20 (Poisson-Integralformel I) Sei H = {z ∈ C | Im(z) > 0}. Sei (Bt ; t ≥ 0) komplexe Brownsche Bewegung mit Start in γ = a + ib. Sei τ = inf{u > 0 | Bu ∈ / H}. Dann ist b · dx . Pγ (Re(Bτ ) ∈ dx) = 2 π(b + (x − a)2 )

94

Kapitel 10: Die Itô-Formel

Beweis: (Siehe auch Übungsaufgabe Nr. 32) Durch w(z) =

z−γ z−γ

wird H auf D = {w | |w| < 1} holomorph abgebildet mit w(γ) = 0. Aber (w(Bt ); t ≥ 0) ist zeittransformierte Brownsche Bewegung in C mit Start in 0. Dann gilt P (w(Bτ ) ∈ dy) = und weiter P (Bτ ∈ dw(x)) = Mit x ∈ R ergibt sich aber

|w′ (x)| =

die Behauptung.

dy 2π

|w′ (x)|dx |dw(x)| = . 2π 2π 2b , (x − a)2 + b2 2

Nun soll noch das entsprechende Resultat für die Kreisscheibe angegeben werden. Satz 10.21 (Poisson-Integralformel II) Sei ξ ∈ D. Sei Pξ das Maß des komplexen Brownschen Bewegung bei Start in ξ. Dann ist Pξ (Brownsche Bewegung verläßt D in dθ) =

1 − |ξ|2 dµ2 (θ). |eiθ − ξ|2

Dabei ist µ2 das normierte Lebesque-Maß auf ∂D = {w | |w| = 1}. Beweis: Es existiert eine holomorphe Abbildung g : D → D mit g(ξ) = 0. Denn f (z) := i

1+z 1−z

bildet D auf H ab. Setzt man g = w ◦ f , so hat g die gewünschte Eigenschaft. Dann ist g(z) =

f (z) − f (ξ)

f (z) − f (ξ)

und weiter Pξ (Brownsche Bewegung verläßt D in dθ) =

1 ′ iθ 1 − |ξ|2 µ2 (dθ) g (e ) dθ = iθ 2 e −ξ

2

Kapitel 11

Der Satz von Girsanov In diesem Kapitel werden wir die Brownsche Bewegung als stetiges L2 -Martingal charakterisieren und dann den grundlegenden Satz von Girsanov über Maßwechsel beweisen. Maßwechsel sind sowohl in der Statistik als auch in der Finanzmathematik wesentlich.

11.1

Der Darstellungssatz von Lévy

Zunächst geben wir den Darstellungssatz von Lévy an, der die Brownsche Bewegeung als stetiges Martingal anhand seiner quadratischen Variation charakterisiert. Satz 11.1 Sei (Mt , Ft , t ≥ 0) ein stetiges M2c -Martingal mit hM it = t und M0 = 0. Dann ist (Mt , t ≥ 0) Standard Brownsche Bewegung. Beweis: Angenommen für λ ∈ R gilt   2 E eiλ(Mt −Ms ) | Fs = e−λ (t−s)/2 ,

dann folgt für 0 = t0 < t1 < . . . < tk ,   k−1   X λj (Mtj+1 − Mtj ) E exp i   j=0     k−1   X = EE exp i λ(Mtj−1 − Mtj ) Ftk−1    j=0    ! k−2   X λj (Mtj+1 − Mtj ) E exp{iλk−1 (Mtk − Mtk−1 )} Ftk−1  = E exp i   j=0    k−2   X −λ2k−1 (tk −tk−1 )/2  E exp i = e λj (Mtj+1 − Mtj )    j=0

= ...   k−1 Y 1 2 exp − λj (tj+1 − tj ) , = 2 j=0

95

(∗)

96

Kapitel 11: Der Satz von Girsanov

das heißt (Mt1 , . . . , Mtk ) ist die Randverteilung eines Gauß-Prozesses und die Zuwächse (Mtj+1 − Mtj ) sind N (0, tj+1 − tj )-verteilt. Also ist M eine Standard Brownsche Bewegung. Nun der Beweis von (∗): Wir wenden die Itô-Formel (Satz 10.10) auf (Real- und Imaginärteil von) u(Mt ) mit u(x) = eiλx = cos(λx) + i sin(λx) an. Es ist Z t Z 1 2 t λ sin(λMu )dMu − λ cos(λMu )dhM iu cos(λMt ) = cos(λMs ) − 2 s s Z t Z t 1 cos(λMu )du, sin(λMu )dMu − λ2 = cos(λMs ) − λ 2 s s da dhM iu = du ist nach Voraussetzung. Ebenso ist Z t Z 1 2 t cos(λMu )dMu − λ sin(λMt ) = sin(λMs ) + λ sin(λMu )du 2 s s und zusammen ergibt sich iλMt

e und

R t

iλMu dM u 0 e

iλMs

=e

+ iλ



Z

t

iλMu

e s

1 dMu − λ2 2

Z

t

eiλMu du

s

ist ein komplexes quadratintegrables Martingal, das heißt sowohl RealR  t iλMu als auch Imaginärteil sind quadratintegrable Martingale. Es gilt E s e dMu | Fs = 0 und somit auch Z t  iλ(Mu −Ms ) e dMu Fs = 0 . E (∗∗) t≥0

s

Zu A ∈ Fs definieren wir

Wegen eiλ(Mt −Ms ) = 1 − iλ dass

Rt s

  hA (t) := E eiλ(Mt −Ms ) 1A .

eiλ(Mu −Ms ) dMu − 12 λ/linux/lais2

Rt s

eiλ(Mu −Ms ) du gilt mit (∗∗),

Z 1 2 t  iλ(Mu −Ms )  E e 1A du hA (t) = P (A) − λ 2 s Z t 1 = P (A) − λ2 hA (u)du. 2 s Setze nun fe(t) := beziehungsweise

hA (t) P (A) .

Dann gilt 1 fe(t) = 1 − λ2 2

Z

s

1 d e f (t) = − λ2 fe(t), dt 2

t

fe(u)du fe(s) = 1.

1 2 Es muß also fe(t) = e− 2 λ (t−s) gelten. Das bedeutet wegen

    1 2 iλ(Mt −Ms ) E e 1A = hA (t) = fe(t) · P (A) = P (A) exp − λ (t − s) 2

11.2. Der Satz von Girsanov für A ∈ Fs beliebig, dass



97

iλ(Mt −Ms )

E e gilt.

11.2

| Fs



  1 2 = exp − λ (t − s) 2 2

Der Satz von Girsanov

Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und (Wt , Ft ; t ≥ 0) sei Brownsche Bewegung. Sei e previsibel und Z t  Z 1 t 2 e(s)dWs − Zt = exp e (s)ds . 2 0 0 Wir schreiben bisweilen auch Z(t), wenn es verständlicher ist. Bemerkungen 11.2 1. Falls e einfach ist, ist (Zt , Ft ; t ≥ 0) ein Martingal. 2. Falls e nichtvorausgreifend ist, ist (Zt , Ft ; t ≥ 0) ein Supermartingal. 3. Ist EZt = 1 für alle 0 ≤ t ≤ T , dann ist Z ein Martingal. n R o T 4. Der Satz von Novikov besagt: Falls E exp 21 0 e2 (s)ds < ∞, so ist EZt = 1 für alle 0 ≤ t ≤ T (und somit ist Z ein Martingal). Beweis: 1) ist Übungsaufgabe, 3) ist klar und 4) kann etwa in Karatzas-Shreve nachgelesen werden. Wir zeigen 2). Sei (en )n≥1 eine Folge von einfachen Prozessen mit en → e λ[0,T ] ⊗P −f.s., so dass/linux/lais RT 2 RT 2 RT R t e (s)ds → e (s)ds fast sicher und sup e (s)dW − n s 0≤t≤T n 0 0 0 0 e(s)dWs → 0 fast sicher Rt Rt gilt. Mit Zn (t) = exp{ 0 en (s)dWs − 21 0 e2n (s)ds} gilt dann Zn (t) → Z(t) fast sicher. Wenden wir nun das Lemma von Fatou auf Zn (t) ≥ 0 ∀n an, so erhalten wir E(Z(t) | Fs ) = E(lim inf Zn (t) | Fs ) n→∞

≤ lim inf E(Zn (t) | Fs ) n→∞

= lim inf Zn (s) n→∞

= Z(s)

fast sicher

für s ≤ t. 2

Wir definieren nun durch Pet (A) := E1A Zt

für A ∈ Ft

ein neues Maß Pet auf (Ωt , Ft ) für jedes 0 ≤ t ≤ T . Da Z ein Martingal ist, gilt Pet (A) = PeT (A),

∀A ∈ Ft .

98

Kapitel 11: Der Satz von Girsanov

Gehen wir von einem beschränkten Zeithorizont (0 ≤ t ≤ T ) aus, so sprechen wir auch von e=E eT bezeichnet dann den Erwartungseinem neuen Maß Pe , gemeint ist dann stets PeT und E e e wert bzgl. P = PT . Zusammengefasst gilt dPet dPeT , = Zt = dP dPt Ft

wobei Pt = P |Ft .

Bemerkung 11.3 Mit



dPe dP Ft

= Zt ist



dP dPe Ft

= Zt−1 . Und Z −1 ist ein Pe -Martingal.

eT |Y | < ∞, so gilt Lemma 11.4 Sei 0 ≤ t ≤ T . Ist Y eine Ft -messbare Zufallsvariable mit E falls 0 ≤ s ≤ t ≤ T .

e (Y | Fs ) = 1 E (Y Zt | Fs ) E Zs

Beweis: Sei A ∈ Fs , dann gilt Z 1 E (Y Zt | Fs ) dPeT Z A s

=

Z

=

ZA

PeT -f.s.,

1 E (Y Zt | Fs ) dPes Z s A Z 1 E (Y Zt | Fs ) Zs dP = Z ZA s E (Y Zt | Fs ) dP = ZA Y Zt dP = ZA Y dPet = A

Y dPeT

2 Satz 11.5 (Satz von Girsanov) Sei Z t  Z 1 t 2 e(s)dWs − Zt = exp e (s)ds 2 0 0 mit e nichtvorausgreifend, so dass (Zt , Ft ; 0 ≤ t ≤ T ) ein Martingal ist. Sei Z t e(s)ds. Xt := Wt − 0

Dann ist (Xt , Ft ; 0 ≤ t ≤ T ) eine Standard Brownsche Bewegung unter PeT , wobei Z T  Z dPeT 1 T 2 e(s)dWs − = ZT = exp e (s)ds dPT 2 0 0

11.2. Der Satz von Girsanov

99

Beweis: Wir wollen den Darstellungsatz von Lévy auf Z t e(s)ds, X0 = 0 Xt = Wt − 0

unter dem Maß Pe anwenden. Wir schreiben von nun an es für e(s). Schritt 1: Wir wenden die Itô-Formel auf das Produkt Z · X an und erhalten Z t Z t Z t dhZ, W is Zs dXs + Xs dZs + Zt Xt = 0 0 0 Z t Z t Z t Z t Zs es ds Zs es ds + Zs dWs − Xs Zs es dWs + = 0 0 0 0 Z t Zs (Xs es + 1)dWs . = 0

Dabei haben wir dZs = es Zs dws verwendet. Demnach ist Zt Xt stochastisches Integral und unter Integrationsbedingungen ZX ein P -Martingal. Nach Lemma 11.4 ist e t | Fs ) = 1 E (Xt Zt | Fs ) = 1 Xs Zs = Xs E(X Zs Zs und folglich ist X ein Martingal bezüglich Pe .

Schritt 2: Wir berechnen nun die quadratische Variation von (Zt (Xt2 − t))t≥0 unter P . Es ist d(Xt2 − t) = dXt2 − dt

= 2Xt dXt + dhXit − dt

= 2Xt dWt − 2Xt et dt + dt − dt

= 2Xt dWt − 2Xt et dt

und dZt = Zt et dWt . Damit folgt dhZ, X 2 − ·it = 2et Xt Zt dt und

d(Zt (Xt2 − t)) = (Xt2 − t)dZt + Zt d(Xt2 − t) + 2et Zt Xt dt

= (Xt2 − t)dZt + Zt (2Xt dWt − 2Xt et dt) + 2et Zt Xt dt

= (Xt2 − t)dZt + 2Xt Zt dWt

= ((Xt2 − t)Zt et + 2Xt Zt )dWt .

(Zt (Xt2 − t))t≥0 ist somit ein stochastisches Integral. Sind die entsprechenden Integralbilitätsbedingungen erfüllt, so ist (Zt (Xt2 − t))t≥0 somit ein Martingal bezüglich P . Mit Lemma 11.4 folgt dann e t2 − t | Fs ) = 1 E(Zt (Xt2 − t) | Fs ) E(X Zs 1 Zs (Xs2 − s) = Zs = (Xs2 − s),

d.h., (Xt2 − t)t≤0 ist ein Pe-Martingal. Das bedeutet, (Xt )t≥0 ist ein stetiges Pe-Martingal mit quadratischer Variation t. Nach dem Darstellungssatz von Lévy ist X somit Brownsche Bewegung unter Pe. 2

100

11.3

Kapitel 11: Der Satz von Girsanov

Anwendung des Satzes von Girsanov auf die Brownsche Bewegung mit Drift

Sei W eine Standard Brownsche Bewegung mit W0 = 0 unter P0 und sei Xt = Wt − θt, θ ∈ R. Wir definieren eine Familie von Maßen durch Pθ,t (A) = E0 (1A Ztθ ), mit θ ∈ R und Ztθ = exp{θWt − 12 θ 2 t}. Dann ist (Xt )t≥0 Brownsche Bewegung. dP

θ,t θ Sei Pθ dasjenige Maß auf F∞ mit Pθ |Ft = Pθ,t ∀t ≥ 0. Dann ist dP dP0 |Ft = dP0,t = Zt . Der Prozess (Wt )t≥0 unter Pθ heißt Brownsche Bewegung mit Drift θ. Da Eθ Xt = 0, folgt Eθ Wt = θ · t.

Bemerkung 11.6 N 1. L(Wti+1 − Wti ; i = 1, . . . , k) = ki=1 N (θ(ti+1 − ti ), ti+1 − ti ). unter Pθ . Insbesondere ist W ein Gauß-Prozess unter Pθ .     2. Für θ 6= 0 ist Pθ lim Wt t = θ = 1 und P0 lim Wt t = θ = 0. Das bedeutet, die Maße t→∞ t→∞ P0 und Pθ sind singulär. Bemerkung 11.7 Für θ = 0 gilt wie wir bereits wissen, mit Tb = inf{t > 0 | Wt ≥ b}, dass 1. P0 (Tb ≤ t) =

Z

t



b

2πs3 √ 2. E0 (e−αTb ) = exp{−b 2α}. 0

2 /(2s)

e−b

ds und

Wir wollen nun die Verteilung der ersten Austrittszeit aus (−∞, b) der Brownschen Bewegung mit Drift θ bestimmen. Da Wt unter Pθ wie N (θt, t) verteilt ist, gilt mit Tbθ := inf{t > 0 | Wt + θt ≥ b}, dass P0 (Tbθ ≤ t) = Pθ (Tb ≤ t). Wir berechnen im folgenden Satz Pθ (Tb ≤ t). Satz 11.8 Für θ ∈ R gilt Z t b √ exp{(b − θ · s)2 /2s}ds und 1. Pθ (Tb ≤ t) = 3 2πs 0   1 für θ ≥ 0 2. Pθ (Tb < ∞) =  exp{−2|θ|b} für θ < 0.

11.3. Anwendung des Satzes von Girsanov auf die Brownsche Bewegung mit Drift

101

Beweis: Zu 1): Es gilt mit Maßwechsel Pθ (Tb ≤ t) = E0 (1{Tb ≤t} Zt )

= E0 (E0 (1{Tb ≤t} Zt | Ft∧Tb ))

= E0 (1{Tb ≤t} E0 (Zt | Ft∧Tb )) da {Tb ≤ t} ∈ Ft∧Tb nach O.S.T

= E0 (1{Tb ≤t} Zt∧Tb )

= E0 (1{Tb ≤t} ZTb )

1 2

= E0 (1{Tb ≤t} eθWTb − 2 θ Tb ) Z t 1 2 2 b e−b /(2s) ds eθb− 2 θ s √ = 2πs3 0 Z t b 2 √ = e−(b−θs) /(2s) ds . 3 2πs 0 Zu 2): Für θ < 0 ist dPθ dP|θ| Es folgt Pθ (Tb < ∞) =

Z



=

Ft

{Tb K} X0 = E T



Nun ist ST > K genau dann wenn

bzw.

 K σ2  o f T > exp σ WT + r − 2 S0 n

fT > W

log( SK0 ) − (r − σ

σ2 2 )T

=: −y1 .

12.1. Anwendung auf die Call-Option

109

Also ist X0 =

Z

{ST >K} Z ∞

= S0 |

e−rT (ST − K)dPe

exp

−y1

n

Z ∞  σ2  o − rT + σy + r − ϕT (y)(dy), T ϕT (y)(dy) − Ke−rT 2 −y1 {z } | {z } (I) (II)

dabei ist ϕT die Dichte der N (0, T )-Verteilung. Weiter ist Z ∞ n y2 o 1 σ2 √ exp σy − T − (I) = S0 dy 2 2T 2πT −y1 Z ∞ n (y − σT )2 o 1 √ exp − = S0 dy 2T 2πT −y1 Z ∞ x2 1 (mit der Substitution x := e− 2 √ dx = S0 2π −y 1 Z y1 x2 1 e− 2 √ dx. = S0 2π −∞ Dabei ist y 1 := Ebenso berechnen wir das zweite Integral. Z −rT (II) = Ke −rT

= Ke

)

y1 + σT √ . T



−y1

Z

y−σT √ T

exp

√ y1 / T

−∞

n

e−

− x2 2

y2 o 1 √ dy 2T 2πT

1 √ dx. 2π

Insgesamt folgt mit der Verteilungsfunktion Φ der Standard-Normalverteilung:

mit

X0 = S0 Φ(d2 ) − Ke−rT Φ(d1 )   2 S √ log K0 + r− σ2 T +σ2 T √ d2 = = d1 + σ T σ T

Dies ist die sogenannte Black–Scholes-Formel (1973) für die R. Merton und M. Scholes 1997 den Nobelpreis für Wirtschaftswissenschaften erhielten.

110

Kapitel 12: Die Black-Scholes-Formel

Literaturverzeichnis I. Lehrbücher • Durrett: Brownian Motion and Martingales in Analysis, Wadsworth, 1984 • Hida: Brownian Motion, Springer, 1980 • Karatzas–Shreve: Brownian Motion and Stochastic Calculus, Springer, 1988 • Knight: Essential of Brownian Motion and Diffusion, AMS, 1981 • Revuz–Yor: Continuous Martingales and Brownian Motion, Springer, 1991 • Rogers–Williams: Diffusions, Markov Processes and Martingales, Wiley, 1987

II. Klassiker • Doob: Stochastic Processes, Wiley, 1953 • Itô–McKean: Diffusion Processes, Springer, 1964 (1974) • Lévy: Processus stochastiques et Mouvement Brownien, Gauthiers Villars, 1948 (1965) • McKean: Stochastic Integrals, 1969 (1974) • Mandelbrot: The Fractal Geometry of Nature, W.H. Freeman, 1983 (Geschichte)

III. Stochastische Differential-Gleichungen • Chung: Lectures from Markov Processes to Brownian Motion, Springer, 1982 (Potentialtheorie) • Ikeda–Watanabe: Stochastic Differential Equations and Diffusion Processes, North Holland, 1980 • Liptser–Shiryaev: Statistics of Random Processes I & II, Springer, 1978 • Protter: Stochastic Integration and Differential Equations, Springer, 1990 (Stochastische Integration) 111

112

Kapitel 12: Die Black-Scholes-Formel

IV. Finanzmathematik • Bingham–Kiesel: Risk Neutral Valuation, Springer, 1998 • Duffie: Security Markets, Academic Press, 1988 • Hull: Options, Futures, etc., Prentice Hall, 1997 • Irle: Finanzmathematik, Teubner, 1998 • Karatzas–Shreve: Methods of Mathematical Finance, Springer, 1998 • Lamperton–Lapeyre: Stochastic Calculus Applied to Finance, Chapman & Hall, 1996 • Shiryaev: Essentials of Stochastic Finance, World Scientific, 1999