Institut für Stochastik PD. Dr. Dieter Kadelka

·

Daniel Gentner

Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4

Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung) Der lokale GWS von de Moivre und Laplace kann wie folgt formuliert werden: Sei sei

0 < p < 1 fest und Yn ∼ Bin(n, p), insbesondere EYn = np, Var(Yn ) = np(1 − p). φµ,σ2 die Lebesgue-Dichte von N (µ, σ 2 ). Zeigen Sie, dass für alle C > 0 gilt, dass P(Yn = k) = 0. lim sup√ − 1 φnp,np(1−p) (k) n→∞ k:|k−np|≤C· np(1−p)

Ferner

(D.h. die Zähldichte der Binomialverteilung und die (stetige) Dichte der Normalverteilung sind asymptotisch gleich, und zwar gleichmäÿig in

k

auf kompakten (d.h. hier endlichen) Mengen.)

Man beweise die folgende, allgemeinere Aussage:

Xn , n ∈ N, Zufallsvariable mit Werten in Tn := an · N0 + bn , wobei an > 0. Die Zähldichte t → fn (t) := P(Xn = t), t ∈ Tn habe die Eigenschaft

Seien

fn (an (k + 1) + bn ) ↓ fn (an k + bn )

(∗) k → (mit

0/0 := 0).

Gilt

d

Xn → N (0, 1),

(1)

Lösung: Sei Fn

k ∈ N0

0 0 und eine beschränkte Folge t∗ := limn→∞ tn existiert und

(tn )n∈N

in

{t ∈ R : |t| ≥ δ},

(Xn )n∈N so dass

lim (φn (tn ) − φ(t∗ )) ≥ 3α > 0

(10)

n→∞

∗ gilt. (limn→∞ φn (tn ) = ∞ kann vorerst nicht ausgeschlossen werden.) Sei etwa t ≥ δ 3 ∗ ∗ und v ∈ [ δ, t ) beliebig mit φ(v) < φ(t ) + α. Für genügend groÿes n gilt dann tn > v 4 δ ∗ und φn (tn ) ≥ φ(t ) + 2α > φ(v) + α. Da φ ↓ auf [ , ∞) gilt φn (v) > φ(v) + α. Da φ 2 δ stetig ist, gibt es ein ≤ u < v mit φ(u) < φ(v) + α/2, also auch φn (t) ≥ φn (v) > 2 φ(v) + α > φ(t) + α/2 für alle u ≤ t ≤ v . Wie früher steht dies im Widerspruch zu

limn→∞ (Gn (v) − Gn (u)) = Φ(v) − Φ(u).

fn (tn ) an

= ∞

möglich ist. (1) kann dann nicht gelten. Kombiniert man (v) und (vii), so folgt aus

Xn →

(viii) Einfache Gegenbeispiele zeigen, dass ohne weitere Voraussetzungen

N (0, 1)

Xn fn (t) lim sup − φ(t) = 0 n→∞ t∈T : |t|≥δ an n

für unimodale Zähldichten

(11)

d

von

für alle

δ>0

fn (t) lim inf inf − φ(t) ≥ 0. n→∞ t∈Tn an

und zusätzlich

d

Xn − tn , so gilt wegen Satz 3.23 und (vi) wieder Xn − tn → N (0, 1) Bedingung (∗) ändert sich nichts. Wir können daher der Einfachheit halber

Ersetzt man und an der

fn

limn→∞

Xn

durch

tn = 0 voraussetzen t ≤ δ in Tn

und es reicht wegen

min{fn (−δ), fn (δ)} ≤ fn (t) ≤ fn (0)

für

−δ ≤

fn (0) = φ(0) n→∞ an

(∗∗)

lim

lim inf n→∞ fna(0) ≥ φ(0) schon bekannt ist. Dies folgt z.B. aus (∗). Denn n aus log(fn (an (k + 1) + bn )) − log(fn (an k + bn )) ↓ folgt, dass k → log(fn (an k + bn )) konkav 1 2 ist und log(φ(x)) = − log(2π) − x /2 (Skizze!). 2

zu zeigen, wobei

Aufgabe 2 (Einfache eindimensionale Irrfahrt) Seien

X1 , X2 , ... ∼ Bin(1, 12 )

und

Sn :=

n ∑

Xi

i=1

Tn das gröÿte 0 ≤ i ≤ n mit Si = 0 und Vn die Si ≥ 0. Wir setzen die Gültigkeit der Gleichungen

die eindimensionale Irrfahrt. Sei

1 ≤ i ≤ Tn

mit

Si−1 ≥ 0

und

P(S1 > 0, ..., Sn−1 > 0, Sn = j) =

(12)

j P(Sn = j), n

Anzahl der

j > 0, n ∈ N.

und

P(V2m = 2i|S2m = 0) =

(13)

voraus. Leiten Sie ab, dass für

1 , m+1

i ∈ {0, 1, ..., m}, m ∈ N,

0 ≤ 2i ≤ 2k < n, j > 0

P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)

gilt, dass

j 1 P(Sn−2k = j). k + 1 n − 2k

Lösung: Bedingen nach {S2k = 0} liefert zunächst P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)P(Tn = 2k, V2k = 2i, Sn = j|S2k = 0). Gegeben

0}

{S2k = 0}

sind

(S1 , ..., S2k )

und

(S2k+1 , ..., Sn )

unabhängig!

V2k

hängt gegeben

{S2k =

nur von der ersten Folge ab, die beiden anderen Zufallsvariablen hingegen nur von der

zweiten. Wir erhalten

P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)P(Tn = 2k, V2k = 2i, Sn = j|S2k = 0) = P(S2k = 0)P(V2k = 2i|S2k = 0)P(Tn = 2k, Sn = j|S2k = 0) = P(S2k = 0)P(V2k = 2i|S2k = 0)P(S2k+1 > 0, ..., Sn > 0, Sn = j|S2k = 0) Mit

(1)

und

(2)

folgt nun die Behauptung.

Aufgabe 3 (Transformationen von Brownscher Brücke und Brownscher Bewegung) B eine Brownsche nach 0). Zeigen Sie:

Sei

(a) Für

c > 0

Bewegung auf

[0, ∞)

ist der skalierte Prozess

und

cB t2 c

schaft)

B0

eine Brownsche Brücke auf

[0, 1]

(von

0

eine Brownsche Bewegung. (Skalierungseigen-

(b) Der zeitinvertierte Prozess

X0 = 0, Xt := tB 1 , t > 0 t

ist eine Brownsche Bewegung.

(Zeitinversionseigenschaft der Brownschen Bewegung) (c) Der Prozess

0 B(1−t)

ist wieder eine Brownsche Brücke. (Zeitinversionseigenschaft der

Brownschen Brücke) (d)

tB(1−t)/t

(e)

0 (1 + t)Bt/(1+t)

Lösung:

ist eine Brownsche Brücke (Trafo von BB zu Brücke) ist eine Brownsche Bewegung auf

(Trafo von Brücke zu BB)

Es ist klar, dass alle in den Aufgabenteilen genannten Prozesse Gaussprozesse sind.

Ein Gaussprozess auf

E

ist bekanntlich bereits durch Angabe der Funktionen

MX : E → R, und

eindeutig festgelegt. Hier ist

E = [0, ∞).

Ist

e 7→ EXe

(e, e′ ) 7→ Cov(Xe , Xe′ )

CX : E × E → R,

B

Brownsche Bewegung, so folgt

t ∈ [0, ∞)

MB (t) = EBt = 0, und für

[0, ∞)

s0 EXt = tEB 1 = t · 0 = 0, t

und für

s, t > 0 Cov(Xs , Xt ) = E(Xs Xt ) = stE(B 1 B 1 ) = s

Für

s = 0

oder

t = 0

t

st = min(s, t). max(s, t)

folgt diese Beziehung trivialerweise. Beachten Sie, dass damit

insbesondere die Stetigkeit der Pfade von

X

in

0

folgt - eine keineswegs triviale Aussage

über die Asymptotik der Brownschen Bewegung für

t→∞

!

(c) Es gilt für

1−s≤1

0 Xt = B(1−t) ,

dass

EX ≡ 0

und da für

0≤s≤t≤1

gilt, dass

0 ≤ 1−t ≤

ist, folgt nach Denition der Brownschen Brücke

0 0 CX (s, t) = E(B(1−s) B(1−t) ) = (1 − t)(1 − (1 − s)) = s(1 − t). Damit ist (d) Für

X

wieder Brownsche Brücke.

Xt := tB(1−t)/t

ist oenbar

EX ≡ 0

und für

0≤s≤t≤1

gilt

CX (s, t) = E(sB(1−s)/s tB(1−t)/t ) = st min((1 − s)/s, (1 − t)/t). x 7→ (1 − x)/x

Da

auf

[0, 1]

monoton fällt, folgt weiter

CX (s, t) = st(1 − t)/t = s(1 − t). (e) Für

0 Xt := (1 + t)Bt/(1+t)

ist oenbar

EX ≡ 0

0 ≤ s ≤ t < ∞ nach Denition s/(1 + s) ≤ t/(1 + t) ∈ [0, 1])

und für

Brownschen Brücke (es ist zu beachten, dass stets

der

0 0 CX (s, t) = E((1 + s)Bs/(1+s) (1 + t)Bt/(1+t) ) = (1 + s)(1 + t)s/(1 + s)(1 − t/(1 + t))

= s(1 + t − t) = s. Damit ist

X

eine Brownsche Bewegung.

Aufgabe 4 (Linearkombinationen von Gaussprozessen und Brownschen Bewegungen) (a) Seien

X

dass für

und Y unabhängige a, b ∈ R

Gaussprozesse auf einem metrischen Raum

E.

Zeigen Sie,

aX + bY wieder ein Gaussprozess ist. (b) Seien

W

und

˜ W

unabhängige Brownsche Bewegungen. Für welche

(a, b) ∈ R2

ist

˜ aW + bW wieder eine Brownsche Bewegung?

Lösung: (a) In dieser Vorlesung besitzen Gaussprozesse nach Denition stetige Pfade - es ist klar, dass sich diese Eigenschaft auf Linearkombinationen vererbt. Es bleibt zu zei-

aX + bY (mehrdimensionale) n ∈ N, (t1 , ..., tn ) ∈ E n gibt es

gen, dass die endlich-dimensionalen Verteilungen von Normalverteilungen sind. Dies ist der Fall, denn für 2 µX , µY ∈ Rn , AX , AY ∈ Rn so, dass

(Xt1 , ..., Xtn ) ∼ N (µX , AX ) (Yt1 , ..., Ytn ) ∼ N (µY , AY ). Nach dem Additionasgesetz für unabhängige (!) normalverteilte Zufallsvektoren (siehe SII, 18.13) folgt dann aber

a(Xt1 , ..., Xtn ) + b(Yt1 , ..., Ytn ) ∼ N (aµX + bµY , a2 AX + b2 AY ).

(b) Nach Teil (a) ist

˜ aW + bW

ein Gaussprozess. Ein Gaussprozess auf

E

ist bekanntlich

bereits durch Angabe der Funktionen

MX : E → R, und

CX : E × E → R, eindeutig festgelegt. Hier ist

E = [0, ∞)

e 7→ EXe

(e, e′ ) 7→ Cov(Xe , Xe′ ) und

MaW +bW˜ (t) ≡ 0, t ∈ [0, ∞)

und

˜ s , aWt + bW ˜ t) CaW +bW˜ (s, t) = Cov(aWs + bW ˜ t ) + Cov(bW ˜ s , aWt ) + Cov(bW ˜ s , bW ˜ t) = Cov(aWs , aWt ) + Cov(aWs , bW = a2 min(s, t) + 0 + 0 + b2 min(s, t) = (a2 + b2 ) min(s, t). Damit ist

˜ aW + bW

genau dann eine Brownsche Bewegung, wenn

a2 + b2 = 1.