Institut für Stochastik PD. Dr. Dieter Kadelka
·
Daniel Gentner
Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4
Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung) Der lokale GWS von de Moivre und Laplace kann wie folgt formuliert werden: Sei sei
0 < p < 1 fest und Yn ∼ Bin(n, p), insbesondere EYn = np, Var(Yn ) = np(1 − p). φµ,σ2 die Lebesgue-Dichte von N (µ, σ 2 ). Zeigen Sie, dass für alle C > 0 gilt, dass P(Yn = k) = 0. lim sup√ − 1 φnp,np(1−p) (k) n→∞ k:|k−np|≤C· np(1−p)
Ferner
(D.h. die Zähldichte der Binomialverteilung und die (stetige) Dichte der Normalverteilung sind asymptotisch gleich, und zwar gleichmäÿig in
k
auf kompakten (d.h. hier endlichen) Mengen.)
Man beweise die folgende, allgemeinere Aussage:
Xn , n ∈ N, Zufallsvariable mit Werten in Tn := an · N0 + bn , wobei an > 0. Die Zähldichte t → fn (t) := P(Xn = t), t ∈ Tn habe die Eigenschaft
Seien
fn (an (k + 1) + bn ) ↓ fn (an k + bn )
(∗) k → (mit
0/0 := 0).
Gilt
d
Xn → N (0, 1),
(1)
Lösung: Sei Fn
k ∈ N0
0 0 und eine beschränkte Folge t∗ := limn→∞ tn existiert und
(tn )n∈N
in
{t ∈ R : |t| ≥ δ},
(Xn )n∈N so dass
lim (φn (tn ) − φ(t∗ )) ≥ 3α > 0
(10)
n→∞
∗ gilt. (limn→∞ φn (tn ) = ∞ kann vorerst nicht ausgeschlossen werden.) Sei etwa t ≥ δ 3 ∗ ∗ und v ∈ [ δ, t ) beliebig mit φ(v) < φ(t ) + α. Für genügend groÿes n gilt dann tn > v 4 δ ∗ und φn (tn ) ≥ φ(t ) + 2α > φ(v) + α. Da φ ↓ auf [ , ∞) gilt φn (v) > φ(v) + α. Da φ 2 δ stetig ist, gibt es ein ≤ u < v mit φ(u) < φ(v) + α/2, also auch φn (t) ≥ φn (v) > 2 φ(v) + α > φ(t) + α/2 für alle u ≤ t ≤ v . Wie früher steht dies im Widerspruch zu
limn→∞ (Gn (v) − Gn (u)) = Φ(v) − Φ(u).
fn (tn ) an
= ∞
möglich ist. (1) kann dann nicht gelten. Kombiniert man (v) und (vii), so folgt aus
Xn →
(viii) Einfache Gegenbeispiele zeigen, dass ohne weitere Voraussetzungen
N (0, 1)
Xn fn (t) lim sup − φ(t) = 0 n→∞ t∈T : |t|≥δ an n
für unimodale Zähldichten
(11)
d
von
für alle
δ>0
fn (t) lim inf inf − φ(t) ≥ 0. n→∞ t∈Tn an
und zusätzlich
d
Xn − tn , so gilt wegen Satz 3.23 und (vi) wieder Xn − tn → N (0, 1) Bedingung (∗) ändert sich nichts. Wir können daher der Einfachheit halber
Ersetzt man und an der
fn
limn→∞
Xn
durch
tn = 0 voraussetzen t ≤ δ in Tn
und es reicht wegen
min{fn (−δ), fn (δ)} ≤ fn (t) ≤ fn (0)
für
−δ ≤
fn (0) = φ(0) n→∞ an
(∗∗)
lim
lim inf n→∞ fna(0) ≥ φ(0) schon bekannt ist. Dies folgt z.B. aus (∗). Denn n aus log(fn (an (k + 1) + bn )) − log(fn (an k + bn )) ↓ folgt, dass k → log(fn (an k + bn )) konkav 1 2 ist und log(φ(x)) = − log(2π) − x /2 (Skizze!). 2
zu zeigen, wobei
Aufgabe 2 (Einfache eindimensionale Irrfahrt) Seien
X1 , X2 , ... ∼ Bin(1, 12 )
und
Sn :=
n ∑
Xi
i=1
Tn das gröÿte 0 ≤ i ≤ n mit Si = 0 und Vn die Si ≥ 0. Wir setzen die Gültigkeit der Gleichungen
die eindimensionale Irrfahrt. Sei
1 ≤ i ≤ Tn
mit
Si−1 ≥ 0
und
P(S1 > 0, ..., Sn−1 > 0, Sn = j) =
(12)
j P(Sn = j), n
Anzahl der
j > 0, n ∈ N.
und
P(V2m = 2i|S2m = 0) =
(13)
voraus. Leiten Sie ab, dass für
1 , m+1
i ∈ {0, 1, ..., m}, m ∈ N,
0 ≤ 2i ≤ 2k < n, j > 0
P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)
gilt, dass
j 1 P(Sn−2k = j). k + 1 n − 2k
Lösung: Bedingen nach {S2k = 0} liefert zunächst P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)P(Tn = 2k, V2k = 2i, Sn = j|S2k = 0). Gegeben
0}
{S2k = 0}
sind
(S1 , ..., S2k )
und
(S2k+1 , ..., Sn )
unabhängig!
V2k
hängt gegeben
{S2k =
nur von der ersten Folge ab, die beiden anderen Zufallsvariablen hingegen nur von der
zweiten. Wir erhalten
P(Tn = 2k, Vn = 2i, Sn = j) = P(S2k = 0)P(Tn = 2k, V2k = 2i, Sn = j|S2k = 0) = P(S2k = 0)P(V2k = 2i|S2k = 0)P(Tn = 2k, Sn = j|S2k = 0) = P(S2k = 0)P(V2k = 2i|S2k = 0)P(S2k+1 > 0, ..., Sn > 0, Sn = j|S2k = 0) Mit
(1)
und
(2)
folgt nun die Behauptung.
Aufgabe 3 (Transformationen von Brownscher Brücke und Brownscher Bewegung) B eine Brownsche nach 0). Zeigen Sie:
Sei
(a) Für
c > 0
Bewegung auf
[0, ∞)
ist der skalierte Prozess
und
cB t2 c
schaft)
B0
eine Brownsche Brücke auf
[0, 1]
(von
0
eine Brownsche Bewegung. (Skalierungseigen-
(b) Der zeitinvertierte Prozess
X0 = 0, Xt := tB 1 , t > 0 t
ist eine Brownsche Bewegung.
(Zeitinversionseigenschaft der Brownschen Bewegung) (c) Der Prozess
0 B(1−t)
ist wieder eine Brownsche Brücke. (Zeitinversionseigenschaft der
Brownschen Brücke) (d)
tB(1−t)/t
(e)
0 (1 + t)Bt/(1+t)
Lösung:
ist eine Brownsche Brücke (Trafo von BB zu Brücke) ist eine Brownsche Bewegung auf
(Trafo von Brücke zu BB)
Es ist klar, dass alle in den Aufgabenteilen genannten Prozesse Gaussprozesse sind.
Ein Gaussprozess auf
E
ist bekanntlich bereits durch Angabe der Funktionen
MX : E → R, und
eindeutig festgelegt. Hier ist
E = [0, ∞).
Ist
e 7→ EXe
(e, e′ ) 7→ Cov(Xe , Xe′ )
CX : E × E → R,
B
Brownsche Bewegung, so folgt
t ∈ [0, ∞)
MB (t) = EBt = 0, und für
[0, ∞)
s0 EXt = tEB 1 = t · 0 = 0, t
und für
s, t > 0 Cov(Xs , Xt ) = E(Xs Xt ) = stE(B 1 B 1 ) = s
Für
s = 0
oder
t = 0
t
st = min(s, t). max(s, t)
folgt diese Beziehung trivialerweise. Beachten Sie, dass damit
insbesondere die Stetigkeit der Pfade von
X
in
0
folgt - eine keineswegs triviale Aussage
über die Asymptotik der Brownschen Bewegung für
t→∞
!
(c) Es gilt für
1−s≤1
0 Xt = B(1−t) ,
dass
EX ≡ 0
und da für
0≤s≤t≤1
gilt, dass
0 ≤ 1−t ≤
ist, folgt nach Denition der Brownschen Brücke
0 0 CX (s, t) = E(B(1−s) B(1−t) ) = (1 − t)(1 − (1 − s)) = s(1 − t). Damit ist (d) Für
X
wieder Brownsche Brücke.
Xt := tB(1−t)/t
ist oenbar
EX ≡ 0
und für
0≤s≤t≤1
gilt
CX (s, t) = E(sB(1−s)/s tB(1−t)/t ) = st min((1 − s)/s, (1 − t)/t). x 7→ (1 − x)/x
Da
auf
[0, 1]
monoton fällt, folgt weiter
CX (s, t) = st(1 − t)/t = s(1 − t). (e) Für
0 Xt := (1 + t)Bt/(1+t)
ist oenbar
EX ≡ 0
0 ≤ s ≤ t < ∞ nach Denition s/(1 + s) ≤ t/(1 + t) ∈ [0, 1])
und für
Brownschen Brücke (es ist zu beachten, dass stets
der
0 0 CX (s, t) = E((1 + s)Bs/(1+s) (1 + t)Bt/(1+t) ) = (1 + s)(1 + t)s/(1 + s)(1 − t/(1 + t))
= s(1 + t − t) = s. Damit ist
X
eine Brownsche Bewegung.
Aufgabe 4 (Linearkombinationen von Gaussprozessen und Brownschen Bewegungen) (a) Seien
X
dass für
und Y unabhängige a, b ∈ R
Gaussprozesse auf einem metrischen Raum
E.
Zeigen Sie,
aX + bY wieder ein Gaussprozess ist. (b) Seien
W
und
˜ W
unabhängige Brownsche Bewegungen. Für welche
(a, b) ∈ R2
ist
˜ aW + bW wieder eine Brownsche Bewegung?
Lösung: (a) In dieser Vorlesung besitzen Gaussprozesse nach Denition stetige Pfade - es ist klar, dass sich diese Eigenschaft auf Linearkombinationen vererbt. Es bleibt zu zei-
aX + bY (mehrdimensionale) n ∈ N, (t1 , ..., tn ) ∈ E n gibt es
gen, dass die endlich-dimensionalen Verteilungen von Normalverteilungen sind. Dies ist der Fall, denn für 2 µX , µY ∈ Rn , AX , AY ∈ Rn so, dass
(Xt1 , ..., Xtn ) ∼ N (µX , AX ) (Yt1 , ..., Ytn ) ∼ N (µY , AY ). Nach dem Additionasgesetz für unabhängige (!) normalverteilte Zufallsvektoren (siehe SII, 18.13) folgt dann aber
a(Xt1 , ..., Xtn ) + b(Yt1 , ..., Ytn ) ∼ N (aµX + bµY , a2 AX + b2 AY ).
(b) Nach Teil (a) ist
˜ aW + bW
ein Gaussprozess. Ein Gaussprozess auf
E
ist bekanntlich
bereits durch Angabe der Funktionen
MX : E → R, und
CX : E × E → R, eindeutig festgelegt. Hier ist
E = [0, ∞)
e 7→ EXe
(e, e′ ) 7→ Cov(Xe , Xe′ ) und
MaW +bW˜ (t) ≡ 0, t ∈ [0, ∞)
und
˜ s , aWt + bW ˜ t) CaW +bW˜ (s, t) = Cov(aWs + bW ˜ t ) + Cov(bW ˜ s , aWt ) + Cov(bW ˜ s , bW ˜ t) = Cov(aWs , aWt ) + Cov(aWs , bW = a2 min(s, t) + 0 + 0 + b2 min(s, t) = (a2 + b2 ) min(s, t). Damit ist
˜ aW + bW
genau dann eine Brownsche Bewegung, wenn
a2 + b2 = 1.