Upload
doandiep
View
218
Download
0
Embed Size (px)
Citation preview
Skript zur Vorlesung
Numerik stochastischerDifferentialgleichungen
Wintersemester 2018/19
Johannes Schropp
Universitat Konstanz
Fachbereich Mathematik und Statistik
© Johannes Schropp, 30. Januar 2019
Inhaltsverzeichnis
1 Grundlagen stochastischer Prozesse 11.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Beispiel Teilchenbewegung . . . . . . . . . . . . . . . . . . . . . . . 11.1.2 Stochastische Modellierung des zeitlich gemittelten Prozesses . . . . 21.1.3 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . 41.1.4 Verallgemeinerung unseres Beispiels . . . . . . . . . . . . . . . . . . 5
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse . . . . . . . . . . . . 71.2.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.2 Technische Voraussetzungen dazu . . . . . . . . . . . . . . . . . . . 71.2.3 Eigenschaften des Ito-Integrals . . . . . . . . . . . . . . . . . . . . . 81.2.4 Prinzipielles weiteres Vorgehen . . . . . . . . . . . . . . . . . . . . . 91.2.5 Rechenregeln fur stochastische Integrale . . . . . . . . . . . . . . . 101.2.6 Ito-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.2.7 Das Lemma von Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Modellierung von Prozessen mit Rauschen . . . . . . . . . . . . . . . . . . 141.3.1 Additives Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.3.2 Multiplikatives Rauschen . . . . . . . . . . . . . . . . . . . . . . . . 151.3.3 Modellierung in der Finanzokonomie . . . . . . . . . . . . . . . . . 171.3.4 Ausgangspunkt fur die Numerik . . . . . . . . . . . . . . . . . . . . 171.3.5 Optionspreisberechnung . . . . . . . . . . . . . . . . . . . . . . . . 181.3.6 Monte-Carlo-Simulation . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Pseudozufallszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.2 Beispiel: Monte-Carlo-Integration . . . . . . . . . . . . . . . . . . . 211.4.3 Konstruktion von Pseudozufallszahlen . . . . . . . . . . . . . . . . 221.4.4 Konstruktion von Pseudozufallsvektoren (PZV) . . . . . . . . . . . 261.4.5 Die Box-Muller-Methode . . . . . . . . . . . . . . . . . . . . . . . . 261.4.6 Korrelierte Normalverteilung (korreliert normalverteilte PZV) . . . 271.4.7 Die Cholesky-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . 281.4.8 Konstruktion von PZZ mit Gleichverteilung auf [0, 1] . . . . . . . . 28
2 Numerische Methoden fur stochastische Differentialgleichungen 302.1 Das Euler-Maruyama-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.1 Numerische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . 302.1.2 Gute der Approximation . . . . . . . . . . . . . . . . . . . . . . . . 302.1.3 Untersuchung der Doppelintegrale . . . . . . . . . . . . . . . . . . . 31
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren . . . . . . . . . . . . 332.2.1 Exakte Losung vs. diskretes Verfahren . . . . . . . . . . . . . . . . 332.2.2 Analyse des L2-Fehlers . . . . . . . . . . . . . . . . . . . . . . . . . 332.2.3 Separate Analyse der Terme (I)-(IV ) . . . . . . . . . . . . . . . . . 342.2.4 Das diskrete Gronwall-Lemma . . . . . . . . . . . . . . . . . . . . . 372.2.5 Starke Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I
Inhaltsverzeichnis
2.2.6 Numerische Bestimmung der Konvergenzordnung . . . . . . . . . . 392.2.7 Fehler bei der Erwartungswertberechnung . . . . . . . . . . . . . . 40
2.3 Weitere numerische Verfahren und schwache Konvergenz . . . . . . . . . . 422.3.1 Das Milstein-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 422.3.2 Schwache Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Parabolische partielle Differentialgleichungen und Optionspreisbewer-tung 493.1 Die Fokker-Planck-Gleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493.1.2 Die 1-dimensionale Fokker-Planck-Gleichung . . . . . . . . . . . . . 503.1.3 Weiteres zu stochastischen Prozessen und PDGL . . . . . . . . . . . 513.1.4 Verallgemeinerung auf vektorwertige Prozesse . . . . . . . . . . . . 523.1.5 Beispiel: Optionsbewertung eines Capped-Symmetric-Power-Calls . 52
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung . . . . . . . . 543.2.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.2.2 Das Prinzip der Linienmethode . . . . . . . . . . . . . . . . . . . . 543.2.3 Das Euler-Cauchy-Verfahren . . . . . . . . . . . . . . . . . . . . . . 563.2.4 Das ϑ-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573.2.5 Auflosung der Gleichungsysteme auf jedem Zeitlevel τj . . . . . . . 573.2.6 Praktische Losung des Gleichungssystems . . . . . . . . . . . . . . . 59
II
1 Grundlagen stochastischerProzesse
1.1 Einfuhrung
1.1.1 Beispiel Teilchenbewegung
Im Folgenden soll die Bewegung eines mikroskopischen Teilchens in einer ruhenden Flussig-keit beschrieben werden. Die Bewegung des Teilchens in der Flussigkeit ist auf die Inter-aktion mit Flussigkeitsmolekulen zuruckzufuhren.
Sei p(t) = m · v(t) der Impuls des Teilchens und v(t) seine Geschwindigkeit zur Zeit t. DiePosition des Teilchens im R
3 zur Zeit t sei durch x(t) gegeben.
R3
x(t)
v(t)
Abbildung 1.1: Impuls des Teilchens.
Newton’sches Prinzip:
p′(t) = m · v′(t) = m · x′′(t) = F (t),
wobei m die Teilchenmasse ist und F (t) die auf das Teilchen wirkende Kraft.
Kraftquellen:
(i) Interaktion mit Flussigkeitsmolekulen
(ii) Schwerkraft
(iii) Druck, Auftrieb
Die Punkte (ii) und (iii) sind vernachlassigbar.
Annahmen fur ein Molekulmodell:
• Flussigkeitsmolekule bewegen sich ungeordnet
• die Geschwindigkeitsverteilung hat den Mittelwert 0
1
1.1 Einfuhrung
• ein Teilchen erfahrt ca. 108 Molekulstoße pro Sekunde
• ein Molekulstoß entspricht einer extrem kurzen Krafteinwirkung
F1(t)
t [10−7 s]
Abbildung 1.2: Krafteinwirkung fur die erste Komponente.
Der Prognosezeitraum ist z. B. 100 Sekunden, das entspricht ca. 1010 Stoße im Prognose-zeitraum. Die Details der Kraftubertragung sind unklar.
1.1.2 Stochastische Modellierung des zeitlich gemitteltenProzesses
Aus p′(t) = F (t) folgt
p(t+∆t) = p(t) +
∫ t+∆t
t
p′(s)ds = p(t) +
∫ t+∆t
t
F (s)ds.
Ansatz mit N Einzelstoßen in [t, t +∆t] mit t1 := t < t2 < . . . < tN < tN+1 := t +∆t:
∫ t+∆t
t
F (s)ds =
N∑
i=1
∫ ti+1
ti
F (s)ds =
N∑
i=1
pi = Nµ+
N∑
i=1
(pi − µ) ,
wobei pi :=∫ ti+1
tiF (s)ds und µ der mittlere Impulsbeitrag ist.
Annahmen und Konsequenzen:
• N ∼ ∆t, solange ∆t hinreichend groß ist (z. B. ∆t = 10−2), d. h. N = γ ·∆t.
• pi − µ ist eine unabhangige, identisch verteilte Zufallsvariable (ZV) mit
E(pi − µ) = 0 und V (pi − µ) = αI <∞
fur i = 1, 2, . . .
2
1.1 Einfuhrung
t2 t3 t4 t5 t6 t7 t8 = t +∆tt1 = t
Abbildung 1.3: Beispiel mit N = 7 Einzelstoßen in [t, t+∆t].
• Fur die ZV SN := 1√αN
∑Ni=1(pi − µ) gilt:
E(SN) =1√αN
N∑
i=1
E(pi − µ) = 0,
V (SN) =
(1√αN
)2 N∑
i=1
V (pi − µ) =1
αN
N∑
i=1
αI3 = I3.
• Fur N → ∞ gilt nach dem zentralen Grenzwertsatz
SN → ξ in Verteilung und ξ ∼ N (0, I3)
⇒N∑
i=1
(pi − µ) =√αN
1√αN
N∑
i=1
(pi − µ) =√αN · SN ≈
√αN · ξ =
√
αγ∆t · ξ,
mit N = γ∆t und der standardnormalverteilten ZV ξ.
• Der mittlere Impulsbeitrag µ entsteht bei Bewegung des Teilchens. Der Impuls istentgegengesetzt zu v(t) gerichtet, d. h. es gilt fur ein β > 0
µ = −βv(t).
Also folgt: Nµ = −γ∆tβv(t).
Resultierende Impulsevolution:
mvn+1 = mvn + (−βγvn∆t) +√αγ
√∆tξn, (1.1)
wobei vn die Geschwindigkeit zum Zeitpunkt tn := n∆t ist und ξ1, ξ2, . . . , ξn unabhangige,identisch N (0, I3)-verteilte ZV sind.
Beachte dabei, dass (vn)n∈N deshalb ein zeitdiskreter stochastischer Prozess ist.
3
1.1 Einfuhrung
1.1.3 Stochastische Prozesse
1.1 Definition (Stochastischer Prozess)
a) Ein stochastischer Prozess ist eine Familie (Xt)t∈I von Rd-wertigen Zufallsvariablen
Xt : Ω → Rd auf einem Wahrscheinlichkeitsraum (Ω,F , P ). Fur I = N spricht man
von einem zeitdiskreten, fur I = [a, b] von einem zeitkontinuierlichen Prozess.
b) Die Abbildung t 7→ Xt(ω) fur ω ∈ Ω fest heißt Pfad des Prozesses (Xt)t∈I .
Spezialfall: Teilchenmasse m klein im Vergleich zu βγ∆t und√αγ∆t. Setze m = 0 in
(1.1) und erhalte
0 = −βγvn∆t +√αγ
√∆tξn,
d. h. es gilt
∆tvn =
√αγ
βγ
√∆tξn = c
√∆tξn, (1.2)
mit c :=√αγ
βγ.
Auf dem Ortslevel x finden wir mit (1.2)
xn+1 = xn +∆tvn = xn + c√∆tξn, n = 0, 1, 2, . . . (1.3)
x0 = 0.
Induktion liefert dann
xn = c√∆t
n−1∑
k=0
ξk = cbn, (1.4)
mit bn :=√∆t∑n−1
k=0 ξk fur n ≥ 1. Ferner setzen wir b0 := 0.
Da die ξk N (0, I3)-verteilt sind, gilt√∆tξk ∼ N (0,∆tI3). Damit erhalten wir fur den
Prozess (bn)n∈N
• b0 = 0,
• fur m > n gilt: bm − bn =√∆t∑m−1
k=n ξk ∼ N (0,∆t(m− n)I3).
Die Folge (bn)n∈N entspricht einer zeitdiskreten, dreidimensionalen Brownschen Bewegung.
1.2 Definition (Brownsche Bewegung)
a) Eine eindimensionale Brownsche Bewegung ist ein reellwertiger stochastischer Pro-zess (Wt)t≥0 auf einem Wahrscheinlichkeitsraum (Ω,F , P ) mit folgenden Eigen-schaften:
(i) W0 = 0 P -fast sicher,
(ii) (Wt)t≥0 hat stetige Pfade t 7→ Wt(ω),
(iii) fur t > s ≥ 0 gilt (Wt −Ws) ∼ N (0, t− s),
4
1.1 Einfuhrung
(iv) (Wt)t≥0 hat unabhangige Zuwachse, d. h. fur beliebige 0 ≤ t0 < t1 < . . . < tnsind
Wt1 −Wt0 , Wt2 −Wt1 , . . . , Wtn −Wtn−1
unabhangige ZV.
b) Als d-dimensionale Brownsche Bewegung bezeichnen wir einen Rd-wertigen Pro-
zess (Wt)t≥0 =(W 1t , . . . ,W
dt
)
t≥0, dessen Komponenten (W i
t )t≥0 fur i = 1, . . . , dunabhangige eindimensionale Brownsche Bewegungen sind.
Fur unser Beispiel folgt mit (1.4)
xn = cWtn , n ∈ N.
Dabei sollte ∆t hinreichend groß sein und (Wt)t≥0 eine dreidimenionale Brownsche Bewe-gung sein.
Simulation mit Matlab:
% Zweidimensionale Brownsche Bewegung
N = 1000;
dt = 1/N;
figure(1);
W = [0;0];
dW = randn(2,N)*sqrt(dt);
for i = 1:N
W = W + dW(:,i);
plot(W(1),W(2),’b.’);
axis([-3 3 -3 3]);
drawnow;
end
1.1.4 Verallgemeinerung unseres Beispiels
Gemaß (1.2) und (1.3) gilt
xn+1 = xn +
√αγ
βγ
√∆tξn.
Sei nun die Impulsvarianz α der Stoße von der Temperatur und damit vom Ort abhangig,d. h. α = α(x). Damit ergibt sich fur das Orts- und Geschwindigkeitslevel
xn+1 = xn +∆tvn, (1.5)
vn∆t =
√
α(xn)
β√γ
√∆tξn. (1.6)
Gleichung (1.5) wird fur ∆t→ 0 immer genauer, wahrend Gleichung (1.6) verlangt, dass∆t nicht zu klein ist, damit die Anzahl der Stoße in jedem ∆t-Intervall in etwa gleich undhinreichend groß ist.
5
1.1 Einfuhrung
Trick: Betrachte nun den Grenzubergang ∆t → 0 auf hinreichend langen Zeitintervallen(zentraler Grenzwertsatz muss gultig sein). Mit
c(xn) :=
√
α(xn)
β√γ
und
Wtn+1 −Wtn :=√∆tξn
folgt
xn+1 = xn + c(xn)(Wtn+1 −Wtn
), n = 0, 1, 2, . . . (1.7)
x0 = 0.
1.3 BemerkungDie Differenzengleichung (1.7) fur xn kann nicht in eine Differentialgleichung fur einenGrenzprozess Xt umgewandelt werden! Betrachte hierzu
xn+1 − xntn+1 − tn
= c(xn)Wtn+1 −Wtn
tn+1 − tn.
Dann folgt
V
(Wtn+1 −Wtn
tn+1 − tn
)
= V
(Wtn+1 −Wtn
∆t
)
=1
∆t2V(Wtn+1 −Wtn
)
=1
∆t2(tn+1 − tn)I3 =
1
∆tI3 → ∞ fur t→ 0.
Da eine Umwandlung in eine Differentialgleichung nicht moglich ist, wird die Differenzen-gleichung (1.7) in eine Integralgleichung umgewandelt:
xN − x0 =N−1∑
n=0
(xn+1 − xn) =N−1∑
n=0
c(xn)∆Wtn ,
mit ∆Wtn := Wtn+1 −Wtn . Setze nun t := tN , bilde formal den Grenzwert ∆t → 0 und
”finde“
N−1∑
n=0
c(xn)∆Wtn∆t→0−→
∫ t
0
c(Xs)dWs.
Den Ausdruck auf der rechten Seite nennen wir”stochastisches Integral“. Wir erhalten
also formal die Gleichheit
Xt = X0 +
∫ t
0
c(Xs)dWs, (1.8)
falls Xt eindeutig bestimmt ist. (1.8) ist eine Integralgleichung fur den Grenzprozess Xt.Da der Integrator selbst ein stochastischer Prozess ist, mussen wir diesem sogenannten
”stochastischen Integral“ einen Sinn geben.
6
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
1.2 Stochastisches Integral (Ito-Integral) und
Ito-Prozesse
1.2.1 Beispiel
Wir betrachten wieder unser Beispiel aus dem letzten Kapitel:
xn+1 = xn + c(xn)∆Wtn (n ∈ N),
x0 = 0.
Dies ist aquivalent zu
xN =
N−1∑
n=0
c(xn)∆Wtn (N ∈ N). (1.9)
Beobachtung:
• xn hangt von ∆Wti ab, i = 0, . . . , n− 1,
• der Zuwachs ∆Wtn ist unabhangig von xn.
Betrachte nun die Summe in (1.9) als Integral einer zeitlichen Treppenfunktion. Sei 0 =t0 < t1 < . . . < tN , und sei
ft(ω) :=
N−1∑
n=0
c(xn(ω))1[tn,tn+1[(t) + c(xN (ω))1tN,
mit der Indikatorfunktion
1M(t) :=
1, fur t ∈M,
0, sonst.
Damit gilt bezuglich Integration nach der Zeit
∫ tN
0
fsds =N−1∑
n=0
c(xn)(tn+1 − tn) =N−1∑
n=0
c(xn)∆tn mit ∆tn = tn+1 − tn.
Im Folgenden soll jetzt dem Ausdruck∫ b
aftdWt ein Sinn gegeben werden.
1.2.2 Technische Voraussetzungen dazu
• Sei (Ω,F ,P) ein Wahrscheinlichkeitsraum.
• (t0, t1, . . . , tN) sei eine Zerlegung von [a, b] mit a = t0 < t1 < . . . < tN = b.
• (Wt)t≥0 sei eine Brownsche Bewegung, wobei Wt At-messbar ist mit einer Familie(A)t≥0 von Unter-σ-Algebren von F mit As ⊂ At, falls s < t ((A)t≥0 ist einesogenannte Filtration von F). Ferner enthalte A0 alle F -Nullmengen und Wt −Ws
sei von As unabhangig, falls s < t.
• e0, . . . , eN seien ZV, wobei ej Atj -messbar sei, j = 0, . . . , N .
7
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
Sei f eine Treppenfunktion mit zufalligen Sprunghohen, d. h.
ft(ω) :=
N−1∑
j=0
ej(ω)1[tj ,tj+1[(t) + eN(ω)1tN(t), (1.10)
In Abbildung 1.4 ist eine Treppenfunktion furN = 5 dargestellt mit vorgegebenen Sprung-stellen ti (i = 0, . . . , 5). Hierbei ist z. B. die Sprunghohe e2(ω)− e1(ω) zufallig.
t1 t2 t3 t4t0 = a t5 = b
e2(ω)− e1(ω)
Abbildung 1.4: Beispiel einer Treppenfunktion fur N = 5.
Fur eine Treppenfunktion wie in (1.10) setzen wir
∫ b
a
ftdWt :=
N−1∑
j=0
ej(Wtj+1
−Wtj
)=
N−1∑
j=0
ej∆Wtj , (1.11)
mit ∆Wtj :=(Wtj+1
−Wtj
).
1.2.3 Eigenschaften des Ito-Integrals
Das folgende Lemma zeigt zwei zentrale Eigenschaften des Ito-Integrals von Treppenfunk-tionen fur eine Fortsetzung auf allgemeine Prozesse.
1.4 LemmaSei f eine Treppenfunktion der Form (1.10) mit ej ∈ L2(Ω), j = 0, . . . , N . Dann geltenfolgende Gleichheiten:
i) E
(∫ b
a
ftdWt
)
= 0 (”Erwartungswert“),
ii) E
((∫ b
a
ftdWt
)2)
=
∫ b
a
E(f 2t
)dt (
”Varianz (Ito-Isometrie)“).
Beweis. Sei ft(ω) :=∑N−1
j=0 ej(ω)1[tj ,tj+1[(t) + eN(ω)1tN (t) mit ej ∈ L2(Ω) fur j =
0, . . . , N , wobei L2(Ω) = f : Ω → R, f messbar, f 2 integrierbar.
8
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
Zu i):
E
(∫ b
a
ftdWt
)
= E
(N−1∑
j=0
ej∆Wtj
)
=
N−1∑
j=0
E(ej)E(∆Wtj ) = 0,
da ej und ∆Wtj unabhangig sind und E(∆Wtj ) = 0.
Zu ii): Es gilt fur Treppenfunktionen
(∫ b
a
ftdWt
)2
=N−1∑
i,j=0
eiej∆Wti∆Wtj =N−1∑
i=0
e2i (∆Wti)2 + 2
∑
i<j
eiej∆Wti∆Wtj .
Nun sind ei und ∆Wti unabhangig, und damit auch e2i und ∆W 2ti. Also folgt
E(e2i∆W2ti) = E(e2i )E(∆W
2ti).
Da ei ∈ L2(Ω), gilt E(e2i ) <∞. Mit E(∆W 2ti) = E(∆Wti)
2+V (∆Wti) = 0+ti+1−ti = ∆tifolgt
E(e2i∆W2ti) = ∆tiE(e
2i ) <∞. (1.12)
Nach der Holderschen Ungleichung folgt mit ei ∈ L2(Ω) außerdem eiej∆Wtj ∈ L1(Ω) undsomit gilt
E(eiej∆Wti∆Wtj ) = E(eiej∆Wti)E(∆Wtj )︸ ︷︷ ︸
=0
= 0.
Damit erhalten wir
E
((∫ b
a
ftdWt
)2)
= E
(N−1∑
i,j=0
eiej∆Wti∆Wtj
)
= E
(N−1∑
i=0
e2i (∆Wti)2
)
=
N−1∑
i=0
E(e2i (∆Wti)
2) (1.12)
=
N−1∑
i=0
∆tiE(e2i ) =
N−1∑
i=0
∆tiE(f 2t |[ti,ti+1[
)
=
∫ b
a
E(f 2t )dt,
da ft eine Treppenfunktion ist.
1.2.4 Prinzipielles weiteres Vorgehen
Ist (f (n))n∈N eine Folge von Treppenfunktionen mit
f (n) → f in L2([a, b]× Ω),
so ist(∫ b
af(n)t dWt
)
n∈Neine Cauchy-Folge in L2(Ω), d. h. es gibt einen Grenzwert dieser
Folge in L2(Ω), der mit∫ b
aftdWt bezeichnet wird (Ito-Integral).
Des Weiteren soll das Ito-Integral auf pfadweise L2-Prozesse ubertragen werden.
9
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
1.5 DefinitionSei (Ω,F , P ) ein Wahrscheinlichkeitsraum, p ∈ [1,∞[ und [a, b] ⊂ R ein Intervall. Weitersei Lpω([a, b]) die Menge aller messbaren Funktionen f : [a, b]× Ω → R mit
•
∫ b
a|f |p(t, ω)dt <∞ P -fast sicher,
• ft := f(t, ·) ist At-messbar fur a ≤ t ≤ b.
Fur f ∈ L2ω([a, b]) setzen wir
∫ b
a
ftdWt := P - limn→∞
∫ b
a
f(n)t dWt
wobei (f (n))n∈N eine Folge von Treppenfunktionen ist mit
P - limn→∞
∫ b
a
|f (n)t − ft|2dt = 0.
In der letzten Definition taucht der Begriff der stochastischen Konvergenz auf, dazu fol-gende
1.6 Definition (Stochastische Konvergenz)Fur eine Folge von ZV (Xn)n∈N und eine ZV X definiert man
P - limn→∞
Xn = X :⇐⇒ ∀ε > 0 : limn→∞
P (|Xn −X| > ε) = 0.
Ausgeschrieben ist dies aquivalent zu
∀ε > 0 : limn→∞
P (ω ∈ Ω : |Xn(ω)−X(ω)| > ε) = 0.
1.2.5 Rechenregeln fur stochastische Integrale
Wir notieren einige Rechenregeln fur stochastische Integrale:
• Linearitat: Fur f, g ∈ L2ω([a, b]), α, β ∈ R gilt
∫ b
a
αft + βgt dWt = α
∫ b
a
ftdWt + β
∫ b
a
gtdWt.
• Fur I ⊂ [a, b] messbar setzen wir
∫
I
ftdWt :=
∫ b
a
1I(t)ftdWt.
• Teleskopsumme:
∫ b
a
dWt = Wb −Wa.
• Erwartungswert:
E
(∫ b
a
ftdWt
)
= 0.
10
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
• Varianz (Ito-Isometrie):
E
((∫ b
a
ftdWt
)2)
=
∫ b
a
E(f 2t
)dt.
1.7 BemerkungDiese Eigenschaften folgen aus den entsprechenden Eigenschaften der Treppenfunktionenund der Konvergenz von
∫ b
a
f(n)t dWt →
∫ b
a
ftdWt in L2(Ω).
1.2.6 Ito-Prozesse
1.8 DefinitionEin Ito-Prozess (Xt)a≤t≤b ist ein stetiger At-adaptierter Prozess, der fur a ≤ t ≤ b eineDarstellung der Form
Xt = Xa +
∫ t
a
fτdτ +
∫ t
a
gτdWτ P -fast sicher
besitzt mit f ∈ L1ω([a, b]) und g ∈ L2
ω([a, b]).
1.9 Bemerkung
a) Wegen Wt = Wa +∫ t
adWτ ist die Brownsche Bewegung ein Ito-Prozess mit f = 0
und g = 1.
b) Mit 1[a,t] = 1[a,s] + 1]s,t] folgt fur a ≤ s ≤ t
Xt = Xa +
∫ s
a
fτdτ +
∫ s
a
gτdWτ
︸ ︷︷ ︸
=Xs
+
∫ t
s
fτdτ +
∫ t
s
gτdWτ ,
d. h. es gilt
Xt −Xs =
∫ t
s
fτdτ +
∫ t
s
gτdWτ . (1.13)
Gleichung (1.13) besagt, dass der Zuwachs Xt−Xs selbst ein Ito-Prozess ist. Wir schreibenin diesem Fall
Xt −Xs =:
∫ t
s
dXτ .
Konsequenz:
∫ t
s
dXτ =
∫ t
s
fτdτ +
∫ t
s
gτdWτ .
11
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
Abkurzende Schreibweise:
dXt = ftdt + gtdWt. (1.14)
Die Gleichung (1.14) wird zur Differentialgleichung (DGL), wenn f oder g vonX abhangen,d. h. ft = A(t, Xt) oder gt = B(t, Xt). Man erhalt damit die
”stochastische DGL“ (SDGL)
dXt = A(t, Xt)dt+B(t, Xt)dWt. (1.15)
Bezeichnung:A(t, Xt)dt heißt ”
Drift-Term“ und B(t, Xt)dWt ”Diffusionsterm“.
1.10 DefinitionSeien A,B ∈ C([0, T ]×R). Ein stetiger At-adaptierter Prozess (Xt)0≤t≤T erfullt die SDGL(1.15) mit Anfangswert X0, falls fur 0 ≤ t ≤ T
Xt = X0 +
∫ t
0
A(s,Xs)ds+
∫ t
0
B(s,Xs)dWs P -fast sicher.
1.11 BemerkungA,B ∈ C([0, T ]× R) impliziert
A(·, X·) ∈ L1ω([0, T ]), B(·, X·) ∈ L2
ω([0, T ]).
1.12 Satz (Existenz- und Eindeutigkeitssatz (ohne Beweis))Es gelte
(i) A,B ∈ C([0, T ]× R),
(ii) |A(t, x)| ≤ K(1 + |x|) und |B(t, x)| ≤ K(1 + |x|) fur x ∈ R (”lineares Wachstum“),
(iii) |A(t, x)−A(t, y)| ≤ L|x− y| und |B(t, x)−B(t, y)| ≤ L|x− y| gleichmaßig in [0, T ]fur x, y ∈ R (
”Lipschitz-Bedingung“).
Ist dann E(X20 ) <∞, so besitzt die SDGL
dXt = A(t, Xt)dt+B(t, Xt)dWt
eine eindeutige Losung (Xt)0≤t≤T auf [0, T ] mit Anfangswert X0.
1.13 BemerkungDie Bedingung (ii) aus obigem Satz ist einschrankend, es gibt aber auch allgemeinereVersionen von diesem Satz.
12
1.2 Stochastisches Integral (Ito-Integral) und Ito-Prozesse
1.2.7 Das Lemma von Ito
1.14 Satz (Ito’s Lemma (ohne Beweis))Seien f ∈ L1
ω([a, b]), g ∈ L2ω([a, b]) und Xt ein Ito-Prozess mit dXt = ftdt + gtdWt. Ist
F ∈ C1,2([a, b]× R) und Ft := F (t, Xt), so gilt die sogenannte Ito-Formel:
dF (t, Xt) =
(∂F
∂t(t, Xt) +
∂F
∂X(t, Xt)ft +
1
2
∂2F
∂X2(t, Xt)g
2t
)
dt +∂F
∂X(t, Xt)gtdWt
=∂F
∂t(t, Xt)dt+
∂F
∂X(t, Xt)dXt +
1
2
∂2F
∂X2(t, Xt)g
2t dt.
1.15 BemerkungDie Ito-Formel entspricht der Kettenregel aus der Differentialrechnung. Falls f , g und wglatt sind, dann gilt
∫ t
s
gdw =
∫ t
s
grw′(r)dr.
Damit gilt fur den Prozess Xt
Xt = X0 +
∫ t
0
frdr +
∫ t
0
grw′(r)dr bzw. in Differentialform
dXt = ftdt+ gtw′tdt,
und wir erhalten
d
dtF (t, Xt) =
∂F
∂t(t, Xt) +
∂F
∂X(t, Xt)(ft + gtw
′t) bzw.
dFt =∂F
∂tdt+
∂F
∂XdXt.
Es gibt also einen Zusatzterm 12∂2F∂X2 g
2t dt in der Ito-Formel. Dieser entsteht, weil Wt nicht
glatt ist. Die Brownsche Bewegung ist so”zappelig“, dass der Zusatzterm nicht ver-
nachlassigbar ist.
1.16 Korollar (Produktregel)Seien Xt und Yt zwei Ito-Prozesse mit
dXt = fXt dt+ gXt dWt,
dYt = fYt dt+ gYt dWt.
Dann gilt
d(Xt · Yt) = XtdYt + YtdXt + gXt gYt dt.
Beweis.
d(Xt · Yt) = d
(1
4
(4XtYt +X2
t −X2t + Y 2
t − Y 2t
))
=1
4
[d((Xt + Yt)
2)− d
((Xt − Yt)
2)].
13
1.3 Modellierung von Prozessen mit Rauschen
Wende nun Ito’s Lemma an mit Zt := Xt+Yt, F1(t, Z) := Z2 undWt := Xt−Yt, F2(t,W ) :=W 2. Damit folgt dann
d(Xt · Yt) =1
4
[
2(Xt + Yt)d(Xt + Yt) + 2 · 12(gXt + gYt )
2dt− 2(Xt − Yt)d(Xt − Yt)
−2 · 12(gXt − gYt )
2dt
]
=1
4
[2XtdYt + 2YtdXt + 2gXt g
Yt dt+ 2XtdYt + 2YtdXt + 2gXt g
Yt dt]
= XtdYt + YtdXt + gXt gYt dt.
1.3 Modellierung von Prozessen mit Rauschen
1.3.1 Additives Rauschen
Ein Beispiel fur additives Rauschen ist unser Startbeispiel, d. h. die Bewegung eines (mas-selosen) Mikroteilchens in einer Flussigkeit. Die dazugehorige SDGL lautet
dXt = aXtdt+ b(t)dWt,
X0 = X,(1.16)
bzw. in Integralform
Xt −X0 =
∫ t
0
aXsds+
∫ t
0
b(r)dWr.
Der Term b(t)dWt wird als additives Rauschen bezeichnet.
1.17 LemmaDie Losung der Anfangswertaufgabe (1.16) lautet
Xt = exp(at)X + exp(at)
∫ t
0
exp(−as)b(s)dWs.
Beweis. Definiere die Ito-Prozesse
Yt := exp(at) = 1 +
∫ t
0
a exp(as)ds+
∫ t
0
0︸︷︷︸
=gYs
dWs,
Zt :=
∫ t
0
exp(−as)b(s)dWs = 0 +
∫ t
0
0ds+
∫ t
0
exp(−as)b(s)︸ ︷︷ ︸
=gZs
dWs
und finde
Xt = XYt + YtZt.
14
1.3 Modellierung von Prozessen mit Rauschen
Bildet man nun das totale Differential unter Benutzung von Korollar 1.16 und dX = 0,so folgt
dXt = d(XYt
)+ d (YtZt) = XdYt + YtdZt + dYtZt + gYt g
Zt dt
= X(aYtdt) + Yt(exp(−at)b(t)dWt) + aYtdtZt + 0
= (XaYt + aYtZt)dt+ Yt exp(−at)b(t)dWt
= aXtdt+ exp(at) exp(−at)b(t)dWt = aXtdt+ b(t)dWt.
Ferner gilt X0 = X Y0︸︷︷︸
=1
+Y0 Z0︸︷︷︸
=0
= X .
1.3.2 Multiplikatives Rauschen
Im Gegensatz zum additiven Rauschen nimmt die Volatilitat des stochastischen Termsmit der Große der Variable Xt zu bzw. ab. In der Finanzokonomie verwendet man mul-tiplikatives Rauschen oft um Aktienkurse zu modellieren. Die SDGL lautet in diesemFall
dXt = (αt + µtXt)dt+ (βt + σtXt)dWt,
X0 = X.(1.17)
Unterteile (1.17) in einen homogenen und einen inhomogenen Teil:
dXt = µtXtdt+ σtXtdWt︸ ︷︷ ︸
homogener Teil
+αtdt+ βtdWt︸ ︷︷ ︸
inhomogener Teil
,
X0 = X.
Wie bei gewohnlichen Differentialgleichungen finden wir auch hier die Losung mittelsVariation der Konstanten.
1.18 LemmaDie Losung der Anfangswertaufgabe (1.17) lautet
Xt = ctHt,
wobei
ct = X +
∫ t
0
1
Hs(αs − βsσs)ds+
∫ t
0
1
HsβsdWs,
Ht = exp
(∫ t
0
(
µs −1
2σ2s
)
ds+
∫ t
0
σsdWs
)
.
Beweis. (i) Lose die homogene Gleichung
dHt = µtHtdt+ σtHtdWt, (1.18)
H0 = 1.
Dabei ist (1.18) ein Ito-Prozess mit fHt := µtHt und gHt := σtHt. Wende nun dieIto-Formel an auf F (t, Ht) := lnHt mit ∂
∂HF = 1
Hsowie ∂2
∂H2F = − 1H2 und finde
d(lnHt) =1
HtdHt +
1
2
(−1)
H2t
(gHt )2
︸ ︷︷ ︸
=(σtHt)2
dt(1.18)=
1
Ht(µtHtdt+ σtHtdWt)−
σ2tH
2t
2H2t
dt
=
(
µt −σ2t
2
)
dt+ σtdWt.
15
1.3 Modellierung von Prozessen mit Rauschen
Dies bedeutet
ln(Ht) = ln(H0) +
∫ t
0
(
µs −1
2σ2s
)
ds+
∫ t
0
σsdWs, d. h.
Ht = H0︸︷︷︸
=1
· exp(∫ t
0
(
µs −1
2σ2s
)
ds+
∫ t
0
σsdWs
)
(1.19)
= exp
(∫ t
0
(
µs −1
2σ2s
)
ds+
∫ t
0
σsdWs
)
.
(Gleichung (1.19) impliziert Ht > 0, falls H0 > 0. Man beachte, dass dies einenotwendige Bedingung ist fur einen Aktienpreis.)
(ii) Losung der inhomogenen Gleichung: Mache dazu den Ansatz
Xt = ctHt, d. h. ct =Xt
Ht
.
Wahle nun ct geeignet, d. h. so, dass Xt Gleichung (1.17) lost. Fur ct =Xt
Htfolgt mit
der Produktregel
dct =1
Ht
dXt +Xtd
(1
Ht
)
+ gXt g1H
t dt. (1.20)
Mit G(t, Z) := 1Z, ∂∂ZG = − 1
Z2 ,∂2
∂Z2G = 2Z3 folgt mit der Ito-Formel
d
(1
Ht
)
= − 1
H2t
dHt +1
2
2
H3t
(gHt )2dt
(1.18)= − 1
H2t
(µtHtdt+ σtHtdWt) +1
H3t
σ2tH
2t dt
= − µtHtdt− σt
Ht︸ ︷︷ ︸
=:g1Ht
dWt +σ2t
Htdt.
Setze jetzt die letzte Gleichung in (1.20) ein und erhalte
dct =1
Ht
(αt + µtXt)dt+1
Ht
(βt + σtXt)dWt +Xt
(
− µtHt
dt+σ2t
Ht
dt− σtHt
dWt
)
+ (βt + σtXt︸ ︷︷ ︸
=gXt
)(− σtHt
︸ ︷︷ ︸
=g1Ht
)dt
=1
Ht
(αt − βtσt)dt+1
Ht
βtdWt.
Somit finden wir mit c0 = X sofort
ct = X +
∫ t
0
1
Hs
(αs − βsσs)ds+
∫ t
0
1
Hs
βsdWs.
16
1.3 Modellierung von Prozessen mit Rauschen
1.3.3 Modellierung in der Finanzokonomie
Als Beispiel betrachten wir nun die Modellierung risikobehafteter Papiere in der Fi-nanzokonomie. Fur den Wert risikiofreier Papiere setzt man an
∆B(t)
B(t)= r∆t,
wobei ∆B(t)B(t)
der relative Wertzuwachs im Intervall [t, t + ∆t] ist, d. h. ∆B(t) = B(t +
∆t)−B(t). r ist die Zinsrate bei kontinuierlicher Verzinsung. Bildet man den Grenzwert∆t→ 0, so erhalt man
dB(t) = rB(t)dt.
Modelliere nun ein risikobehaftetes Papier als Uberlagerung eines risikolosen Papiers mitzufalligem relativen Wertzuwachs
∆S(t)
S(t)= µ∆t+ σ∆Wt.
Der Grenzwert ∆t→ 0 liefert
dS(t) = µS(t)dt+ σS(t)dWt,
S0 = S.
Dies entspricht der SDGL (1.17) mit αt = 0, µt = µ, βt = 0, σt = σ. Die Losung lautethier also nach Lemma 1.18
S(t) = S · exp(∫ t
0
(
µ− 1
2σ2
)
ds+
∫ t
0
σdWs
)
= S · exp((
µ− 1
2σ2
)
t+ σWt
)
,
denn∫ t
0
(µ− 1
2σ2)ds =
(µ− 1
2σ2)t und
∫ t
0σdWs = σ(Wt −W0) = σWt.
1.19 BemerkungBei komplizierteren Modellen konnen µ und σ zeit- und auch preisabhangig sein.
1.3.4 Ausgangspunkt fur die Numerik
Typische Aufgabenstellungen: Berechnung von Erwartungswerten von Prozessen, welchedurch eine SDGL gesteuert werden.
Sei (Xt)0≤t≤T ein Ito-Prozess, so gilt fur 0 ≤ t ≤ T
E(g(Xt)) =
∫
Ω
g(X(t, ω))dP (ω).
Haufig ist (Xt)0≤t≤T durch eine skalare oder vektorwertige SDGL gegeben, z. B.
dXt = a(t, Xt)dt+ b(t, Xt)dWt,
X0 = X.(1.21)
17
1.3 Modellierung von Prozessen mit Rauschen
Im Allgemeinen ist a(t, Xt) ∈ Rd und b(t, Xt) ∈ R
d×m und Wt ist eine m-dimensionaleBrownsche Bewegung. Gleichung (1.21) ist eine Abkurzung fur
(Xt)i = Xi +
∫ t
0
ai(s,Xs)ds+m∑
j=1
∫ t
0
bij(s,Xs)(dWs)j ,
(X0)i = Xi,
fur i = 1, . . . , d.
Beispiele:
• Innere Spannung eines Polymermolekuls in einer Flussigkeit
• Optionspreisberechnung
V (T, S) = (S −K)+
K S
Abbildung 1.5: Europaischer Call (t = T ).
1.3.5 Optionspreisberechnung
Eine Option ist das Recht auf Kauf (Call-Option) bzw. Verkauf (Put-Option) eines Ba-siswertes (Waren, Aktien etc.) zur Verfallszeit T (europaisch) bzw. bis zur Verfallszeit T(amerikanisch) zu einem bestimmten Preis (Ausubungspreis).
Der Optionspreis ist der Wert, dieses Recht wahrnehmen zu durfen.
Notationen:
• Kurs des Basiswertes zur Zeit t: S(t)
• Wert der Option zur Zeit t: V (t, S(t))
• Ausubungspreis: K
18
1.3 Modellierung von Prozessen mit Rauschen
• Wert einer Call-Option in t = T : V (T, S) = max 0, S −K =: (S −K)+
• Wert einer Put-Option in t = T : V (T, S) = max 0, K − S = (K − S)+
Idee der Call-Option:Man erhalt den Basiswert zum Preis K und verkauft sofort zum Preis S, wenn S > K.Der Gewinn (Wert der Option) ist in diesem Fall (S −K)+.
V (T, S) = (K − S)+
K
K S
Abbildung 1.6: Europaischer Put (t = T ).
Barrier-Option (Down and Out Call):Dies ist eine Option, die wertlos (oder wertvoll) wird, wenn der Kurs des Basiswertes einevorher festgelegte Schranke B vor dem Verfallstag uber- bzw. unterschreitet.Die zugehorige Auszahlungsfunktion (Call) lautet
V(T, S|[0,T ]
)=
(S(T )−K)+, falls min S(t) : 0 ≤ t ≤ T ≥ B,
0, sonst.
Gesucht ist nun der Wert der Option zum Verkaufszeitpunkt V (0, S(0)), wobei die GroßeS(0) bekannt ist.
Zur Berechnung von Optionspreisen fuhren wir ein einfaches Marktmodell ein mit folgen-den Annahmen:
• risikoloser Zinssatz r(t) ≥ 0 fur Geldanlagen und Kredite
• der Basiswert entwickle sich gemaß
dS(t) = µ(t)S(t)dt+ σ(t)S(t)dWt,
S(0) = S0
(1.22)
• kontinuierlicher Handel ohne Transaktionskosten
19
1.3 Modellierung von Prozessen mit Rauschen
Damit lasst sich fur eine europaische Option zeigen:
V (0, S0) = E
(
exp
(∫ T
0
−r(s)ds)
· V (T, S(T )))
,
wobei S die SDGL (1.22) lost. Fur konstantes r erhalten wir
V (0, S0) = exp (−rT )E (V (T, S(T ))) .
Man sagt:”Der Optionspreis zur Zeit t = 0 ist gegeben durch den abdiskontierten Erwar-
tungswert des Optionspreises zur Zeit t = T .“
1.3.6 Monte-Carlo-Simulation
Vorgelegt sei die SDGL
dSt = µStdt+ σStdWt, S0 > 0.
Gesucht ist der Prozess (St)0≤t≤T .
Naheliegende Diskretisierung:
• Ersetze [0, T ] durch das Gitter t0, . . . , tN , tj = j∆t, ∆t = TN, j = 0, . . . , N .
| | | | |t0 = 0 t1 t2 t3 . . . tN = N∆t = T
Abbildung 1.7: Numerisches Gitter t0, . . . , tN.
• Ersetze den kontinuierlichen Prozess S : [0, T ]×Ω → R durch den diskreten ProzessS : t0, . . . , tN × Ω → R.
• Ersetze die SDGL fur S durch die stochastische Differenzengleichung
S(tn+1)− S(tn) = µS(tn)∆t + σS(tn)∆Wtn ,
wobei ∆Wtn := W (tn+1) − W (tn) und ∆Wtn unabhangige, N (0,∆t)-verteilte ZVsind.
Diese Ersetzungen fuhren auf den”Euler-Maruyama-Algorithmus“
S(tn+1) = S(tn) + µ∆tS(tn) + σS(tn)ξ(tn), n = 0, . . .N − 1,
S(0) = S0.
Dabei sind die ξ(tn) i. i. d. und N (0,∆t)-verteilt. Dieser Algorithmus ist eine Iterationvon ZV!
Zur Berechnung eines approximativen Pfades S(tj, ω), j = 0, . . . N, ω ∈ Ω durch
S(tn+1, ω) = S(tn, ω) + µ∆tS(tn, ω) + σS(tn, ω)ξ(tn, ω), n = 0, . . .N − 1,
S(0, ω) = S0(ω)
benotigt man also die Zahlen ξ(ti, ω), i = 0, . . . , N − 1.
20
1.4 Pseudozufallszahlen
Fragen:
• Wie erhalt man diese Zahlen?
• Wie gut ist der Euler-Maruyama-Algorithmus?
• Gibt es andere Verfahren zur approximativen Losung einer SDGL?
1.4 Pseudozufallszahlen
1.4.1 Einfuhrung
Sei X : Ω → Rd eine vektorwertige ZV auf dem Wahrscheinlichkeitsraum (Ω,A, P ) und
sei (Xi)i∈N eine Folge unabhangiger, identisch wie X verteilter ZV. Fur jedes ω ∈ Ω heißtdann (Xi(ω))i∈N eine Folge von Zufallszahlen (d = 1) bzw. eine Folge von Zufallsvektoren(d > 1).
Deterministisch, d. h. durch einen Algorithmus berechenbare Folgen (Yi)i∈N, die sich nahe-rungsweise wie Zufallszahlen bzw. Zufallsvektoren verhalten, heißen Pseudozufallszahlenbzw. Pseudozufallsvektoren.
1.4.2 Beispiel: Monte-Carlo-Integration
Sei X : Ω → Rd eine vektorwertige ZV und sei g : Rd → R messbar. Dann gilt
E(g(X)) =
∫
Ω
g(X)dP =
∫
Rd
g(v)f(v)dv.
Dabei gilt das zweite Gleichheitszeichen, falls X die Dichte f bezuglich des Lebesgue-Maßes besitzt.
Wir nehmen nun an, zur Verfugung stehen vektorwertige ZV X1, X2, . . . , XN , welche un-abhangig und identisch wie X verteilt sind. Betrachtet man den Mittelwert
SN =1
N
N∑
i=1
g(Xi),
so gilt:
E(SN ) =1
N
N∑
i=1
E(g(Xi)) =1
N
N∑
i=1
E(g(X)) = E(g(X)).
Das zweite Gleichheitszeichen gilt, da g messbar ist und die Xi die gleiche Verteilunghaben wie X . Unter der Annahme V (g(X)) <∞ gilt uberdies
V (SN) = V
(
1
N
N∑
i=1
g(Xi)
)
(∗)=
1
N2
N∑
i=1
V (g(Xi)) =1
N2
N∑
i=1
V (g(X)) =1
NV (g(X)),
wobei (∗) gilt, da die g(Xi) unabhangig sind (da Xi unabhangig und g messbar). Dasdrauf folgende Gleichheitszeichen gilt wiederum wegen der identischen Verteilung von Xi
wie X und der Messbarkeit von g. Damit folgt
V (SN) =1
NV (g(X)) → 0 fur N → ∞.
21
1.4 Pseudozufallszahlen
SN variiert also immer weniger um E(SN) = E(g(X)) fur N → ∞.
Das starke Gesetz der großen Zahlen liefert
limN→∞
SN = E(g(X)) P -fast sicher,
d. h. fur fast jedes ω ∈ Ω gilt
limN→∞
SN (ω) = E(g(X)).
Fur”gute“ Pseudozufallsvektoren Y1, Y2, . . . , YN gilt also fur große N
1
N
N∑
i=1
g(Yi) ≈ E(g(X)) =
∫
Rd
g(v)f(v)dv (1.23)
Die Y1, Y2, . . . ubernehmen also die Rolle von X1(ω), X2(ω), . . . Gleichung (1.23) liefert dieIdee der Monte-Carlo-Integration; diese ist besonders interessant fur d groß.
Wichtiger Spezialfall:Sei d = 1 und seien die Pseudozufallszahlen Y1, Y2, . . . ∈ R verteilt wie die ZV X . Furg(v) := 1]−∞,z](v) (z ∈ R fest) folgt
1
N
N∑
i=1
g(Yi) =1
N
N∑
i=1
1]−∞,z](Yi)N groß≈
∫
Ω
1]−∞,z](X)dP =
∫
X≤zdP = P (X ≤ z) = F (z),
wobei F die Verteilungsfunktion von X ist.
1.20 BemerkungEs gilt 1]−∞,z](Yi) = 1 genau dann, wenn Yi ≤ z. Also gibt der Ausdruck 1
N
∑Ni=1 1]−∞,z](Yi)
die relative Haufigkeit der Yi ≤ z an und
FN(z) :=1
N
N∑
i=1
1]−∞,z](Yi)
ist fur N hinreichend groß eine gute Approximation der Verteilungsfunktion von X ander Stelle z.
1.4.3 Konstruktion von Pseudozufallszahlen
Nun soll es um die Konstruktion von Pseudozufallszahlen (PZZ) gehen bei vorgegebenerVerteilung. Wichtig dafur ist folgende zentrale Beobachtung.
1.21 SatzSei F : R → [0, 1] streng monoton wachsend mit limx→−∞ F (x) = 0, limx→∞ F (x) = 1und seien X1, X2, . . . unabhangig und identisch, gleichverteilte ZV auf [0, 1]. Dann sind
F−1(X1), F−1(X2), F
−1(X3), . . .
unabhangig, identisch verteilt mit Verteilungsfunktion F .
22
1.4 Pseudozufallszahlen
Beweis. Da X gleichverteilt auf [0, 1], hat X die Dichtefunktion f(x) = 11−0
= 1 furx ∈ [0, 1] und f(x) = 0, sonst. Damit folgt
P (F−1(Xi) ≤ z) = P (Xi ≤ F (z)) =
∫ F (z)
0
1dx = F (z).
1.22 Bemerkung
a) Sind also X1, X2, . . . gute gleichverteilte PZZ auf ]0, 1[, so sind F−1(X1), F−1(X2),
F−1(X3), . . . gute PZZ mit Verteilungsfunktion F . Numerisch ist dies allerdings nurbrauchbar, wenn F−1 direkt verfugbar ist und nicht erst durch Losen einer nichtli-nearen Gleichung F (x) = y berechnet werden muss.
b) Gute gleichverteilte PZZ auf ]0, 1[ bekommt man in Matlab mit dem Befehl rand(genauer: rand(n,m) erzeugt eine n×m-Matrix mit gleichverteilten PZZ auf ]0, 1[).
z
F(z)
•
•
0 1
0
1
0.5
Abbildung 1.8: Diskrete Verteilung.
1.23 Beispiel (Standardnormalverteilung)
F (z) =
∫ z
−∞
1√2π
exp
(
−x2
2
)
dx =1
2+
∫ z
0
1√2π
exp
(
−x2
2
)
dx
=1
2
(
1 +
√
2
π
∫ z
0
exp
(
−x2
2
)
dx
)s:= x√
2=
1
2
(
1 +2√π
∫ z/√2
0
exp(−s2
)ds
)
=1
2
(
1 + erf
(z√2
))
,
wobei erf(
z√2
)
:= 2√π
∫ z/√2
0exp (−s2) ds und erf das Gauß’sche Fehlerintegral ist. Damit
folgt mit z := F−1(y)
y = F (F−1(y)) =1
2
(
1 + erf
(F−1(y)√
2
))
,
23
1.4 Pseudozufallszahlen
das bedeutet
2y − 1 = erf
(F−1(y)√
2
)
bzw.
F−1(y) =√2 erf−1(2y − 1).
1.24 BemerkungNoch nicht erfasst sind monotone, aber nicht streng monotone Verteilungen, vgl. Abbil-dungen 1.8 und 1.9. Diese Verteilungsfunktionen
F (z) = P (X ≤ z) =
∫ z
−∞f(s)ds
sind rechtsstetig, d.h. limh→0, h>0F (x+ h) = F (x).
z
F(z)
0
0
1
Abbildung 1.9: Exponentielle Verteilung.
Etwas allgemeiner ist der folgende
1.25 SatzSei F : R → [0, 1] eine Verteilungsfunktion, d. h.
1. F ist monoton wachsend,
2. F ist rechtsstetig,
3. limx→−∞ F (x) = 0 und limx→∞ F (x) = 1.
Weiter sei G(y) := inf x ∈ R : F (x) ≥ y , 0 < y < 1. Dann gilt
G(y) ≤ z ⇐⇒ y ≤ F (z).
Beweis.”⇐“: Sei y ≤ F (z), dann folgt z ∈ x ∈ R : F (x) ≥ y und somit
z ≥ inf x ∈ R : F (x) ≥ y = G(y).
24
1.4 Pseudozufallszahlen
”⇒“: Sei nun G(y) = inf x ∈ R : F (x) ≥ y ≤ z. Dann existiert zu ε > 0 hinreichend
klein ein x mit F (x) ≥ y und x ≤ G(y) + ε. Insbesondere haben wir nach Voraus-setzung x ≤ G(y) + ε ≤ z + ε. Die Monotonie von F liefert dann
y ≤ F (x) ≤ F (z + ε)
und mit der Rechtsstetigkeit von F und ε→ 0 folgt
y ≤ F (z).
Konsequenz:Seien X1, X2, . . . i. i. d. und gleichverteilt auf ]0, 1[. Dann gilt mit Satz 1.25
P (G(Xi) ≤ z) = P (Xi ≤ F (z)) = F (z).
Das letzte Gleichheitszeichen gilt aufgrund der Gleichverteilung von Xi auf ]0, 1[. Sindalso X1, X2, . . . i. i. d. und gleichverteilt auf ]0, 1[, so sind G(X1), G(X2), . . . i. i. d. mitVerteilungsfunktion F .
1.26 Beispiel (Pseudo-Munze)Sei X(ω) ∈ 0, 1 , P (X = 0) = P (X = 1) = 1
2. Fur die Verteilungsfunktion F gilt
(vergleiche Abbildung 1.8)
F (z) =
0, fur z < 0,
1
2, fur 0 ≤ z < 1,
1, fur 1 ≤ z.
Dann erhalten wir fur G
G(y) = inf x ∈ R : F (x) ≥ y =
0, fur y ≤ 1
2,
1, fur y >1
2.
1.27 Beispiel (Exponentialverteilung)Die Verteilungsfunktion der Exponentialverteilung ist fur µ > 0 gegeben durch
F (z) =
∫ z
0
f(s)ds mit f(s) =
1
µexp (−s/µ), fur s ≥ 0,
0, fur s < 0.
Also folgt
F (z) =
1− exp (−z/µ), fur z ≥ 0,
0, fur z < 0
und F−1(z) = −µ ln(1− z) fur z ≥ 0. Damit erhalten wir fur G
G(y) = −µ ln(1− y), 0 < y < 1.
Gleichverteilte PZZ sind also der Ausgangspunkt fur anders verteilte PZZ.
25
1.4 Pseudozufallszahlen
1.4.4 Konstruktion von Pseudozufallsvektoren (PZV)
Seien X1, X2, X3, . . . unabhangig und identisch verteilte ZV wie X : Ω → R. Setze dann
Y1 :=
X1...Xm
, Y2 :=
Xm+1...
X2m
, . . .
Y1, Y2, . . . sind i. i. d. mit Verteilung PYi = PX⊗ . . .⊗PX =: PY , d. h. Y1(ω), Y2(ω), . . . sindZufallsvektoren mit Verteilung PY . Entsprechend sind Y1, Y2, . . . gute PZV, fallsX1, X2, . . .gute PZZ sind.
Allgemeinere PZV findet man mit
1.28 SatzSei X : Ω → R
m eine vektorwertige ZV mit Dichte f : Rm → R und seien A :=
x ∈ Rm : f(x) > 0 und h : A → h(A) ⊂ R
m umkehrbar und h−1 differenzierbar. Dannhat die transformierte Zufallsabbildung Y := h(X) die Dichte
f(y) := f(h−1(y)
)·∣∣∣∣det
(∂h−1
∂y(y)
)∣∣∣∣, y ∈ h(A).
Beweisidee. Fur M ⊂ Rm gilt
P (Y ∈ M) = P (h(X) ∈M) = P(X ∈ h−1(M)
)=
∫
h−1(M)
f(x)dx
=
∫
M
f(h−1(y)
)∣∣∣∣det
(∂h−1
∂y(y)
)∣∣∣∣dy.
Beim letzten Gleichheitszeichen wurde der Transformationssatz im Rm angewendet.
1.29 BeispielTypische Anwendung: f(x) = 1 [0,1[m(x), d. h. X ist gleichverteilt auf ]0, 1[m (die Kom-ponenten sind unabhangig und gleichverteilt). Es gilt also: f = 1 auf A := [0, 1[m. Dietransformierte Abbildung Y = h(X) ist dann verteilt mit Dichte
∣∣∣∣det
(∂h−1
∂y(y)
)∣∣∣∣
auf h(A) = h( [0, 1[m).
1.4.5 Die Box-Muller-Methode
Betrachte die Abbildung h : ]0, 1[2 → R2, h(x1, x2) =
√
−2 ln(x1)
(cos(2πx2)sin(2πx2)
)
. Die
Umkehrabbildung von h hat die Gestalt
h−1(y) =
(exp (−(y21 + y22)/2)
arctan(y2y1
)
/2π
)
.
26
1.4 Pseudozufallszahlen
Somit folgt∣∣∣∣det
(∂h−1
∂y(y)
)∣∣∣∣=
1
2πexp
(−(y21 + y22)/2
).
Ist also X gleichverteilt auf ]0, 1[2, so ist h(X) nach Satz 1.28 standardnormalverteilt aufR
2. Beachte dabei, dass fur die Dichte f von X gilt: f = 1 [0,1[ 2.
Der Box-Muller-Algorithmus:
• Generiere ]0, 1[-gleichverteilte PZZ X1, X2, X3, . . .
• Dann sind h1(X1, X2), h2(X1, X2), h1(X3, X4), h2(X3, X4), . . . N (0, 1)-verteilte PZZ.
1.30 BemerkungDer Befehl randn erzeugt N (0, 1)-verteilte PZZ in Matlab; genauer: randn(n,m) er-zeugt eine n × m-Matrix von N (0, 1)-verteilten PZZ. Dieser Befehl benutzt den soge-nannten Ziggurat-Algorithmus, welcher ohne die Funktionen
√·, ln(·), cos(·) und sin(·)auskommt.
1.4.6 Korrelierte Normalverteilung (korreliert normalverteiltePZV)
Sei X m-dimensional und N (0, Im)-verteilt, d. h. X hat die Dichtefunktion
f(x) =1
(2π)m/2exp
(
−1
2〈x, x〉
)
.
Derartige PZV erhalt man z.B. mit der Box-Muller-Methode.
Es sei h(X) := µ + AX mit A ∈ Rm×m invertierbar. Wir finden h−1(Y ) = A−1(Y − µ)
und damit ∂h−1
∂Y= A−1. Also hat Y = h(X) nach Satz 1.28 die Dichte
f(y) =1
(2π)m/2exp
(
−1
2
⟨A−1(y − µ), A−1(y − µ)
⟩)
·∣∣det
(A−1
)∣∣
=1
(2π)m/2 |det(A)| exp(
−1
2
⟨(AAT
)−1(y − µ), y − µ
⟩)
.
Mit Σ := AAT folgt det(Σ) = det(A)2 und somit
f(y) =1
(2π)m/2√
det(Σ)exp
(
−1
2
⟨Σ−1(y − µ), y − µ
⟩)
,
d. h. Y ist N (µ,Σ)-verteilt.
Konkretes Vorgehen:Sei µ ∈ R
m und Σ ∈ Rm×m positiv definit gegeben.
1. Bestimme A ∈ Rm×m mit Σ = AAT .
2. Konstruiere N (0, Im)-verteilte PZV X1, X2, . . . (z. B. mit der Box-Muller-Methode).
3. Bilde Yi = µ+ AXi, i = 1, 2, . . .
Dann sind Y1, Y2, . . . N (µ,Σ)-verteilte PZV.
27
1.4 Pseudozufallszahlen
1.4.7 Die Cholesky-Zerlegung
Um aus unkorrelierten ZV N (µ,Σ)-verteilte ZV zu erhalten, benotigt man die ZerlegungΣ = AAT .
1.31 SatzSei C ∈ R
N×N symmetrisch und positiv definit. Dann existiert eine eindeutig bestimmtelinke untere Dreiecksmatrix L mit strikt positiven Diagonalelementen, so dass C = L ·LT .
Beweis. Eindeutigkeit: Seien L1 und L2 linke untere Dreiecksmatrizen mit positiver Haupt-diagonale, und es gelte
L1 L1T = C = L2 L2
T .
Da linke untere (rechte obere) Dreiecksmatrizen eine Algebra mit Einheit I bilden, sindsie strukturerhaltend unter Addition, Multiplikation und Invertierung. Also folgt
L2−1 L1 = L2
T(L1
T)−1
=[(L2
−1 L1
)T]−1
,
wobei L2−1 L1 eine linke untere und
[(L2
−1 L1
)T]−1
eine rechte obere Dreiecksmatrix ist.
D. h. H := L2−1 L1 erfullt die Gleichung H =
(HT)−1
und ist gleichzeitig linke untereund rechte obere Dreiecksmatrix. Also ist H diagonal.Damit folgt
H2 = HHT = HH−1 = I ⇒ H = I,
da L1 und L2 strikt positive Diagonalelemente haben. Somit gilt L1 = L2.Die Existenz wird durch das Cholesky-Verfahren gesichert (vgl. Numerik I).
In Matlab erfolgt die Berechnung von C = L · LT fur symmetrisches und positives C mitfolgenden Programmzeilen:
% Cholesky-Zerlegung
R=chol(C);
L=R’;
1.4.8 Konstruktion von PZZ mit Gleichverteilung auf [0, 1]
Sind gleichverteilte PZZ erzeugt, so konnen wir mit den bereits beschriebenen MethodenPZZ mit anderer Verteilung generieren.
Lineare Kongruenzmethode:Erzeuge Zahlen z1, . . . , zN gemaß
zi+1 = (azi + c) mod m, i = 0, . . . , N − 1,
mit z0 ∈ 0, 1, . . . , m− 1 (”seed“). Setze dann
xi :=zim
∈ [0, 1[
und erhalte so PZZ.
28
1.4 Pseudozufallszahlen
1.32 Bemerkung
a) Der Ausdruck x mod y entspricht dem Rest bei Division von x mit y.
b) Illustration fur a = c = 3 und m = 5:
z0 = 3,
z1 = (3 · 3 + 3) mod 5 = 2,
z2 = (3 · 2 + 3) mod 5 = 4,
z3 = (3 · 4 + 3) mod 5 = 0,
z4 = (3 · 0 + 3) mod 5 = 3 = z0.
Dieser Generator generiert eine 4-periodische Zahlenfolge. Die Frage ist nun, wanneine solche Rekursion gute PZZ liefert. Offensichtlich mussen a, c und m sorgfaltiggewahlt werden. Insbesondere muss z. B. m groß sein!
1.33 BemerkungJeder solche Algorithmus ist periodisch. Wahle also a, c und m derart, dass die Periodemoglichst groß wird. Aus der Zahlentheorie ist folgender Sachverhalt bekannt:
Keine Schleifenlange < m, falls
1. c und m keine gemeinsamen Teiler haben (z. B. m = 231 und c ungerade, bei 32-bit-Rechnern).
2. a mod g = 1 fur jeden Primfaktor g von m (z. B. m = 231 und g = 2, d. h. a hatdie Form a = 2r + 1).
3. a mod 4 = 1, wenn m ein Vielfaches von 4 ist (z. B. m = 231 und a = 2r + 1, r ≥2 ⇒ a = 222r−2 + 1).
Den Beweis dieser Aussage findet man in Knuth, The Art of Computer Programming(1969). Anzufugen bleibt, dass eine moglichst große Periode nur ein notwendiges, aberkein hinreichendes Kriterium fur gute auf [0, 1[ gleichverteilte PZZ ist.
1.34 BemerkungDer Zufallsgenerator in Matlab basiert auf dem
”lagged“ Fibonacci-Generator (Tausworth,
1965)
zi = (zi−µ + zi−γ) mod m,
xi =zim, i = 0, 1, 2, . . .
Es mussen also max µ, γ viele Zahlen aus 0, . . . , m− 1 vorgegeben werden. In Matlabist max µ, γ = 32, d. h. der Zustand des Generators besteht aus 32 Zahlen und isterhaltlich mit dem Befehl rand(’state’) und zu setzen mit rand(’state’,myseed).
29
2 Numerische Methoden furstochastischeDifferentialgleichungen
2.1 Das Euler-Maruyama-Verfahren
2.1.1 Numerische Methoden
Betrachte die SDGL
dXt = a(t, Xt)dt+ b(t, Xt)dWt, 0 ≤ t ≤ T,
X0 = ξ.(2.1)
Numerische Methoden zur Losung von (2.1):Sei N ∈ N gegeben und fur h := T
Nund tn := nh, n = 0, 1, . . . , N sei Xtn die Approxima-
tion fur Xtn = Xnh. Wir betrachten nun die Diskretisierung von (2.1):
Xtn+1 = Xtn + a(
tn, Xtn
)
h + b(
tn, Xtn
)
∆Wtn ,
X0 = ξ,
mit ∆Wtn :=Wtn+1 −Wtn ∼ N (0, h).
2.1.2 Gute der Approximation
Ziel ist es nun, die Gute der approximativen Losung zu beurteilen. Dazu untersuchen wirTeilstucke der exakten Losung und wahlen zur technischen Vereinfachung das autonomeProblem
dXt = a(Xt)dt+ b(Xt)dWt,
X0 = ξ.(2.2)
Gleichung (2.2) gilt fur jedes Teilintervall von [0, T ], also auch fur [tn, tn+1], d. h. wir haben
Xtn+1 = Xtn +
∫ tn+1
tn
a(Xt)dt+
∫ tn+1
tn
b(Xt)dWt.
Mit der Ito-Formel gilt fur a, b ∈ C2
da(Xt) = a′(Xt)dXt +1
2a′′(Xt)b
2(Xt)dt,
db(Xt) = b′(Xt)dXt +1
2b′′(Xt)b
2(Xt)dt.
30
2.1 Das Euler-Maruyama-Verfahren
Mit dXt = a(Xt)dt+ b(Xt)dWt folgt somit durch Integration uber [tn, tn+1]
a(Xt) = a (Xtn)︸ ︷︷ ︸
= konstant
+
∫ t
tn
a′(Xs)a(Xs) +1
2a′′(Xs)b
2(Xs)ds+
∫ t
tn
a′(Xs)b(Xs)dWs, (2.3)
b(Xt) = b (Xtn)︸ ︷︷ ︸
= konstant
+
∫ t
tn
b′(Xs)a(Xs) +1
2b′′(Xs)b
2(Xs)ds+
∫ t
tn
b′(Xs)b(Xs)dWs. (2.4)
Einsetzen von (2.3) und (2.4) in (2.2) liefert die Struktur
Xtn+1 = Xtn +
∫ tn+1
tn
a(Xtn)dt+
∫ tn+1
tn
b(Xtn)dWt + Resttn
= Xtn + a(Xtn)h+ b(Xtn)∆Wtn + Resttn , (2.5)
mit
Resttn :=
∫ tn+1
tn
[∫ t
tn
a′(Xs)a(Xs) +1
2a′′(Xs)b
2(Xs)ds+
∫ t
tn
a′(Xs)b(Xs)dWs
]
dt
+
∫ tn+1
tn
[∫ t
tn
b′(Xs)a(Xs) +1
2b′′(Xs)b
2(Xs)ds+
∫ t
tn
b′(Xs)b(Xs)dWs
]
dWt. (2.6)
2.1 Bemerkung
a) Resttn besteht aus sechs Doppelintegralen!
b) Vergleiche die Struktur von (2.5) fur die SDGL (2.2) mit dem Euler-Maruyama-Verfahren.
2.1.3 Untersuchung der Doppelintegrale
Wir untersuchen im Folgenden die Doppelintegrale genauer. Betrachte nun den Term mitzweifacher stochastischer Integration, d. h.
∫ tn+1
tn
∫ t
tn
b′(Xs)b(Xs)︸ ︷︷ ︸
=:f(Xs)
dWsdWt. (2.7)
Fur f gilt mit dXs = a(Xs)ds+ b(Xs)dWs nach der Ito-Formel
df(Xs) = f ′(Xs)dXs +1
2f ′′(Xs)b
2(Xs)ds
und somit
f(Xs) = f(Xtn) +
∫ s
tn
f ′(Xη)a(Xη) +1
2f ′′(Xη)b
2(Xη)dη +
∫ s
tn
f ′(Xη)b(Xη)dWη. (2.8)
Einsetzen von (2.8) in (2.7) liefert
∫ tn+1
tn
∫ t
tn
b′(Xs)b(Xs)︸ ︷︷ ︸
=f(Xs)
dWsdWt = b′(Xtn)b(Xtn)︸ ︷︷ ︸
=f(Xtn )
∫ tn+1
tn
∫ t
tn
dWsdWt + Rest3,tn , (2.9)
31
2.1 Das Euler-Maruyama-Verfahren
wobei Rest3,tn aus zwei Dreifachintegralen besteht.
Wir berechnen nun in einer Nebenrechnung folgendes Integral:∫ tn+1
tn
(∫ t
tn
dWs
)
︸ ︷︷ ︸
=Wt−Wtn
dWt =
∫ tn+1
tn
(Wt −Wtn) dWt =
∫ tn+1
tn
WtdWt −Wtn
∫ tn+1
tn
dWt
︸ ︷︷ ︸
=∆Wtn
=
∫ tn+1
tn
WtdWt −Wtn∆Wtn .
Nach dem Lemma von Ito gilt weiter fur F (X) := X2 und Xt :=Wt
dW 2t = 2WtdWt +
1
2· 2 · 12dt ⇐⇒ 1
2dW 2
t =WtdWt +1
2dt.
Also folgt mit Integration uber [tn, tn+1]
1
2W 2tn+1
=1
2W 2tn +
∫ tn+1
tn
WtdWt +
∫ tn+1
tn
1
2dt
︸ ︷︷ ︸
=h/2
,
bzw. aquivalent dazu∫ tn+1
tn
WtdWt =1
2
(W 2tn+1
−W 2tn
)− h
2.
Wir finden somit∫ tn+1
tn
∫ t
tn
dWsdWt =1
2
(W 2tn+1
−W 2tn − h
)−Wtn∆Wtn
=1
2
((Wtn+1 +Wtn
)∆Wtn − h
)−Wtn∆Wtn
=1
2
((Wtn+1 −Wtn
)∆Wtn − h
)
=1
2
(∆W 2
tn − h). (2.10)
Einsetzen von (2.10) in (2.9) liefert∫ tn+1
tn
∫ t
tn
b′(Xs)b(Xs)dWsdWt = b′(Xtn)b(Xtn) ·1
2
(∆W 2
tn − h)+ Rest3,tn .
Daraus folgt mit (2.5) und (2.6)
Xtn+1 = Xtn + a(Xtn)h+ b(Xtn)∆Wtn + b′(Xn)b(Xn)1
2
(∆W 2
tn − h)+ Rest′tn ,
wobei
Rest′tn :=
∫ tn+1
tn
[∫ t
tn
a′(Xs)a(Xs) +1
2a′′(Xs)b
2(Xs)ds+
∫ t
tn
a′(Xs)b(Xs)dWs
]
dt
+
∫ tn+1
tn
[∫ t
tn
b′(Xs)a(Xs) +1
2b′′(Xs)b
2(Xs)ds
]
dWt + Rest3,tn
=: Rest2,tn +Rest3,tn ,
d. h. Rest2,tn = Rest3,tn −∫ tn+1
tn
∫ t
tnb′(Xs)b(Xs)dWsdWt. Zu bemerken ist noch, dass Rest2,tn
aus funf Doppelintegralen besteht mit mindestens einer Zeitintegration, wahrend Rest3,tnzwei Dreifachintegrale enthalt (vgl. oben).
32
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
2.2 Konvergenztheorie fur das
Euler-Maruyama-Verfahren
2.2.1 Exakte Losung vs. diskretes Verfahren
Fur die exakte Losung X gilt nach (2.5)
Xtn+1 −Xtn = a(Xtn)h+ b(Xtn)∆Wtn + Resttn , n = 0, 1, 2, . . . ,
X0 = ξ.
Fur das Euler-Maruyama-Verfahren gilt
Xtn+1 − Xtn = a(
Xtn
)
h+ b(
Xtn
)
∆Wtn , n = 0, 1, 2, . . . ,
X0 = ξ.
2.2.2 Analyse des L2-Fehlers
Wir untersuchen im Folgenden den L2-Fehler en+1 := E
(∣∣∣Xtn+1 − Xtn+1
∣∣∣
2)
des Euler-
Maruyama-Verfahrens:
en+1 = E
(∣∣∣Xtn+1 − Xtn+1
∣∣∣
2)
= E
∣∣∣∣∣∣
n∑
k=0
(Xtk+1
−Xtk
)+ X0︸︷︷︸
=ξ
−
n∑
k=0
(
Xtk+1− Xtk
)
+ X0︸︷︷︸
=ξ
∣∣∣∣∣∣
2
= E
∣∣∣∣∣
n∑
k=0
((Xtk+1
−Xtk
)−(
Xtk+1− Xtk
))∣∣∣∣∣
2
= E
(∣∣∣∣∣
n∑
k=0
(
a (Xtk)− a(
Xtk
))
h+
n∑
k=0
(
b(Xtk)− b(
Xtk
))
∆Wtk
+n∑
k=0
b′(Xtk)b(Xtk)1
2
(∆W 2
tk− h)+
n∑
k=0
Rest′tk
∣∣∣∣∣
2
.
Fur eine endliche Folge ai mit festem m gilt
(a1 + a2 + . . .+ am)2 ≤ m
(a21 + a22 + . . .+ a2m
). (2.11)
Somit folgt fur den Fehler en+1 mit m = 4
en+1 ≤ 4E
∣∣∣∣∣
n∑
k=0
(
a (Xtk)− a(
Xtk
))
h
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
(
b (Xtk)− b(
Xtk
))
∆Wtk
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
b′(Xtk)b(Xtk)1
2
(∆W 2
tk− h)
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
Rest′tk
∣∣∣∣∣
2
=: 4 (I) + (II) + (III) + (IV ) . (2.12)
33
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
2.2.3 Separate Analyse der Terme (I)-(IV )
Summand (I):
∣∣∣∣∣
n∑
k=0
(
a (Xtk)− a(
Xtk
))
h
∣∣∣∣∣
2(2.11)
≤ (n+ 1)h2n∑
k=0
(
a (Xtk)− a(
Xtk
))2
≤ (n + 1)h︸ ︷︷ ︸
=tn+1≤T
n∑
k=0
h(
a (Xtk)− a(
Xtk
))2
≤ Thn∑
k=0
L2a
∣∣∣Xtk − Xtk
∣∣∣
2
,
falls a Lipschitz-stetig ist mit Konstante La. Somit erhalten wir fur den Erwartungswert
E
∣∣∣∣∣
n∑
k=0
(
a (Xtk)− a(
Xtk
))
h
∣∣∣∣∣
2
≤ TL2ah
n∑
k=0
E
(∣∣∣Xtk − Xtk
∣∣∣
2)
︸ ︷︷ ︸
=ek
,
= TL2ah
n∑
k=0
ek. (2.13)
Summand (II):
Sei Sk :=(
b (Xtk)− b(
Xtk
))
∆Wtk fur k = 0, . . . , N . Dann gilt
E(Sk) = E(
b (Xtk)− b(
Xtk
))
· E (∆Wtk)︸ ︷︷ ︸
=0, da ∆Wtk∼N (0,h)
= 0,
E(S2k) = E
((
b (Xtk)− b(
Xtk
))2)
· E(∆W 2
tk
)
︸ ︷︷ ︸
=h nach Aufgabe 3, Blatt 1
= E
((
b (Xtk)− b(
Xtk
))2)
· h.
Wir finden somit
E
∣∣∣∣∣
n∑
k=0
(
b (Xtk)− b(
Xtk
))
∆Wtk
∣∣∣∣∣
2
= E
∣∣∣∣∣
n∑
k=0
Sk
∣∣∣∣∣
2
= E
(n∑
k=0
S2k
)
+ 2∑
k<l
E (Sk · Sl)
=
n∑
k=0
E(S2k
)+ 2
∑
k<l
E (Sk · Sl) .
34
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
Da Sk und Sl stochastisch unabhangig sind, gilt E(Sk · Sl) = E(Sk)E(Sl) = 0 und somitfolgt
E
∣∣∣∣∣
n∑
k=0
(
b (Xtk)− b(
Xtk
))
∆Wtk
∣∣∣∣∣
2
=n∑
k=0
E
((
b (Xtk)− b(
Xtk
))2)
· h
≤ L2bh
n∑
k=0
E
(∣∣∣Xtk − Xtk
∣∣∣
2)
︸ ︷︷ ︸
=ek
= L2bh
n∑
k=0
ek, (2.14)
falls b Lipschitz-stetig ist mit Konstante Lb.
Summand (III):
Sei Sk := 12b′(Xtk)b(Xtk)
(∆W 2
tk− h)fur k = 0, . . . , N . Wie oben folgt mit Aufgabe 3,
Blatt 1
E(∆W 2
tk
)= h und E
(∆W 4
tk
)= 3h2, d. h.
E
(1
2
(∆W 2
tk− h))
=1
2
(E(∆W 2
tk
)− h)= 0 und
E
(1
2
(∆W 2
tk− h)2)
=3
2h2 − h2 +
1
2h2 = h2.
Somit gilt fur k = 0, . . . , N
E (Sk) = 0 und E(S2k
)≤ Ch2.
Ferner sind Sk und Sl fur k < l stochastisch unabhangig und damit erhalten wir also
E
∣∣∣∣∣
n∑
k=0
1
2b′(Xtk)b(Xtk)
(∆W 2
tk− h)
∣∣∣∣∣
2
= E
∣∣∣∣∣
n∑
k=0
Sk
∣∣∣∣∣
2
=n∑
k=0
E(S2k
)
︸ ︷︷ ︸
≤Ch2
+2∑
k<l
E (Sk · Sl)︸ ︷︷ ︸
=E(Sk)E(Sl)=0
≤ C
n∑
k=0
h2
= C(n+ 1)h2
≤ CTh. (2.15)
Summand (IV ):
E
∣∣∣∣∣
n∑
k=0
Rest′tk
∣∣∣∣∣
2
=
n∑
k=0
E((
Rest′tk)2)
+ 2∑
j<k
E(
Rest′tj ·Rest′tk)
︸ ︷︷ ︸
=E(
Rest′tj
)
E(Rest′tk)
=
n∑
k=0
E((
Rest′tk)2)
+ 2∑
j<k
E(
Rest′tj
)
E(Rest′tk
). (2.16)
35
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
Dabei sind die Einzelterme in Rest′tj und Rest′tk entweder mindestens doppelte reine Zei-tintegrale oder es ist mindestens ein stochastisches Integral dabei. Somit folgt fur jedenEinzelterm ET
E(ET) ≤
Ch2, falls doppeltes Zeitintegral ,
0, fur E
(∫ b
a
ftdWt
)
= 0.
Insgesamt erhalten wir fur alle l
E(Rest′tl
)≤ C1h
2.
Somit folgt
n∑
j,k=0j<k
E(
Rest′tj
)
E(Rest′tk
)≤
n∑
j,k=0j<k
C1h2 · C1h
2 = C21h
4
n∑
j,k=0j<k
1 = C21h
4n(n+ 1)
2
≤ 1
2C2
1h2(n2 + n︸ ︷︷ ︸
≤2n2
)h2 ≤ C21h
2 n2h2︸︷︷︸
≤T 2
≤ C21h
2T 2. (2.17)
Ferner lasst sich nun das Folgende zeigen:
E((
Rest′tk)2)
≤ C0h3, (2.18)
falls a, a′, a′′ und b, b′, b′′ beschrankt sind. Dabei sind Terme der folgenden Formen zuberechnen.
a) Doppel-Zeit-Integral:
E
(∣∣∣∣
∫ tn+1
tn
∫ t
tn
fsdsdt
∣∣∣∣
2)
= ?
Mit |fs| ≤ C folgt∣∣∣
∫ tn+1
tn
∫ t
tnfsdsdt
∣∣∣ ≤ C
∣∣∣
∫ tn+1
tn
∫ t
tndsdt
∣∣∣ = C
2h2 und somit
E
(∣∣∣∣
∫ tn+1
tn
∫ t
tn
fsdsdt
∣∣∣∣
2)
≤ C1h4.
b) Zeit-Ito-Integral:
E
(∣∣∣∣
∫ tn+1
tn
∫ t
tn
fsdsdWt
∣∣∣∣
2)
= ?
Mit Hilfe der Ito-Isometrie, d. h.
E
((∫ d
c
fsdWs
)2)
=
∫ d
c
E(f 2s
)ds
und |fs| ≤ C folgt
E
(∣∣∣∣
∫ tn+1
tn
(∫ t
tn
fsds
)
dWt
∣∣∣∣
2)
=
∫ tn+1
tn
E
(∣∣∣∣
∫ t
tn
fsds
∣∣∣∣
2)
dt
≤∫ tn+1
tn
E(C2h
2)dt ≤ C2h
3.
36
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
c) Dreifach-Ito-Integral:
E
(∣∣∣∣
∫ tn+1
tn
∫ t
tn
∫ s
tn
fηdWηdWsdWt
∣∣∣∣
2)
= ?
Wie in b) folgt mit dreimaliger Anwendung der Ito-Isometrie und |fη|2 ≤ C
E
(∣∣∣∣
∫ tn+1
tn
∫ t
tn
∫ s
tn
fηdWηdWsdWt
∣∣∣∣
2)
=
∫ tn+1
tn
∫ t
tn
∫ s
tn
E(f 2η
)dηdsdt
≤∫ tn+1
tn
∫ t
tn
∫ s
tn
Cdηdsdt ≤ C3h3.
Somit folgt fur C0 geeignet die Abschatzung (2.18). Wir erhalten also
n∑
k=0
E((
Rest′tk)2)
≤n∑
k=0
C0h3 = (n+ 1)h
︸ ︷︷ ︸
≤T
C0h2 ≤ C0Th
2. (2.19)
Einsetzen von (2.19) und (2.17) in (2.16) liefert
E
∣∣∣∣∣
n∑
k=0
Rest′tk
∣∣∣∣∣
2
=n∑
k=0
E((
Rest′tk)2)
+ 2∑
j<k
E(
Rest′tj
)
E(Rest′tk
)
≤ C0Th2 + 2C2
1T2h2 ≤ Ch2. (2.20)
2.2.4 Das diskrete Gronwall-Lemma
Mit einer generischen Konstante C > 0 erhalten wir aus (2.12), (2.13), (2.14), (2.15) und(2.20) die Abschatzung
en+1 ≤ Chp + Chn∑
k=0
ek (2.21)
mit p = 1.
2.2 BemerkungMan beachte, dass ohne den Term (III) die Abschatzung (2.21) mit p = 2 gelten wurde.
Fur die weitere Abschatzung von en+1 benotigen wir noch das folgende Lemma.
2.3 Lemma (Diskretes Gronwall-Lemma)Seien b, d ≥ 0 und (un)n∈N eine reelle Folge mit un ≥ 0. Ferner gelten folgende Abschatzun-gen:
u0 ≤ d und un ≤ d+ b
n−1∑
k=0
uk, n = 1, 2, . . .
Dann gilt
un ≤ d exp(nb), n = 1, 2, . . .
37
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
Beweis. Siehe Ubung.
2.4 KorollarFur den Erwartungswert der Differenz zwischen exakter und diskreter Losung gilt
E(∣∣∣Xtn − Xtn
∣∣∣
)
≤√
C exp(CT ) ·√h,
wobei n ∈ N mit nh ≤ T .
Beweis. Fur die Abschatzung (2.21) gilt nach dem diskreten Gronwall-Lemma mit d :=Ch und b := Ch
en ≤ Ch exp(Cnh) ≤ C exp(CT ) · h.
Mit der Jensenschen Ungleichung fur den Erwartungswert, d. h.
E (|A|)2 ≤ E(|A|2
) (A ist integrierbare ZV, ϕ(x) = x2
)
folgt somit
E(∣∣∣Xtn − Xtn
∣∣∣
)
≤√
E
(∣∣∣Xtn − Xtn
∣∣∣
2)
≤ √en ≤
√
C exp(CT ) ·√h, n = 0, . . . , N.
2.2.5 Starke Konvergenz
Wir kommen nun zum Begriff der starken Konvergenz.
2.5 Definition (Starke Konvergenz)Sei (Xt)0≤t≤T die Losung der SDGL
dXt = a(t, Xt)dt+ b(t, Xt)dWt,
X0 = X
und sei Xtn , tn = nh, 0 ≤ nh ≤ T eine Approximation von (Xt)0≤t≤T . Wir sagen Xkonvergiert stark gegen X, wenn gilt:
ε(h) := sup
E(∣∣∣Xtn − Xtn
∣∣∣
)
: 0 ≤ nh ≤ T
→ 0 fur h→ 0.
Die Konvergenz ist von der Ordnung γ > 0, falls eine Konstante C > 0 existiert mit
ε(h) ≤ Chγ , 0 < h ≤ h0
fur ein h0 > 0.
Nach dem bisher Gezeigten erhalten wir nun folgendes Konvergenzresultat.
2.6 SatzFur Lipschitz-stetige C2-Funktionen a und b, deren partielle Ableitungen bis zur Ord-nung 2 ebenfalls beschrankt sind, konvergiert das Euler-Maruyama-Verfahren stark mitder Ordnung 1
2.
38
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
2.2.6 Numerische Bestimmung der Konvergenzordnung
Seien h0 > h1 > h2 > . . . > hm vorgegeben. Wir berechnen hierzu eine moglichst guteApproximation ε(hi) des maximalen zeitlichen Fehlers ε(hi) (i = 0, . . . , m) und zeichnendas Paar (ln(hi), ln (ε(hi))) in ein (ln(h), ln (ε))-Diagramm, vgl. Abbildung 2.1.
Die Steigung der Ausgleichsgeraden entspricht annahernd der Konvergenzordnung, dennfur ε(h) = Chγ gilt
ln (ε(h)) = ln(C) + ln (hγ) = γ · ln(h) + ln(C),
wobei γ die Steigung der Geraden ist.
ln(ε)
ln(h)
ln(h4) ln(h3) ln(h2) ln(h1) ln(h0)
Abbildung 2.1: Ausgleichsgerade mit 4 verschiedenen Schrittweiten.
2.7 Bemerkung (Berechnung von ε(h))
a) Da wir zur Berechnung vom Erwartungswert E(∣∣∣Xtn − Xtn
∣∣∣
)
die exakte Losung
einer SDGL benotigen, wahlen wir fur das Experiment eine einfache SDGL, vonwelcher die Losung bekannt ist, z. B.
dXt = aXtdt+ bXtdWt,
X0 = X
mit der Losung Xt = X exp((a− 1
2b2)t+ bWt
).
b) Wir brauchen E(∣∣∣Xtn − Xtn
∣∣∣
)
, tn = nh, 0 ≤ tn ≤ T . Den Erwartungswert konnen
wir jedoch nur approximieren. Man benotigt hierzu PZZ ηi (i = 1, . . . ,M), welche
wie∣∣∣Xtn − Xtn
∣∣∣ verteilt sind. Dann gilt
E(∣∣∣Xtn − Xtn
∣∣∣
)
≈ 1
M
M∑
i=1
ηi,
39
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
fur M ∈ N hinreichend groß.
Die PZZ ηi (i = 1, . . . ,M) konstruieren wir durch M unabhangige Berechnungen von∣∣∣Xtn(ω)− Xtn(ω)
∣∣∣. Hierfur benotigen wir M unabhangige Brownsche Bewegungen
W(1)t (ω), . . . ,W
(M)t (ω).
Es gilt
W(k)tm (ω) =
m−1∑
j=0
∆W(k)tj (ω) =:
m−1∑
j=0
ξ(k)tj , k = 1, . . . ,M, (2.22)
wobei ∆W(k)tj ∼ N (0, h).
Generiere also die N ·M PZZ
ξ(1)t0 , . . . , ξ
(1)tN−1
, ξ(2)t0 , . . . , ξ
(2)tN−1
, . . . , ξ(M)t0 , . . . , ξ
(M)tN−1
,
wobei alle N (0, h)-verteilt sind, und bilde damit W(k)tm (ω), k = 1, . . . ,M, m = 1, . . . , N
gemaß Gleichung (2.22). Dabei muss M hinreichend groß gewahlt werden, damit ε(h) ≈ε(h).
2.2.7 Fehler bei der Erwartungswertberechnung
Seien X1, X2, X3, . . . i. i. d. wie X mit E(X) = µ und V (X) = σ2 <∞. Setze
SM :=1
M
M∑
i=1
Xi
und finde
E(SM) =1
M
M∑
i=1
E(Xi) =1
M
M∑
i=1
E(X) = µ,
V (SM) =1
M2
M∑
i=1
V (Xi) =1
M2
M∑
i=1
V (X) =σ2
M.
Ferner ist nach dem zentralen Grenzwertsatz
SM :=SM − µ√
V (SM)
fur M hinreichend groß approximativ N (0, 1)-verteilt.
Herleitung eines Konfidenzintervalls:Sei α vorgegeben. Bestimme dazu r > 0 mit
P(∣∣∣SM
∣∣∣ ≤ r
)
= 1− α.
40
2.2 Konvergenztheorie fur das Euler-Maruyama-Verfahren
Da SM approximativ N (0, 1)-verteilt ist, folgt
1− α =
∫ r
−r
1√2π
exp(−x2/2
)dx
=2√2π
∫ r
0
exp(−x2/2
)dx
(∗)=
2√2π
∫ r/√2
0
exp(−w2
)√2dw
=2√π
∫ r/√2
0
exp(−w2
)dw
= erf
(r√2
)
.
Dabei wurde in (∗) die Substitution w := x√2, dw = dx√
2vorgenommen. Damit folgt fur r
√2 · erf−1(1− α) = r.
Wir erhalten also mit einer Wahrscheinlichkeit von 1− α
SM ∈ [−r, r] = r[−1, 1].
Mit
SM =SM − µ√
V (SM)=SM − µ
σ√M
=
√M (SM − µ)
σ
folgt
SM =σSM√M
+ µ
und damit
SM ∈ µ+σ√Mr[−1, 1] = µ+
σ√M
√2 · erf−1(1− α)[−1, 1]
mit einer Wahrscheinlichkeit von 1− α.
Fur α = 0.01 erhalten wir√2 erf−1(1− α) ≈ 2.6 und somit
SM ∈ µ+2.6σ√M
[−1, 1]
mit einer Wahrscheinlichkeit von 0.99.
Ferner lesen wir ab: Die Intervallbreite verhalt sich in M wie 1√M
und in der Varianz wie
σ =√
V (X). In unserem Fall gilt
ε(tn, h) =1
M
M∑
i=1
ηi(tn, h),
41
2.3 Weitere numerische Verfahren und schwache Konvergenz
wobei ε(tn, h) die Approximation des zeitlichen Fehlers ε(tn, h) = E(∣∣∣Xtn − Xtn
∣∣∣
)
zur
Zeit tn mit Schrittweite h ist. Dabei sind die ηi(tn, h) verteilt wie∣∣∣Xtn − Xtn
∣∣∣.
Aus der Konvergenzanalyse folgt (vgl. Beweis zu Korollar 2.4)
E
(∣∣∣Xtn − Xtn
∣∣∣
2)
≤ Ch
und somit
V(∣∣∣Xtn − Xtn
∣∣∣
)
= E
(∣∣∣Xtn − Xtn
∣∣∣
2)
︸ ︷︷ ︸
≤Ch
−E(∣∣∣Xtn − Xtn
∣∣∣
)2
︸ ︷︷ ︸
≥0
≤ Ch,
d. h.
σtn =
√
V(∣∣∣Xtn − Xtn
∣∣∣
)
≤ C√h.
Mit einer Wahrscheinlichkeit von 0.99 erhalten wir also
ε(tn, h)− ε(tn, h) ∈2.6σtn√M
[−1, 1] ⊂ C1
√h√M
[−1, 1].
Insgesamt folgt dann
|ε(tn, h)| ≤ |ε(tn, h)− ε(tn, h)|+ |ε(tn, h)|
≤ C1
√h√M
+ C2
√h =
√h
(C1√M
+ C2
)
≤ C3
√h unabhangig von M.
Man beachte dabei aber, dass der zentrale Grenzwertsatz greifen sollte, d. h. M hinrei-chend groß gewahlt ist.
2.3 Weitere numerische Verfahren und schwache
Konvergenz
2.3.1 Das Milstein-Verfahren
Betrachte die SDGL
dXt = a(Xt)dt+ b(Xt)dWt, 0 ≤ t ≤ T,
X0 = ξ.
Als Verbesserung des Euler-Maruyama-Verfahrens setzen wir fur N ∈ N, h = TN> 0, tn =
nh, n = 0, . . . , N folgendermaßen an:
Xtn+1 = Xtn + a(
Xtn
)
h+ b(
Xtn
)
∆Wtn +1
2b′(
Xtn
)
b(
Xtn
) (∆W 2
tn − h),
X0 = ξ.
42
2.3 Weitere numerische Verfahren und schwache Konvergenz
Dies ist das sogenannte”Milstein-Verfahren“.
Fur den L2-Fehler en+1 = E
(∣∣∣Xtn+1 − Xtn+1
∣∣∣
2)
erhalt man nun
en+1 ≤ 4E
∣∣∣∣∣
n∑
k=0
(
a (Xtk)− a(
Xtk
))
h
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
(
b (Xtk)− b(
Xtk
))
∆Wtn
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
(
b′(Xtk)b(Xtk)− b′(Xtk)b(Xtk)) 1
2
(∆W 2
tk− h)
∣∣∣∣∣
2
+ 4E
∣∣∣∣∣
n∑
k=0
Rest′tk
∣∣∣∣∣
2
=: 4 (I) + (II) + (III) + (IV ) ,wobei sich im Vergleich zum Euler-Maruyama-Verfahren nur der Term (III) geandert hat.Unter der Voraussetzung, dass die Funktion b′(x)b(x) global Lipschitz-stetig ist, erhaltman nun fur diesen Term eine Abschatzung wie fur die Terme (I) und (II), d. h.
(III) ≤ Chn∑
k=0
ek.
Insgesamt erhalt man damit aus (I)–(IV ) die Abschatzung
en+1 ≤ Chp + Chn∑
k=0
ek
mit p=2 und einer universellen Konstanten C > 0 (vgl. (2.21) fur das Euler-Maruyama-Verfahren).
Analog zum Euler-Maruyama-Verfahren folgt dann
E(∣∣∣Xtn − Xtn
∣∣∣
)
≤√
C exp(CT ) · h,
fur n ∈ N mit nh ≤ T , d. h. wir erhalten starke Konvergenz der Ordnung 1 unter geeig-neten Voraussetzungen.
2.8 Bemerkung
a) Ersetzt man den Term b′(Xt)b(Xt) durch eine Differenzenapproximation, so ergebensich Verfahren vom Runge-Kutta-Typ.
b) Die Ubertragung des Milstein-Verfahrens auf Systeme von SDGL ist nicht trivial,denn die Große
∫ tn+1
tn
∫ t
tn
dW (i)s dW
(j)t
lasst sich nicht analytisch berechnen, wenn W (i) und W (j) unabhangige BrownscheBewegungen sind.
43
2.3 Weitere numerische Verfahren und schwache Konvergenz
2.3.2 Schwache Konvergenz
Starke Konvergenz bezieht sich auf die maximal erwartete Trajektorienabweichung, wobeidas Fehlermaß durch
ε(h) = sup
E(∣∣∣Xtn − Xtn
∣∣∣
)
: 0 ≤ nh ≤ T
gegeben ist. Oft ist aber lediglich die Große E (g(Xt)) fur gewisse Funktionen g vonInteresse. Der relevante Fehler lautet dann
ωg(h) := sup∣∣∣E (g (Xtn))− E
(
g(
Xtn
))∣∣∣ : 0 ≤ nh ≤ T
.
Dies fuhrt zu folgender
2.9 Definition (Schwache Konvergenz)
Sei X = (Xt)0≤t≤T die Losung einer SDGL auf [0, T ] und sei X =(
Xtn
)
0≤nh≤T, h =
TN> 0 eine Approximation. Wir sagen X konvergiert schwach gegen X bezuglich einer
Klasse C von Testfunktionen, falls fur den Fehler
ωg(h) = sup∣∣∣E (g (Xtn))− E
(
g(
Xtn
))∣∣∣ : 0 ≤ nh ≤ T
gilt
∀g ∈ C : limh→0
ωg(h) = 0.
Die Konvergenz ist von der Ordnung γ > 0, falls zu jedem g ∈ C eine Konstante C > 0existiert mit
ωg(h) ≤ Chγ, 0 < h ≤ h0
fur ein h0 > 0.
2.10 BemerkungFur Lipschitz-stetige Funktionen g mit Konstante Lg gilt
ωg(h) = sup ∣∣∣E (g (Xtn))−E
(
g(
Xtn
))∣∣∣
︸ ︷︷ ︸
≤E(|g(Xtn)−g(Xtn)|)
: 0 ≤ nh ≤ T
≤ Lg sup
E(∣∣∣Xtn − Xtn
∣∣∣
)
: 0 ≤ nh ≤ T
= Lgε(h).
Dies bedeutet, dass die schwache Konvergenzordnung mindestens so groß ist wie die starkeKonvergenzordnung.
2.11 Beispiel
a) Gesucht sei E(Xt), d. h. E(g(Xt)) mit g(x) = x, und Xt genuge der SDGL
dXt = aXtdt+ bXtdWt,
X0 = ξ
44
2.3 Weitere numerische Verfahren und schwache Konvergenz
bzw.
Xt = X0︸︷︷︸
=ξ
+
∫ t
0
aXsds+
∫ t
0
bXsdWs.
Fur den Erwartungswert gilt somit
E(Xt) = E(ξ) + E
(∫ t
0
aXsds
)
+ E
(∫ t
0
bXsdWs
)
︸ ︷︷ ︸
=0
= E(ξ) +
∫ t
0
aE(Xs)ds
⇒ d
dtE(Xt) = aE(Xt), E(X0) = E(ξ),
d. h.
E(Xt) = E(ξ) exp(at).
Wenden wir das Euler-Maruyama-Verfahren an, so gilt
E(
Xtn+1
)
= E(
Xtn
)
+ aE(
Xtn
)
h, n = 0, 1, 2, . . . ,
E(
X0
)
= E(ξ).
Dies entspricht dem Euler-Verfahren fur gewohnliche DGL der Form
u = au,
u(0) = E(ξ).
Das Euler-Verfahren konvergiert mit Ordnung 1 gegen die Losung E(Xt) = E(ξ) ·exp(at), d. h.
ωid(h) = sup∣∣∣E (Xtn)−E
(
Xtn
)∣∣∣ : 0 ≤ nh ≤ T
≤ Ch.
In diesem Beispiel ist die schwache Konvergenzordnung 1 also besser als die starkeKonvergenzordnung 1
2.
b) Bestimmung der schwachen Konvergenzordnung bei rein numerischer Auswertung
von E(
Xtn
)
:
Bestimme durch M-fache Wiederholung des Euler-Maruyama-Algorithmus mit un-abhangigen Zuwachsen die Großen X
(1)tn , X
(2)tn , . . . , X
(M)tn . Dann gilt
∣∣∣∣∣E(
Xtn
)
− 1
M
M∑
i=1
X(i)tn
∣∣∣∣∣≤ C ·
σ(
Xtn
)
√M
= C ·
√
V(
Xtn
)
√M
mit hoher Wahrscheinlichkeit (vgl. Konfidenzintervallbestimmung). Somit folgt fur
45
2.3 Weitere numerische Verfahren und schwache Konvergenz
g = id
ωid(tn, h) =
∣∣∣∣∣E (Xtn)−
1
M
M∑
i=1
X(i)tn
∣∣∣∣∣
≤∣∣∣E (Xtn)−E
(
Xtn
)
︸ ︷︷ ︸
=ωid(tn,h)
∣∣∣+
∣∣∣∣∣E(
Xtn
)
− 1
M
M∑
i=1
X(i)tn
∣∣∣∣∣
≤ ωid(tn, h) + C ·
√
V(
Xtn
)
√M
= ωid(tn, h) +C√M.
Beachte dabei: V(
Xtn
)
verschwindet nicht fur h→ 0, denn
V(
Xtn
)
→ V (Xtn) fur h→ 0.
Mit ωid(tn, h) ≤ Ch folgt damit
ωid(tn, h) ≤ C
(
h +1√M
)
.
Konsequenz: M ∼ 1h2, damit ωid(tn, h) ≤ Ch. Ansonsten sehen wir bei zu klein
gewahltem M eine entsprechend niedrigere Ordnung fur ωid(tn, h).
Wie sieht es fur Funktionen g mit g(x) 6= x aus? Unter geeigneten Voraussetzungen lasstsich fur die Funktionenklasse
C4p (R) :=
f ∈ C4(R) : f besitzt polynomiales Wachstum
zeigen, dass das Euler-Maruyama-Verfahren schwach konvergent der Ordnung 1 bezuglichaller g ∈ C4
p (R) ist.
Weitere Konsequenzen:
Strebt man schwache Konvergenz an, so mussen Pfade von X keine gute Approximationder Pfade von X sein. Nur die Verteilung von X muss passen; dies bedeutet Folgendes:Sei
Ytn+1 = Ytn + a(
Ytn
)
h+ b(
Ytn
)√hξn, n = 0, 1, 2, . . . , N − 1,
Y0 = η(2.23)
mit ξ1, ξ2, . . . , ξN i. i. d. wie ξ mit E(ξ) = 0 und V (ξ) = 1 gegeben. Dies entspricht demEuler-Maruyama-Algorithmus fur
dXt = a(Xt)dt+ b(Xt)dWt,
X0 = η,
falls ξ1, ξ2, . . . , ξN i. i. d. wie ξ mit ξ ∼ N (0, 1). Dann gilt: Die”Approximation (2.23)“
besitzt die schwache Konvergenzordnung 1.
Mogliche Realisierung der ZV ξi in (2.23): ξ ∈ −1, 1 , P (ξ = 1) = P (ξ = −1) = 12und
46
2.3 Weitere numerische Verfahren und schwache Konvergenz
somit E(ξ) = 0 und V (ξ) = 1.
Anwendung bei Optionsbewertung:Betrachte eine europaische Option in einem einfachen Marktmodell. Der Preisprozess desBasiswertes S sei gegeben durch die SDGL
dSt = rStdt+ σStdWt, 0 ≤ t ≤ T,
S0 = ξ
und die Auszahlungsfunktionen zur Verfallszeit T seien
• Call: V (S) = V (T, S) = (S −K)+,
• Put: V (S) = V (T, S) = (K − S)+,
wobei K der Ausubungspreis ist. Der Optionswert zur Zeit t = 0 ist dann gegeben durchden Erwartungswert
V0 = E (exp(−rT )V (ST )) .
Er ist von der Form E (g(ST )) mit g(s) = exp(−rT )V (s). Beachte hier, dass g /∈ C4p(R),
d. h. das Konvergenzresultat fur Funktionen der Klasse C = C4p (R) ist nicht anwendbar.
Ob ein schwaches Konvergenzresultat trotzdem gultig ist, kann numerisch getestet werden.Die Optionsbewertung ist ein gutes Beispiel hierfur, da wegen der Black-Scholes-Formelndie exakten Erwartungswerte bekannt sind.
2.12 Bemerkung (Black-Scholes-Optionsbewertung)Call:
V0 = ξΦ(d1)−K exp(−rT )Φ(d2)mit
d1 =1
σ√T
(
ln
(ξ
K
)
+
(
r +1
2σ2
)
T
)
,
d2 = d1 − σ√T
und Φ ist die Verteilungsfunktion der Standardnormalverteilung.Put:
V0 = K exp(−rT )Φ(−d2)− ξΦ(−d1).Hierbei ist T die Verfallszeit und ξ der Anfangswert der SDGL.
Allgemeinere Situation:Sei der Preisprozess modelliert durch die SDGL
dSt = rtStdt+ σtStdWt,
S0 = ξ.(2.24)
Der Optionswert zur Zeit t = 0 ist dann gegeben durch
V0 = E
(
exp
(
−∫ T
0
rsds
)
V (ST )
)
mit der Abzinsung exp(
−∫ T
0rsds
)
und der Auszahlung V (ST ).
47
2.3 Weitere numerische Verfahren und schwache Konvergenz
Berechnungsalgorithmus:
(i) Simuliere M unabhangige Realisierungen V (i) der Auszahlung V : ω 7→ V (ST (ω))
und e(i) der Abzinsung ω 7→ exp(
−∫ T
0rs(ω)ds
)
.
(ii) Wahle die Große 1M
∑Mi=1 e
(i)V (i) als Approximation von V0.
Zu (i):
Simuliere zunachst einen approximativen Pfad S(i) durch Losen der SDGL (2.24) mit demEuler-Maruyama-Verfahren. Berechne dann V (i) aus S(i).
Fur die Auszahlungsfunktion
V (ST ) =
(
ST − 1
T
∫ T
0
Stdt
)+
einer Asiatischen Option muss
1
T
∫ T
0
Stdt
entsprechend approximiert werden, z. B.
1
T
∫ T
0
Stdt ≈1
T
N−1∑
k=0
S(i)tk
· h, h =T
N.
2.13 BemerkungDer Fehler bei der Erwartungswertberechnung ist proportional zu 1√
Mund zur Standard-
abweichung (d. h.√Varianz) der relevanten ZV (vgl. Konfidenzintervallbestimmung). Er
kann also verkleinert werden, in demM entsprechend groß gewahlt wird oder man versuchtmit geeigneten Verfahren die Varianz der relevanten ZV zu reduzieren.
48
3 Parabolische partielleDifferentialgleichungen undOptionspreisbewertung
3.1 Die Fokker-Planck-Gleichung
3.1.1 Einfuhrung
Betrachte die skalare SDGL
dXt = a(t, Xt)dt+ b(t, Xt)dWt, 0 ≤ t ≤ T,
X0 = ξ, ξ ∈ R.
Angenommen, ψ(t, x) sei die Dichte der Verteilung von Xt. Dann gilt
E (g(Xt)) =
∫
R
g(x)ψ(t, x)dx.
Um ψ zu bestimmen, verwenden wir beliebige, glatte Testfunktionen
f : R× R → R.
Die Ito-Formel liefert dann
df(t, Xt) =
(∂f
∂tdt +
∂f
∂xdXt +
1
2
∂2f
∂x2b2dt
)
(t, Xt)
=
(∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2
)
(t, Xt)dt+
(
b∂f
∂x
)
(t, Xt)dWt.
Weiter gilt∫
R
f(t, x)ψ(t, x)dx = E (f(t, Xt)) = E
(
f(0, X0) +
∫ t
0
df(τ,Xτ)
)
= E (f(0, X0))︸ ︷︷ ︸
=∫
Rf(0,x)ψ(0,x)dx
+E
(∫ t
0
(∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2
)
(τ,Xτ )dτ
)
+ E
(∫ t
0
(
b∂f
∂x
)
(τ,Xτ )dWτ
)
︸ ︷︷ ︸
(∗)=0
.
Dabei gilt (∗) aufgrund der Erwartungswerteigenschaft des stochastischen Integrals. Esfolgt also∫
R
f(t, x)ψ(t, x)dx =
∫
R
f(0, x)ψ(0, x)dx
+
∫
R
∫ t
0
(∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2
)
(τ, x) · ψ(τ, x)dτdx (3.1)
49
3.1 Die Fokker-Planck-Gleichung
fur beliebige, glatte Funktionen f .
Die Dichte ψ ist somit schwache Losung einer partiellen DGL (PDGL)!
3.1.2 Die 1-dimensionale Fokker-Planck-Gleichung
Sei ψ hinreichend glatt und die Testfunktionen f besitzen einen kompakten Trager. Dannlasst sich die schwache Formulierung der PDGL in eine starke umschreiben. Es gilt
∫
R
∫ t
0
(∂f
∂t· ψ)
(τ, x)dτdx =
∫
R
[(f · ψ)(τ, x)]τ=tτ=0 dx −∫
R
∫ t
0
(
f · ∂ψ∂t
)
(τ, x)dτdx.
Analog gilt
∫ t
0
∫
R
(
a · ∂f∂x
· ψ)
(τ, x)dxdτ = −∫ t
0
∫
R
(
f · ∂∂x
(a · ψ))
(τ, x)dxdτ,
∫ t
0
∫
R
(
ψ · 12b2∂2f
∂2x2
)
(τ, x)dxdτ =
∫ t
0
∫
R
(
f · 12
∂2
∂x2(b2 · ψ
))
(τ, x)dxdτ
fur alle glatten Testfunktionen f mit kompaktem Trager. Insgesamt erhalten wir aus (3.1)
0 =
∫ t
0
∫
R
(
−∂ψ∂t
− ∂
∂x(aψ) +
1
2
∂2
∂x2(b2ψ))
(τ, x)f(τ, x)dxdτ
fur alle Testfunktionen f . Das Variationslemma impliziert dann
∂ψ
∂t(t, x) +
∂
∂x(aψ) (t, x) =
1
2
∂2
∂x2(b2ψ)(t, x), 0 ≤ t ≤ T, x ∈ R.
Dies ist die”1-dimensionale Fokker-Planck-Gleichung“.
3.1 BemerkungDie Fokker-Planck-Gleichung beschreibt also die zeitliche Entwicklung der Dichtefunktioneines Ito-Prozesses, welcher der SDGL dXt = a(t, Xt)dt+ b(t, Xt)dWt genugt.
Alternative zur Berechnung von E(g(Xt)):
• Lose die Fokker-Planck-Gleichung
∂ψ
∂t+
∂
∂x(aψ) =
1
2
∂2
∂x2(b2ψ),
ψ|t=0 = Dichte des Startwertes der SDGL = ξ, ξ ∈ R.
• Berechne das Integral
∫
R
g(x)ψ(t, x)dx.
50
3.1 Die Fokker-Planck-Gleichung
3.1.3 Weiteres zu stochastischen Prozessen und PDGL
Im Folgenden soll es um weitere Zusammenhange zwischen stochastischen Prozessen undPDGL gehen.
Sei X t,ξs die Losung der SDGL
dXs = a(s,Xs)ds+ b(s,Xs)dWs, 0 ≤ s ≤ T
mit der Anfangsbedingung
Xt = ξ, 0 ≤ t ≤ s ≤ T,
wobei ξ ∈ R eine konstante ZV ist. Setze
Xs := X0,ξs , 0 ≤ s ≤ T.
Dann liefert die Ito-Formel
f(
s, X t,ξs
)
= f(
t, X t,ξt
︸︷︷︸
=ξ
)
+
∫ s
t
(∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2
)
(τ, X t,ξτ )dτ
+
∫ s
t
(
b∂f
∂x
)
(τ, X t,ξτ )dWτ ,
d. h. wie oben folgt
E(
f(
s, X t,ξs
))
= E (f(t, ξ))︸ ︷︷ ︸
=f(t,ξ)
+E
(∫ s
t
(∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2
)
(τ, X t,ξτ )dτ
)
,
und man kann Folgendes einsehen:
Ist f eine Losung des Endwertproblems
∂f
∂t+ a
∂f
∂x+
1
2b2∂2f
∂x2= 0,
f(T, x) = g(x),(3.2)
so folgt mit s = T
E(
f(
T, X t,ξT
)
︸ ︷︷ ︸
=g(Xt,ξT )
)
= f(t, ξ) + 0 = f(t, ξ),
d. h.
E(
g(
X t,ξT
))
= f(t, ξ).
3.2 BemerkungDies ist ein Spezialfall der sogenannten Feynman-Kac-Formel. Das Losen einer bestimm-ten Klasse von PDGL kann also auf das Losen von SDGL zuruckgefuhrt werden undumgekehrt.
Dies liefert eine weitere Losungsmethode zu Bestimmung von E (g(XT )):
• Lose das Endwertproblem (3.2) ruckwarts in der Zeit.
• Bestimme f(0, ξ) = E(
g(
X0,ξT
))
= E (g(XT )).
51
3.1 Die Fokker-Planck-Gleichung
3.1.4 Verallgemeinerung auf vektorwertige Prozesse
Betrachte das System von SDGL
dXt = a(t, Xt)︸ ︷︷ ︸
∈Rd
dt+ b(t, Xt)︸ ︷︷ ︸
∈Rd×m
dWt, 0 ≤ t ≤ T,
X0 = ξ.
Dabei ist Wt =(
W(1)t , . . . ,W
(m)t
)
∈ Rm eine m-dimensionale Brownsche Bewegung.
Die Dichte von Xt =(X1t , . . . , X
dt
), 0 ≤ t ≤ T sei durch
ψ(t, x) ∈ R, x ∈ Rd
gegeben, d. h. fur den Erwartungswert gilt
E (g (Xt)) =
∫
Rd
g(x)ψ(t, x)dx.
Mit den im 1-dimensionalen Fall eingefuhrten Techniken erhalt man, dass ψ die d-dimen-sionale Fokker-Planck-Gleichung
∂ψ
∂t(t, x) +
d∑
i=1
∂
∂xi(aiψ) (t, x) =
1
2
d∑
i,k=1
∂2
∂xi∂xk(dikψ) (t, x)
erfullt. Dabei ist dik :=∑m
j=1 bijbkj =(bbT)
ik.
3.1.5 Beispiel: Optionsbewertung eines
Capped-Symmetric-Power-Calls
Die Auszahlungsfunktion eines Calls ist in diesem Fall gegeben durch
C(S) = min(
(S −K)+)p, L, L, p > 0,
wobei S der Kurs des Basiswertes, K der Ausubungspreis und T die Verfallszeit sind.
Fur σ, r > 0 genuge nun St,sη dem Preisprozess
dSη = rSηdη + σSηdWη, 0 ≤ η ≤ T,
St = s ∈ R (konstante ZV), t ∈ [0, T ].
Der Wert der Option zur Zeit t zu einem Wert des Basiswertes S ist gegeben durch
V (S, t) = E(exp(−r(T − t)) · C
(St,sT)).
Ist also f(t, s) eine Losung des Endwertproblems
∂f
∂t+ rs
∂f
∂s+
1
2σ2s2
∂2f
∂s2= 0,
f(T, s) = C(s),(3.3)
52
3.1 Die Fokker-Planck-Gleichung
so gilt
f(t, s) = E(C(St,sT)),
d. h.
V (s, t) = exp (−r (T − t)) · f(t, s).”Optionspreisbewertung mit PDGL“
Umformulierung von (3.3) als Gleichung fur den Optionswert V: Mit
∂V
∂t= r exp (−r (T − t)) f + exp (−r (T − t))
∂f
∂t
=
(
rf +∂f
∂t
)
exp (−r (T − t)) ⇐⇒
∂V
∂t− rV =
∂f
∂texp (−r (T − t))
und
∂jV
∂Sj= exp (−r (T − t))
∂jf
∂Sj, j = 1, 2
folgt die”Black-Scholes-Gleichung“
∂V
∂t+ rS
∂V
∂S+
1
2σ2S2∂
2V
∂S2− rV = 0, (3.4)
mit der Endbedingung
V (S, T ) = exp (−r (T − T )) f(T, S) = f(T, S) = C(S).
Als geeignete Randwerte findet man
V (0, t) = 0 fur 0 < t < T (Call wertlos, wenn S = 0), (3.5)
V (S, t) → L fur S → ∞, 0 < t < T (”capped“). (3.6)
Statt L kann man in (3.6) auch den diskontierten Wert L exp(−r(t− T )) vorschreiben.Folgendes lasst sich zeigen:V erfullt die Black-Scholes-Gleichung (3.4), falls u = u(x, τ) die Diffusionsgleichung(Warmeleitungsgleichung)
∂u
∂τ=∂2u
∂x2
lost und
V (S, t) = K exp
(1− q
2x− (1 + q)2
4τ
)
u(x, τ) (3.7)
mit x = ln(S/K), τ = σ2(T−t2
), q = 2r
σ2.
Der Endwert fur V ubersetzt sich in einen Anfangswert fur u, d. h. mit t = T folgt
C(S) = V (S, T ) = K exp
(1− q
2x
)
u(x, 0)︸ ︷︷ ︸
=u0(x)
53
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
und somit
u0(x) = u(x, 0) =1
KC (K exp(x)) exp
(q − 1
2x
)
.
Fur die Randbedingungen ergeben sich (vgl. (3.5), (3.6) und (3.7))
limx→−∞
u(x, τ) = 0,
limx→∞
u(x, τ) = limx→∞
V(K exp(x), T − 2τ
σ2
)
K exp(
1−q2x− (1+q)2
4τ)
= limx→∞
V(K exp(x), T − 2τ
σ2
)
L︸ ︷︷ ︸
=1
· limx→∞
L
Kexp
(q − 1
2x+
(1 + q)2
4τ
)
= limx→∞
g(x, τ),
mit g(x, τ) := LKexp
(q−12x+ (1+q)2
4τ)
.
3.2 Finite-Differenzen-Verfahren fur die
Warmeleitungsgleichung
3.2.1 Einfuhrung
Vorgelegt sei die PDGL
∂u
∂τ=∂2u
∂x2, (x, τ) ∈ Ω =]−∞,∞[×[0, τmax], (3.8)
mit τmax = σ2
2T . Numerisch ist das Gebiet abzuschneiden, d. h. betrachte die Gleichung
(3.8) fur (x, τ) ∈ Ω =] − a, a[×[0, τmax], wobei a > 0 hinreichend groß. Erganze dieseAufgabe durch
u(x, 0) = u0(x) =1
KC (K exp(x)) exp
(q − 1
2x
)
, −a ≤ x ≤ a (3.9)
und die abgeschnittenen Randbedingungen
u(−a, τ) = 0,
u(a, τ) = g(a, τ)(3.10)
fur 0 ≤ τ ≤ σ2
2T .
3.2.2 Das Prinzip der Linienmethode
Diskretisiere zuerst die Raumvariable und danach die Zeitvariable.
Sei M ∈ N und sei ∆x := aM
sowie xi := i∆x = iaM
fur i = −M,−M + 1, . . . ,M . Fur
54
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
τ ∈[
0, σ2
2T]
und xi = i∆x, i ∈ −M + 1, . . . ,M − 1 fest, ersetzen (in Zeichen”∼“) wir
die partielle Ableitung nach x mit der zentralen Differenz, d. h.
∂2
∂x2u(xi, τ) ∼
∂∂xu(xi +
∆x2, τ)− ∂
∂xu(xi − ∆x
2, τ)
∆x
∼u(xi+∆x,τ)−u(xi,τ)
∆x− u(xi,τ)−u(xi−∆x,τ)
∆x
∆x
=1
∆x2(u(xi+1, τ)− 2u(xi, τ) + u(xi−1, τ)) .
Dabei ersetzen wir im Fall i = −M + 1 die Große u(−xM , τ) gemaß
u(−xM , τ) = u(−a, τ) = 0
und im Fall i =M − 1 die Große u(xM , τ) durch
u(xM , τ) = u(a, τ) = g(a, τ)
gemaß den Randbedingungen (3.10).
Sei nun
v(τ) : = (u(x−M+1, τ), u(x−M+2, τ), . . . , u(xM−1, τ))
= (v1(τ), v2(τ), . . . , v2M−1(τ)) ∈ R2M−1.
Ersetze also den Ausdruck
∂2
∂x2u(x, τ), u(−a, τ) = 0, u(a, τ) = g(a, τ)
durch
− 1
∆x2
2 −1 0 . . . 0 0 0−1 2 −1 . . . 0 0 00 −1 2 . . . 0 0 0...
......
. . ....
......
0 0 0 . . . 2 −1 00 0 0 . . . −1 2 −10 0 0 . . . 0 −1 2
v1(τ)v2(τ)v3(τ)...
v2M−3(τ)v2M−2(τ)v2M−1(τ)
+1
∆x2
000...00
g(a, τ)
.
Mit
v′(τ) =
(∂u
∂τ(x−M+1, τ),
∂u
∂τ(x−M+2, τ), . . . ,
∂u
∂τ(xM−1, τ)
)
und
∂u
∂τ=∂2u
∂x2
folgt damit das System gewohnlicher DGL
v′(τ) = −A∆xv(τ) + r∆x(τ) =: F∆x (v(τ), τ) , 0 ≤ τ ≤ σ2
2T, (3.11)
55
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
mit der symmetrischen Tridiagonalmatrix
A∆x :=1
∆x2
2 −1 0 . . . 0 0 0−1 2 −1 . . . 0 0 00 −1 2 . . . 0 0 0...
......
. . ....
......
0 0 0 . . . 2 −1 00 0 0 . . . −1 2 −10 0 0 . . . 0 −1 2
∈ R(2M−1)×(2M−1) (3.12)
und
r∆x(τ) :=1
∆x2(0, . . . , 0, g(a, τ)). (3.13)
Als Anfangsbedingung erhalten wir
v(0) = (u(x−M+1, 0), u(x−M+2, 0), . . . , u(xM−1, 0))
= (u0(x−M+1), u0(x−M+2), . . . , u0(xM−1)) = v0. (3.14)
3.2.3 Das Euler-Cauchy-Verfahren
Das Anfangswertproblem (3.11)-(3.14) heißt Liniensystem zur PDGL (3.8)-(3.10). DerUbergang von (3.8)-(3.10) zu (3.11)-(3.14) wird als Semidiskretisierung bezeichnet. Zueiner vollstandigen Diskretisierung von (3.8)-(3.10) kommen wir, wenn wir auf die An-fangswertaufgabe (3.11)-(3.14) eines der bekannten numerischen Verfahren zur Losungvon Anfangswertaufgaben anwenden. Bei der Durchfuhrung dieser Verfahren sollte mansich jedoch die spezielle Gestalt von F∆x zunutze machen, denn das System (3.11)-(3.14)wird fur ∆x → 0 immer großer. Das einfachste Verfahren fur (3.11)-(3.14) ist das Euler-Cauchy-Verfahren:
Seien ∆τ := σ2T2N
> 0, v0 vorgegeben und vj approximiere v (j∆τ) fur j = 0, 1, . . . , N .Dann finden wir
vj+1 − vj
∆τ= F∆x
(vj, j∆τ
)= −A∆xv
j + r∆x(j∆τ), j = 0, 1, . . . , N − 1,
v0 = (u0(x−M+1), u0(x−M+2), . . . , u0(xM−1)) ∈ R2M−1.
Explizit folgt mit
vj =(uj−M+1, u
j−M+2, . . . , u
jM−1
), uji ∼ u(i∆x, j∆τ)
die Iteration
uj+1−M+1...
uj+1i...
uj+1M−1
=
uj−M+1...
uji...
ujM−1
+∆τ
1
∆x2
−2uj−M+1 + uj−M+2...
uji−1 − 2uji + uji+1...
ujM−2 − 2ujM−1
+1
∆x2
00...0
g(a, j∆τ)
, j = 0, 1, . . . , N − 1, (3.15)
56
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
mit der Anfangsbedingung
u0−M+1...u0i...
u0M−1
=
u0(x−M+1)...
u0(xi)...
u0(xM−1)
. (3.16)
Das System (3.15) und (3.16) heißt auch explizites Differenzenverfahren zur Aufgabe(3.8)-(3.10). Man erhalt uj+1
i aus uji−1, uji und uji+1, was man durch das Schema des
”Differenzensterns“ andeutet, vgl. Abbildung 3.1.
(i− 1, j)
(i, j)
(i+ 1, j)
(i, j + 1)
Abbildung 3.1: Differenzenstern fur das Euler-Cauchy-Verfahren.
3.2.4 Das ϑ-Verfahren
Wir betrachten als nachstes fur das Liniensystem (3.11)-(3.14) das von einem Parameterϑ ∈ [0, 1] abhangige Verfahren, das sogenannte ϑ-Verfahren:
vj+1 − vj
∆τ= ϑF∆x
(vj+1, (j + 1)∆τ
)+ (1− ϑ)F∆x
(vj, j∆τ
), j = 0, 1, . . . , N − 1,
(3.17)
v0 = (u0(x−M+1), u0(x−M+2), . . . , u0(xM−1)) .
Spezialfalle des ϑ-Verfahrens fur das Liniensystem:
• ϑ = 0: Euler-Cauchy-Verfahren (ECV)
• ϑ = 12: Trapez-Methode oder das sogenannte
”Crank-Nicolson-Verfahren“ (CNV)
• ϑ = 1: Implizites Euler-Cauchy-Verfahren (IECV)
Fur ϑ > 0 erfordert (3.17) wegen F∆x(v, τ) = −A∆xv+r∆x(τ) die Auflosung eines linearen
Gleichungssystems und das Verfahren heißt daher implizit. Die Abbildung 3.2 stellt diezugehorigen Differenzensterne dar.
3.2.5 Auflosung der Gleichungsysteme auf jedem Zeitlevel τj
Mit F∆x(v, τ) = −A∆xv + r∆x(τ) schreibt sich (3.17) um zu
vj+1 − vj
∆τ= ϑ
(−A∆xv
j+1 + r∆x((j + 1)∆τ))+ (1− ϑ)
(−A∆xv
j + r∆x(j∆τ)),
j = 0, 1, . . . , N − 1,
57
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
(i− 1, j)
(i, j)
(i + 1, j)
(i, j + 1)
(i− 1, j)
(i, j)
(i+ 1, j)
(i, j + 1)
(i− 1, j + 1)
(i + 1, j + 1)
(i− 1, j + 1)
(i, j)
(i+ 1, j + 1)
(i, j + 1)
ϑ = 0 0 < ϑ < 1 ϑ = 1
Abbildung 3.2: Differenzensterne fur ϑ ∈ [0, 1].
bzw. aquivalent dazu
(1
∆τI + ϑA∆x
)
vj+1 =
(1
∆τI − (1− ϑ)A∆x
)
vj+ϑr∆x((j + 1)∆τ) + (1− ϑ)r∆x(j∆τ),
j = 0, 1, . . . , N − 1. (3.18)
In jedem Schritt ist also fur ϑ > 0 ein tridiagonales Gleichungssystem mit der Matrix
C∆x,∆τ :=
(1
∆τI + ϑA∆x
)
=
1∆τ
+ 2ϑ∆x2
−ϑ∆x2
0 . . . 0 0 0−ϑ∆x2
1∆τ
+ 2ϑ∆x2
−ϑ∆x2
. . . 0 0 00 −ϑ
∆x21∆τ
+ 2ϑ∆x2
. . . 0 0 0...
......
. . ....
......
0 0 0 . . . 1∆τ
+ 2ϑ∆x2
−ϑ∆x2
00 0 0 . . . −ϑ
∆x21∆τ
+ 2ϑ∆x2
−ϑ∆x2
0 0 0 . . . 0 −ϑ∆x2
1∆τ
+ 2ϑ∆x2
(3.19)
zu losen, wobei C∆x,∆τ ∈ R(2M−1)×(2M−1).
3.3 DefinitionEine Matrix D ∈ R
m×m heißt strikt diagonal-dominant, falls
|dii| >m∑
j=1j 6=i
|dij| , i = 1, . . . , m.
3.4 LemmaSei D ∈ R
m×m strikt diagonal-dominant. Dann ist D invertierbar.
Beweis. Annahme: D sei nicht invertierbar. Dann existiert ein x ∈ Rm\ 0 mit Dx = 0.
Ohne Einschrankung sei
xr = max |xi| : i = 1, . . . , m = 1
58
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
fur ein r ∈ 1, . . . , m. Aus
0 = (Dx)r ⇐⇒ drrxr = −m∑
j=1j 6=r
drjxj
folgt mit |xr| = 1 sofort
|drr| = |drr| |xr| ≤m∑
j=1j 6=r
|drj| |xj |︸︷︷︸
≤1
≤m∑
j=1j 6=r
|drj| ,
Widerspruch.
Die Matrix C∆x,∆τ aus (3.19) ist diagonal-dominant, d. h. nach Lemma 3.4 ist C∆x,∆τ
invertierbar und das ϑ-Verfahren (3.18) ist somit durchfuhrbar.
3.2.6 Praktische Losung des Gleichungssystems
Auf jedem Zeitlevel j∆τ, j = 0, . . . , N − 1 kann das Losen des Gleichungssystems z. B.mit dem LU-Verfahren fur Tridiagonalmatrizen erfolgen. Dazu machen wir folgende Be-obachtung:
1 0 0 . . . 0 0 0l1 1 0 . . . 0 0 00 l2 1 . . . 0 0 0...
......
. . ....
......
0 0 0 . . . 1 0 00 0 0 . . . lm−2 1 00 0 0 . . . 0 lm−1 1
·
d1 r1 0 . . . 0 0 00 d2 r2 . . . 0 0 00 0 d3 . . . 0 0 0...
......
. . ....
......
0 0 0 . . . dm−2 rm−2 00 0 0 . . . 0 dm−1 rm−1
0 0 0 . . . 0 0 dm
=
d1 r1 0 . . . 0 0 0d1l1 r1l1 + d2 r2 . . . 0 0 00 d2l2 r2l2 + d3 . . . 0 0 0...
......
. . ....
......
0 0 0 . . . rm−3lm−3 + dm−2 rm−2 00 0 0 . . . dm−2lm−2 rm−2lm−2 + dm−1 rm−1
0 0 0 . . . 0 dm−1lm−1 rm−1lm−1 + dm
=: (cij)1≤i,j≤m = C.
Koeffizientenvergleich liefert
d1 = c11, rk = ck,k+1, k = 1, . . . , m− 1
und
lk−1 =ck,k−1
dk−1, dk = ckk − rk−1lk−1, k = 2, . . . , m.
59
3.2 Finite-Differenzen-Verfahren fur die Warmeleitungsgleichung
3.5 Bemerkung
a) Es lasst sich zeigen, dass der LU-Tridiagonalalgorithmus fur strikt diagonal-dominanteMatrizen immer durchfuhrbar ist.
b) In Matlab erhalt man die LU-Zerlegung einer Matrix C mit [L,U]=lu(C).
c) Das Gleichungssystem Cx = b kann dann als LUx = b geschrieben werden und inzwei Schritten aufgelost werden:
(i)”Vorwarts auflosen“:Ly = b, d. h. y1 = b1 und yi = bi − li−1yi−1, i = 2, . . . , m.
(ii)”Ruckwarts auflosen“:Ux = y, d. h. xm = ym
dmund xi =
yi−rixi+1
di, i = m− 1, . . . , 1.
d) In Matlab lautet dies y=L\b und x=U\y. Man beachte dabei, dass man Gleichungs-systeme lediglich lost, aber niemals eine Matrix invertiert.
60