Kapitel 5
Wahrscheinlichkeit
Kapitel 5
Wahrscheinlichkeit
Kapitel 5 © Beutelspacher
Dezember 2004Seite 2
InhaltInhalt
5.1 Grundbegriffe
, X, ...
5.2 Wahrscheinlichkeitsräume
(, P)
5.3 Das Laplace-Modell
P(A) = A/
5.4 Erwartungswert
E(X)
Literatur: N. Henze: Stochastik für Einsteiger (die erste Hälfte).
A. Engel: Wahrscheinlichkeitsrechnung und Statistik
5.1 Grundbegriffe
, X, ...
5.2 Wahrscheinlichkeitsräume
(, P)
5.3 Das Laplace-Modell
P(A) = A/
5.4 Erwartungswert
E(X)
Literatur: N. Henze: Stochastik für Einsteiger (die erste Hälfte).
A. Engel: Wahrscheinlichkeitsrechnung und Statistik
Kapitel 5 © Beutelspacher
Dezember 2004Seite 3
5.1 Zufallsexperimente5.1 Zufallsexperimente
Beispiele: Münzwurf, Würfeln, ...
Wir sprechen von einem (idealen) Zufallsexperiment, wenn die
folgenden Bedingungen erfüllt sind:
• Versuchsbedingungen klar definiert. Zum Beispiel: Auswahl des
Würfels, ...)
• Menge der Ergebnisse (Ausgänge): vor der Durchführung
bekannt. Zum Beispiel: = {1, 2, 3, 4, 5, 6}.
• Das Experiment kann beliebig oft unter den gleichen Bedingungen
wiederholt werden.
Beispiele: Münzwurf, Würfeln, ...
Wir sprechen von einem (idealen) Zufallsexperiment, wenn die
folgenden Bedingungen erfüllt sind:
• Versuchsbedingungen klar definiert. Zum Beispiel: Auswahl des
Würfels, ...)
• Menge der Ergebnisse (Ausgänge): vor der Durchführung
bekannt. Zum Beispiel: = {1, 2, 3, 4, 5, 6}.
• Das Experiment kann beliebig oft unter den gleichen Bedingungen
wiederholt werden.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 4
Beispiele für ZufallsexperimenteBeispiele für Zufallsexperimente
• Münzwurf
= {Kopf, Zahl} oder = {K, Z} oder = {0, 1}.
• Anzahl der Würfe bis zur ersten Sechs
= {1, 2, 3, 4, ...}
• In einer Box liegen vier mit 1, 2, 3, 4 beschriftete Kugeln; zwei
Kugeln werden mit einem Griff gezogen.
= { {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {3,4} }.
• Zweimaliges Werfen mit einem Würfel.
= { (1,1), (1,2), (1,3), ..., (2,1), (2,2), ..., (3,1), ..., (6,6)}.
• Lotto 6-aus-49
= alle 6-elementige Teilmengen von {1, 2, 3, ..., 49}.
• Münzwurf
= {Kopf, Zahl} oder = {K, Z} oder = {0, 1}.
• Anzahl der Würfe bis zur ersten Sechs
= {1, 2, 3, 4, ...}
• In einer Box liegen vier mit 1, 2, 3, 4 beschriftete Kugeln; zwei
Kugeln werden mit einem Griff gezogen.
= { {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {3,4} }.
• Zweimaliges Werfen mit einem Würfel.
= { (1,1), (1,2), (1,3), ..., (2,1), (2,2), ..., (3,1), ..., (6,6)}.
• Lotto 6-aus-49
= alle 6-elementige Teilmengen von {1, 2, 3, ..., 49}.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 5
NotationNotation
= {1, 3, 3, ...} („omega“) heißt Ergebnismenge
(manchmal auch Grundraum).
Wenn man das Experiment n mal durchführt, hat man als
Ergebnismenge die Menge
bzw. wenn die i-te i Ergebnismenge vom Index i abhängt:
123n
= {1, 3, 3, ...} („omega“) heißt Ergebnismenge
(manchmal auch Grundraum).
Wenn man das Experiment n mal durchführt, hat man als
Ergebnismenge die Menge
bzw. wenn die i-te i Ergebnismenge vom Index i abhängt:
123n
Kapitel 5 © Beutelspacher
Dezember 2004Seite 6
EreignisseEreignisse
In vielen Situationen interessieren nicht alle Ausgänge,
sondern nur spezielle.
Beispiele:
• Beim Würfeln interessiert nur, ob man eine 6 würfelt.
• Beim Würfeln mit zwei Würfeln kann eventuell nur interessieren,
ob die Summe der Augenzahlen mindestens 8 ist.
• Beim dreimaligen Werfen einer Münze interessiert nur,
ob zwei aufeinanderfolgende Würfe das gleiche Ergebnis haben.
In vielen Situationen interessieren nicht alle Ausgänge,
sondern nur spezielle.
Beispiele:
• Beim Würfeln interessiert nur, ob man eine 6 würfelt.
• Beim Würfeln mit zwei Würfeln kann eventuell nur interessieren,
ob die Summe der Augenzahlen mindestens 8 ist.
• Beim dreimaligen Werfen einer Münze interessiert nur,
ob zwei aufeinanderfolgende Würfe das gleiche Ergebnis haben.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 7
Definition: EreignisDefinition: Ereignis
Definition: Ein Ereignis ist eine Teilmenge von .
D.h. in dieser Teilmenge werden die interessierenden Ausgänge
zusammengefasst.
Ereignisse werden üblicherweise mit großen lateinischen
Buchstaben A, B, ... Bezeichnet.
{} = : unmögliches Ereignis
{}: Elementarereignis (
Definition: Ein Ereignis ist eine Teilmenge von .
D.h. in dieser Teilmenge werden die interessierenden Ausgänge
zusammengefasst.
Ereignisse werden üblicherweise mit großen lateinischen
Buchstaben A, B, ... Bezeichnet.
{} = : unmögliches Ereignis
{}: Elementarereignis (
Kapitel 5 © Beutelspacher
Dezember 2004Seite 8
Rechnen mit EreignissenRechnen mit Ereignissen
Da Ereignisse Teilmengen von sind, kann man
den Durchschnitt A B, die Vereinigung A B, die Differenz A \ B
der Ereignisse A und B bilden.
A := \ A: Gegenereignis, Komplement von A
Ereignisse A, B unvereinbar, falls A B = {}. Ereignisse A1, A2, A3, ..., An unvereinbar,
falls je zwei der Mengen disjunkt sind.
Schreibweise: Ai = A1 + A2 + ... + An := A1 A2 ... An
für unvereinbare Ereignisse Ai.
Da Ereignisse Teilmengen von sind, kann man
den Durchschnitt A B, die Vereinigung A B, die Differenz A \ B
der Ereignisse A und B bilden.
A := \ A: Gegenereignis, Komplement von A
Ereignisse A, B unvereinbar, falls A B = {}. Ereignisse A1, A2, A3, ..., An unvereinbar,
falls je zwei der Mengen disjunkt sind.
Schreibweise: Ai = A1 + A2 + ... + An := A1 A2 ... An
für unvereinbare Ereignisse Ai.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 9
BeispielBeispiel
Zweimaliges Würfeln mit einem Würfel
Ereignis A: Der erste Wurf ist eine 5.
A = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}.
Ereignis B: Die Augenzahl aus beiden Würfen ist mindestens 9.
B = {(3,6), (4,5), (4,6), (5,4), (5,5), (5,6), (6,3), (6,4), (6,5), (6,6)}.
A B = {(5,4), (5,5), (5,6)}.
A \ B = {(5,1), (5,2), (5,3)}.
B \ A = {(3,6), (4,5), (4,6), (6,3), (6,4), (6,5), (6,6)}L
Zweimaliges Würfeln mit einem Würfel
Ereignis A: Der erste Wurf ist eine 5.
A = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}.
Ereignis B: Die Augenzahl aus beiden Würfen ist mindestens 9.
B = {(3,6), (4,5), (4,6), (5,4), (5,5), (5,6), (6,3), (6,4), (6,5), (6,6)}.
A B = {(5,4), (5,5), (5,6)}.
A \ B = {(5,1), (5,2), (5,3)}.
B \ A = {(3,6), (4,5), (4,6), (6,3), (6,4), (6,5), (6,6)}L
Kapitel 5 © Beutelspacher
Dezember 2004Seite 10
ErinnerungErinnerung
Seien A, B, C Ereignisse. Dann gelten die folgenden Gesetze:
A B = B A, A B = B A Kommutativgesetz
(A B) C = A (B C), (A B) C = A (B C) Assoziativges.
A (B C) = (A B) (A C) Distributivgesetz
A B = A B, A B = A B Regeln von de
Morgan
A1 A2 ... An = A1 A2 ... An .
Seien A, B, C Ereignisse. Dann gelten die folgenden Gesetze:
A B = B A, A B = B A Kommutativgesetz
(A B) C = A (B C), (A B) C = A (B C) Assoziativges.
A (B C) = (A B) (A C) Distributivgesetz
A B = A B, A B = A B Regeln von de
Morgan
A1 A2 ... An = A1 A2 ... An .
Kapitel 5 © Beutelspacher
Dezember 2004Seite 11
ZufallsvariableZufallsvariable
Definition. Sei ein Grundraum. Eine Zufallsvariable ist eine
Abbildung
X: R.
Vorstellung: Jedem Ausgang eines Zufallsexperiments wird eine
reelle Zahl X() zugeordnet („Realisierung der Zufallsvariablen zum
Ausgang “).
Beispiel: Bei einem Glücksspiel ist X() der Gewinn bzw. Verlust
beim Ausgang des Spiels.
Bem. 1. Eine Zufallsvariable ist keine Variable, sondern eine
Funktion. 2. Sie wird nicht mit g, ... bezeichnet, sondern mit X, Y, ...
Definition. Sei ein Grundraum. Eine Zufallsvariable ist eine
Abbildung
X: R.
Vorstellung: Jedem Ausgang eines Zufallsexperiments wird eine
reelle Zahl X() zugeordnet („Realisierung der Zufallsvariablen zum
Ausgang “).
Beispiel: Bei einem Glücksspiel ist X() der Gewinn bzw. Verlust
beim Ausgang des Spiels.
Bem. 1. Eine Zufallsvariable ist keine Variable, sondern eine
Funktion. 2. Sie wird nicht mit g, ... bezeichnet, sondern mit X, Y, ...
Kapitel 5 © Beutelspacher
Dezember 2004Seite 12
BeispielBeispiel
Zweimaliges Würfeln:
= {(1,1), (1,2), ..., (6,6)} = {(i,j) i, j {1, 2, 3, 4, 5, 6}}.
X() = i + j, falls = (i,j)
(i: Augenzahl des ersten Wurf, j: Augenzahl des zweiten Wurfs).
Beobachtung: Aus der Realisierung X() kann man im allgemeinen
nicht zurückgewinnen. Zum Beispiel haben die drei Ausgänge
(1,3), (2,2), (3.1) die Realisierung 4.
Zweimaliges Würfeln:
= {(1,1), (1,2), ..., (6,6)} = {(i,j) i, j {1, 2, 3, 4, 5, 6}}.
X() = i + j, falls = (i,j)
(i: Augenzahl des ersten Wurf, j: Augenzahl des zweiten Wurfs).
Beobachtung: Aus der Realisierung X() kann man im allgemeinen
nicht zurückgewinnen. Zum Beispiel haben die drei Ausgänge
(1,3), (2,2), (3.1) die Realisierung 4.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 13
Wichtige (und schwierige ...) SchreibweiseWichtige (und schwierige ...) Schreibweise
Wir schreiben
{X = k} := { X() = k}.
Das ist das Ereignis, dass X den Wert k annimmt.
Beispiel (zweifaches Würfeln):
{X = 4} = {(1,3), (2,2), (3,1)}.
Wir können die Ereignisse {X = 2}, {X = 3}, ..., {X = 12} wieder als
Elementarereignisse eines Experiments auffassen, bei dem nicht ,
sondern X() als Ausgang angesehen wird.
Wir schreiben
{X = k} := { X() = k}.
Das ist das Ereignis, dass X den Wert k annimmt.
Beispiel (zweifaches Würfeln):
{X = 4} = {(1,3), (2,2), (3,1)}.
Wir können die Ereignisse {X = 2}, {X = 3}, ..., {X = 12} wieder als
Elementarereignisse eines Experiments auffassen, bei dem nicht ,
sondern X() als Ausgang angesehen wird.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 14
BeispieleBeispiele
Zweimaliges Würfeln
• Augensumme ist 9: {X = 9}
• Augensumme ist mindestens 10: {X = 10} + {X = 11} + {X = 12}
• Augensumme ist höchstens 5: {X = 2} + {X = 3} + {X = 4} + {X = 5}.
Zweimaliges Würfeln
• Augensumme ist 9: {X = 9}
• Augensumme ist mindestens 10: {X = 10} + {X = 11} + {X = 12}
• Augensumme ist höchstens 5: {X = 2} + {X = 3} + {X = 4} + {X = 5}.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 15
Rechnen mit ZufallsvariablenRechnen mit Zufallsvariablen
Aus einer bzw. zwei Zufallsvariablen kann man neue
Zufallsvariablen machen. Seien dazu X und Y Zufallsvariablen,
d.h. Abbildungen von R.
1. Produkt einer Zufallsvariablen mit einer reellen Zahl.
Die Abbildung aX: R, die definiert ist durch (aX)() := aX()
ist eine Zufallsvariable.
2. Summe zweier Zufallsvariablen.
Die Abbildung X+Y : R, die definiert ist durch (X+Y)() := X()
+Y() ist eine Zufallsvariable.
3. Entsprechend: Differenz, Produkt, Maximum, Minimum.
Aus einer bzw. zwei Zufallsvariablen kann man neue
Zufallsvariablen machen. Seien dazu X und Y Zufallsvariablen,
d.h. Abbildungen von R.
1. Produkt einer Zufallsvariablen mit einer reellen Zahl.
Die Abbildung aX: R, die definiert ist durch (aX)() := aX()
ist eine Zufallsvariable.
2. Summe zweier Zufallsvariablen.
Die Abbildung X+Y : R, die definiert ist durch (X+Y)() := X()
+Y() ist eine Zufallsvariable.
3. Entsprechend: Differenz, Produkt, Maximum, Minimum.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 16
BeispielBeispiel
Zweifaches Würfeln
Sei = (i, j),
X() = i (Augenzahl beim ersten Wurf),
Y() = j (Augenzahl beim zweiten Wurf).
Dann ist
X+Y = Summe der Augenzahlen
max(X, Y) = höchste Augenzahl
min(X, Y) = niedrigste Augenzahl
X–Y = Differenz des zweiten vom ersten Wurf
(X+Y)/2 = Durchschnitt der beiden Würfe
Zweifaches Würfeln
Sei = (i, j),
X() = i (Augenzahl beim ersten Wurf),
Y() = j (Augenzahl beim zweiten Wurf).
Dann ist
X+Y = Summe der Augenzahlen
max(X, Y) = höchste Augenzahl
min(X, Y) = niedrigste Augenzahl
X–Y = Differenz des zweiten vom ersten Wurf
(X+Y)/2 = Durchschnitt der beiden Würfe
Kapitel 5 © Beutelspacher
Dezember 2004Seite 17
IndikatorfunktionIndikatorfunktion
Definition. Sei A ein Ereignis, d.h. eine Teilmenge von . Die Indikatorfunktion IA ist die Zufallsvariable, die 1 ist,
wenn das Ergebnis zu A gehört, und 0 sonst. Das heißt
IA() = 1, falls ,
IA() = 0, falls .
Die Realisierung von IA gibt an, ob das Ereignis eingetreten ist.
Beispiel: Sei A das Ereignis, beim einfachen Würfeln eine gerade
Zahl zu würfeln. Dann ist
IA(1) = IA(3) = IA(5) = 0, IA(2) = IA() = IA(6) = 1.
Definition. Sei A ein Ereignis, d.h. eine Teilmenge von . Die Indikatorfunktion IA ist die Zufallsvariable, die 1 ist,
wenn das Ergebnis zu A gehört, und 0 sonst. Das heißt
IA() = 1, falls ,
IA() = 0, falls .
Die Realisierung von IA gibt an, ob das Ereignis eingetreten ist.
Beispiel: Sei A das Ereignis, beim einfachen Würfeln eine gerade
Zahl zu würfeln. Dann ist
IA(1) = IA(3) = IA(5) = 0, IA(2) = IA() = IA(6) = 1.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 18
Hilfssatz über IndikatorfunktionenHilfssatz über Indikatorfunktionen
5.1.1 Hilfssatz. Sei X eine Zufallsvariable,
und seien A und B Ereignisse. Dann gilt
IAB = IA IB.
In Worten: Die Indikatorfunktion des Durchschnitts zweier Ereignisse
ist gleich dem Produkt der einzelnen Indikatorfunktionen.
5.1.2 Folgerung. IA = IA IA.
Beweis der Folgerung: Setze B = A. Dann ist A B = A A = A.
5.1.1 Hilfssatz. Sei X eine Zufallsvariable,
und seien A und B Ereignisse. Dann gilt
IAB = IA IB.
In Worten: Die Indikatorfunktion des Durchschnitts zweier Ereignisse
ist gleich dem Produkt der einzelnen Indikatorfunktionen.
5.1.2 Folgerung. IA = IA IA.
Beweis der Folgerung: Setze B = A. Dann ist A B = A A = A.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 19
Beweis des HilfssatzesBeweis des Hilfssatzes
Beweis. Sei ein Ergebnis. Wir unterscheiden zwei Fälle.
1. Fall: A B.Dann ist IA B) = 1.
Andererseits ist IA) = 1 und I B) = 1, da sowohl in A als
auch in B liegt. Somit ist auch (IAI B) = IA)I B) = 11 = 1.
Also gilt L.S. = R.S.
2. Fall: A B.Dann ist IA B) = 0.
Ferner ist A oder B. Somit ist IA) = 0 oder I B) = 0.
Also ist in jedem Fall (IAI B) = IA)I B) = 0.
Also ist auch im 2. Fall L.S. = R.S.
Beweis. Sei ein Ergebnis. Wir unterscheiden zwei Fälle.
1. Fall: A B.Dann ist IA B) = 1.
Andererseits ist IA) = 1 und I B) = 1, da sowohl in A als
auch in B liegt. Somit ist auch (IAI B) = IA)I B) = 11 = 1.
Also gilt L.S. = R.S.
2. Fall: A B.Dann ist IA B) = 0.
Ferner ist A oder B. Somit ist IA) = 0 oder I B) = 0.
Also ist in jedem Fall (IAI B) = IA)I B) = 0.
Also ist auch im 2. Fall L.S. = R.S.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 20
ZählvariablenZählvariablen
Sei ein Grundraum, und seien A, B, C, ... Ereignisse.
Problem: Wir wollen beschreiben,
wie oft eines der Ereignisse A, B, C, ... auftritt.
Dies wird durch die folgende Zufallsvariable X beschrieben:
X = IA + IB + IC + ...
(Denn: Wenn wir die rechte Seite auf ein Ergebnis anwenden,
erhalten wir bei einem einzelnen Summanden eine 1, wenn w zu
diesem Ereignis gehört, und sonst eine 0.
Also X() die Anzahl der Ereignisse, zu denen gehört.)
Sei ein Grundraum, und seien A, B, C, ... Ereignisse.
Problem: Wir wollen beschreiben,
wie oft eines der Ereignisse A, B, C, ... auftritt.
Dies wird durch die folgende Zufallsvariable X beschrieben:
X = IA + IB + IC + ...
(Denn: Wenn wir die rechte Seite auf ein Ergebnis anwenden,
erhalten wir bei einem einzelnen Summanden eine 1, wenn w zu
diesem Ereignis gehört, und sonst eine 0.
Also X() die Anzahl der Ereignisse, zu denen gehört.)
Kapitel 5 © Beutelspacher
Dezember 2004Seite 21
BeispielBeispiel
In vielen Situationen interessiert die Anzahl der „Treffer“.
Beispiele: Würfeln (Treffer: 6, Niete: alles andere), Münzwurf (Treffer:
Kopf, Niete: Zahl), Lotto (Treffer: 6-er, Niete: alles andere),
zweimaliges Würfeln (Treffer: Augenzahl 8, Niete: Augenzahl < 8).
Modellierung: Wir beschreiben einen Treffer durch die Zahl 1, eine
Niete durch 0.
Dann ist die Ergebnismenge (bei n Grundexperimenten):
= {0,1}n = {(a1, a2, ..., an) ai {0,1}}.
X = a1 + a2 + ... + an ist die Zufallsvariable, die die Anzahl der Treffer
angibt.
In vielen Situationen interessiert die Anzahl der „Treffer“.
Beispiele: Würfeln (Treffer: 6, Niete: alles andere), Münzwurf (Treffer:
Kopf, Niete: Zahl), Lotto (Treffer: 6-er, Niete: alles andere),
zweimaliges Würfeln (Treffer: Augenzahl 8, Niete: Augenzahl < 8).
Modellierung: Wir beschreiben einen Treffer durch die Zahl 1, eine
Niete durch 0.
Dann ist die Ergebnismenge (bei n Grundexperimenten):
= {0,1}n = {(a1, a2, ..., an) ai {0,1}}.
X = a1 + a2 + ... + an ist die Zufallsvariable, die die Anzahl der Treffer
angibt.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 22
Relative HäufigkeitRelative Häufigkeit
Um die Chancen eines Zufallsexperiments abzuschätzen, führt man
es häufig durch.
Beispiel: Werfen einer realen Münze (Zahl: 1, Kopf: 0):
1011000111 11101100011 0100111010 0000011011
0000110110
Relative Häufigkeit für das Auftreten einer 1 nach 10, 20, ...
Versuchen:
0,6 0,65 0,6 0,55 0,52
Man hat den Eindruck, dass sich die relativen Häufigkeiten
„stabilisieren“.
Um die Chancen eines Zufallsexperiments abzuschätzen, führt man
es häufig durch.
Beispiel: Werfen einer realen Münze (Zahl: 1, Kopf: 0):
1011000111 11101100011 0100111010 0000011011
0000110110
Relative Häufigkeit für das Auftreten einer 1 nach 10, 20, ...
Versuchen:
0,6 0,65 0,6 0,55 0,52
Man hat den Eindruck, dass sich die relativen Häufigkeiten
„stabilisieren“.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 23
Definition relative HäufigkeitDefinition relative Häufigkeit
Definition. Wir führen ein Zufallsexperiment n mal durch. Wir
wollen wissen, „wie häufig“ der Ausgang zu einem Ereignis A
gehört. Angenommen, das Experiment liefert die Ausgänge a1, a2, ..., an.
Dann ist die relative Häufigkeit bezüglich dieser Experimente
definiert durch
r = rn(A) = {i ai A} / n.
Rezept: Zähle, wie oft der Ausgang in A liegt, dividiere durch n.
Achtung! Die relative Häufigkeit ist eine empirische Zahl!
Definition. Wir führen ein Zufallsexperiment n mal durch. Wir
wollen wissen, „wie häufig“ der Ausgang zu einem Ereignis A
gehört. Angenommen, das Experiment liefert die Ausgänge a1, a2, ..., an.
Dann ist die relative Häufigkeit bezüglich dieser Experimente
definiert durch
r = rn(A) = {i ai A} / n.
Rezept: Zähle, wie oft der Ausgang in A liegt, dividiere durch n.
Achtung! Die relative Häufigkeit ist eine empirische Zahl!
Kapitel 5 © Beutelspacher
Dezember 2004Seite 24
Eigenschaften der relativen HäufigkeitenEigenschaften der relativen Häufigkeiten
• rn 0 für alle Zufallsexperimente und alle Ereignisse
(„Nichtnegativität“).
• Wenn A und B zwei unvereinbare Ereignisse sind, dann gilt
rn(A B) = rn(A) + rn(B).
(„Additivität)
• rn() = 1 („Normiertheit“)
• rn 0 für alle Zufallsexperimente und alle Ereignisse
(„Nichtnegativität“).
• Wenn A und B zwei unvereinbare Ereignisse sind, dann gilt
rn(A B) = rn(A) + rn(B).
(„Additivität)
• rn() = 1 („Normiertheit“)
Kapitel 5 © Beutelspacher
Dezember 2004Seite 25
Stabilisierung empirischer Häufigkeiten Stabilisierung empirischer Häufigkeiten
• Bei vielen Experimenten „hat man das Gefühl“, dass sich die
empirischen Häufigkeiten stabilisieren.
• Beispiele: Münzwurf, Werfen einer Reißzwecke, Würfeln, ...
• Wenn z.B. ein Würfel „auf Dauer“ deutlich mehr als ein Sechstel
Sechsen zeigen würde, würde man nicht an einen fairen Würfel
glauben.
• Dieses Gesetz über die Stabilisierung empirischer Häufigkeiten ist
aber nur eine Erfahrungstatsache, kein mathematisches Gesetz!
• Alle Versuche, den Zufall mathematisch über den Weg der relativen
Häufigkeiten zu beschreiben, sind i.w. gescheitert ...
• Bei vielen Experimenten „hat man das Gefühl“, dass sich die
empirischen Häufigkeiten stabilisieren.
• Beispiele: Münzwurf, Werfen einer Reißzwecke, Würfeln, ...
• Wenn z.B. ein Würfel „auf Dauer“ deutlich mehr als ein Sechstel
Sechsen zeigen würde, würde man nicht an einen fairen Würfel
glauben.
• Dieses Gesetz über die Stabilisierung empirischer Häufigkeiten ist
aber nur eine Erfahrungstatsache, kein mathematisches Gesetz!
• Alle Versuche, den Zufall mathematisch über den Weg der relativen
Häufigkeiten zu beschreiben, sind i.w. gescheitert ...
Kapitel 5 © Beutelspacher
Dezember 2004Seite 26
5.2 Wahrscheinlichkeitsräume5.2 Wahrscheinlichkeitsräume
Definition. Ein (endlicher) Wahrscheinlichkeitsraum (W-Raum)
besteht aus einem Grundraum und einer Abbildung P, die jeder
Teilmenge A von eine reelle Zahl P(A) zuordnet, so dass
folgende Gesetze gelten:
• P(A) 0 für alle A . Nichtnegativität
• P(A B) = P(A) + P(B), falls A B = {}. Additivität
• P() = 1. Normiertheit
Wir schreiben (, P).
P heißt Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsmaß) auf
. Die Zahl P(A) heißt die Wahrscheinlichkeit des Ereignisses A.
Definition. Ein (endlicher) Wahrscheinlichkeitsraum (W-Raum)
besteht aus einem Grundraum und einer Abbildung P, die jeder
Teilmenge A von eine reelle Zahl P(A) zuordnet, so dass
folgende Gesetze gelten:
• P(A) 0 für alle A . Nichtnegativität
• P(A B) = P(A) + P(B), falls A B = {}. Additivität
• P() = 1. Normiertheit
Wir schreiben (, P).
P heißt Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsmaß) auf
. Die Zahl P(A) heißt die Wahrscheinlichkeit des Ereignisses A.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 27
BemerkungenBemerkungen
• Mit diesen Axiomen werden nur „Spielregeln“ im Umgang mit den
mathematischen Wahrscheinlichkeiten festgelegt.
• Obwohl die Axiome nach dem Vorbild der Eigenschaften der
relativen Häufigkeiten gebildet sind, handelt es sich um Aussagen
über mathematische Objekte.
• Die Axiome ergeben sich nicht zwangsläufig aus der Erfahrung.
• Umgekehrt: Bei einer Anwendung muss man überprüfen, ob die
realen Bedingungen den mathematischen Axiomen entsprechen.
• Mit diesen Axiomen werden nur „Spielregeln“ im Umgang mit den
mathematischen Wahrscheinlichkeiten festgelegt.
• Obwohl die Axiome nach dem Vorbild der Eigenschaften der
relativen Häufigkeiten gebildet sind, handelt es sich um Aussagen
über mathematische Objekte.
• Die Axiome ergeben sich nicht zwangsläufig aus der Erfahrung.
• Umgekehrt: Bei einer Anwendung muss man überprüfen, ob die
realen Bedingungen den mathematischen Axiomen entsprechen.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 28
Erste EigenschaftenErste Eigenschaften
5.2.1 Hilfssatz. Sei (, P) ein Wahrscheinlichkeitsraum.
(a) P({}) = 0.
(b) P(A B C) = P(A) + P(B) + P(C), falls A, B, C unvereinbar
sind.
(c) P(A B) = P(A) + P(B) – P(A B) für beliebige Ereignisse A, B.
(d) P(A) 1 für alle A.
(e) P(A) = 1 – P(A).
(f) Wenn A B, dann ist P(A) P(B).
5.2.1 Hilfssatz. Sei (, P) ein Wahrscheinlichkeitsraum.
(a) P({}) = 0.
(b) P(A B C) = P(A) + P(B) + P(C), falls A, B, C unvereinbar
sind.
(c) P(A B) = P(A) + P(B) – P(A B) für beliebige Ereignisse A, B.
(d) P(A) 1 für alle A.
(e) P(A) = 1 – P(A).
(f) Wenn A B, dann ist P(A) P(B).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 29
Beweis (a)Beweis (a)
(a) folgt aus der Additivität
P(A B) = P(A) + P(B) (falls A B = { })
und der Normiertheit
P() = 1
der Wahrscheinlichkeitsverteilung P, wenn wir A = { } und B =
setzen:
1 = P() = P({ } ) = P({ }) + P() = P({ }) + 1,
also P({ }) = 0.
(a) folgt aus der Additivität
P(A B) = P(A) + P(B) (falls A B = { })
und der Normiertheit
P() = 1
der Wahrscheinlichkeitsverteilung P, wenn wir A = { } und B =
setzen:
1 = P() = P({ } ) = P({ }) + P() = P({ }) + 1,
also P({ }) = 0.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 30
Beweis (b)Beweis (b)
(b) folgt durch mehrfaches Ausnutzen der Additivität
P(A B) = P(A) + P(B) (falls A B = { })
der Wahrscheinlichkeitsverteilung P:
P(A B C) = P((A B) C)
= P(A B) + P(C)
= P(A) + P(B) + P(C).
(b) folgt durch mehrfaches Ausnutzen der Additivität
P(A B) = P(A) + P(B) (falls A B = { })
der Wahrscheinlichkeitsverteilung P:
P(A B C) = P((A B) C)
= P(A B) + P(C)
= P(A) + P(B) + P(C).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 31
Beweis (c)Beweis (c)
(c) Wir zerlegen die Menge A B in die disjunkten Teile A \ B, A B
und B \ A. Nach (b) gilt dann
P(A B) = P(A \ B) + P(A B) + P(B \ A).
Aufgrund der Additivität gilt
P(A) = P(A B) + P(A \ B) (denn A = (A B) (A \ B)),
P(B) = P(A B) + P(B \ A) (denn B = (B A) (B \ A)).
Lösen wir diese beiden Gleichungen nach P(A \ B) bzw. P(B \ A) auf,
und setzen das Ergebnis in die obere Gleichung ein, so ergibt sich
P(A B) = P(A) + P(B) - P(A B).
(c) Wir zerlegen die Menge A B in die disjunkten Teile A \ B, A B
und B \ A. Nach (b) gilt dann
P(A B) = P(A \ B) + P(A B) + P(B \ A).
Aufgrund der Additivität gilt
P(A) = P(A B) + P(A \ B) (denn A = (A B) (A \ B)),
P(B) = P(A B) + P(B \ A) (denn B = (B A) (B \ A)).
Lösen wir diese beiden Gleichungen nach P(A \ B) bzw. P(B \ A) auf,
und setzen das Ergebnis in die obere Gleichung ein, so ergibt sich
P(A B) = P(A) + P(B) - P(A B).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 32
Beweise (e), (d) und (f)Beweise (e), (d) und (f)
(e) Wir zerlegen den Grundraum in die disjunkten Teilmengen A und
A. Aufgrund der Normiertheit und der Additivität von P folgt:
1 = P( ) = P(A A) = P(A) + P(A).
(d) Da P(A) 0 gilt, folgt aus (e): P(A) = 1 - P(A) 0, also P(A) 1.
(f) Wenn A B ist, dann können wir B in die disjunkten Teilmengen A
und B \ A zerlegen. Daher ist
P(B) = P(A) + P(B \ A).
Da P(B \ A) 0 ist, folgt P(B) P(A).
(e) Wir zerlegen den Grundraum in die disjunkten Teilmengen A und
A. Aufgrund der Normiertheit und der Additivität von P folgt:
1 = P( ) = P(A A) = P(A) + P(A).
(d) Da P(A) 0 gilt, folgt aus (e): P(A) = 1 - P(A) 0, also P(A) 1.
(f) Wenn A B ist, dann können wir B in die disjunkten Teilmengen A
und B \ A zerlegen. Daher ist
P(B) = P(A) + P(B \ A).
Da P(B \ A) 0 ist, folgt P(B) P(A).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 33
Wahrscheinlichkeit von ElementarereignissenWahrscheinlichkeit von Elementarereignissen
Frage: Müssen wir die Wahrscheinlichkeitsverteilung P für jede
Teilmenge A von einzeln definieren?
(Bereits bei | | = 10 wären das 210 = 1024 Teilmengen, für die wir die
Wahrscheinlichkeit festlegen müßten!)
Antwort: Nein! Es genügt, jedem Elementarereignis {} eine
Wahrscheinlichkeit P({}) zuzuordnen. Zur Abkürzung: p() := P({}).
Die Wahrscheinlichkeit eines Ereignisses A ergibt sich dann wie folgt.
5.2.2 Satz. Sei A ( {}) ein Ereignis im Grundraum . Dann gilt
P(A) = p().
Frage: Müssen wir die Wahrscheinlichkeitsverteilung P für jede
Teilmenge A von einzeln definieren?
(Bereits bei | | = 10 wären das 210 = 1024 Teilmengen, für die wir die
Wahrscheinlichkeit festlegen müßten!)
Antwort: Nein! Es genügt, jedem Elementarereignis {} eine
Wahrscheinlichkeit P({}) zuzuordnen. Zur Abkürzung: p() := P({}).
Die Wahrscheinlichkeit eines Ereignisses A ergibt sich dann wie folgt.
5.2.2 Satz. Sei A ( {}) ein Ereignis im Grundraum . Dann gilt
P(A) = p(). A
Kapitel 5 © Beutelspacher
Dezember 2004Seite 34
BeweisBeweis
Beweis.
Jedes Ereignis A besteht aus gewissen Ergebnissen .
Wir können A wie folgt als Vereinigung von Elementarereignissen {}
schreiben:
A = {}.
Da die Elementarereignisse disjunkt sind, ergibt sich aufgrund der
Additivitätseigenschaft
P(A) = P( {}) = p().
Beweis.
Jedes Ereignis A besteht aus gewissen Ergebnissen .
Wir können A wie folgt als Vereinigung von Elementarereignissen {}
schreiben:
A = {}.
Da die Elementarereignisse disjunkt sind, ergibt sich aufgrund der
Additivitätseigenschaft
P(A) = P( {}) = p(). A
A
A
Kapitel 5 © Beutelspacher
Dezember 2004Seite 35
5.3 Das Laplace-Modell5.3 Das Laplace-Modell
Idee: Bei vielen Zufallsexperimenten sind alle Elementarexperimente
„gleich wahrscheinlich“.
Beispiele: Würfeln mit einem „korrekten“ Würfel, Werfen einer
„fairen“ Münze.
Definition: Sei = {1, 2, ..., s} eine s-elementige Menge,
und sei
p() = 1/s für alle .
Dann heißt (, P) ein Laplacescher Wahrscheinlichkeitsraum.
Man nennt P die diskrete Gleichverteilung (Laplace-Verteilung).
Idee: Bei vielen Zufallsexperimenten sind alle Elementarexperimente
„gleich wahrscheinlich“.
Beispiele: Würfeln mit einem „korrekten“ Würfel, Werfen einer
„fairen“ Münze.
Definition: Sei = {1, 2, ..., s} eine s-elementige Menge,
und sei
p() = 1/s für alle .
Dann heißt (, P) ein Laplacescher Wahrscheinlichkeitsraum.
Man nennt P die diskrete Gleichverteilung (Laplace-Verteilung).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 36
BemerkungenBemerkungen
5.3.1 Satz. In einem Laplaceschen Wahrscheinlichkeitsraum gilt
P(A) = A / s = A /
für alle Ereignisse A.
(Beweis. Sei A = {1, 2, ..., t}. Dann folgt mit 5.2.2
P(A) = p(1) + p(2) + ... + p(t) = t 1/s = A / s.)
Pierre Simon Laplace (1749 – 1827): Professor in Paris.
5.3.1 Satz. In einem Laplaceschen Wahrscheinlichkeitsraum gilt
P(A) = A / s = A /
für alle Ereignisse A.
(Beweis. Sei A = {1, 2, ..., t}. Dann folgt mit 5.2.2
P(A) = p(1) + p(2) + ... + p(t) = t 1/s = A / s.)
Pierre Simon Laplace (1749 – 1827): Professor in Paris.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 37
Beispiel: Zweifaches WürfelnBeispiel: Zweifaches Würfeln
Frage: Mit welcher Wahrscheinlichkeit tritt die Augenzahl 5
(oder irgend ein Zahl zwischen 2 und 12) auf?
= {(1,1), ..., (6.6)} = {1, 2, ..., 6} {1, 2, ..., 6}
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
Laplacescher Wahrscheinlichkeitsraum p() = 1/36.
Frage: Mit welcher Wahrscheinlichkeit tritt die Augenzahl 5
(oder irgend ein Zahl zwischen 2 und 12) auf?
= {(1,1), ..., (6.6)} = {1, 2, ..., 6} {1, 2, ..., 6}
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
Laplacescher Wahrscheinlichkeitsraum p() = 1/36.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 38
Beispiel: zweifaches Würfeln. Die WahrscheinlichkeitenBeispiel: zweifaches Würfeln. Die Wahrscheinlichkeiten
X(w) = i+j für w = (i, j).
{X = 5} = {(1,4), (2,3), (3,2), (4,1)}.
Also P(X = 5) = 4/36 = 1/9.
Im allgemeinen gilt
P(X = 2) = 1/36, P(X = 3) = 2/36, P(X = 4) = 3/36, P(X = 5) = 4/36,
P(X = 6) = 5/36, P(X = 7) = 6/36, P(X = 8) = 5/36, P(X = 9) = 4/36,
P(X = 10) = 3/36, P(X = 11) = 2/36, P(X = 12) = 1/36.
X(w) = i+j für w = (i, j).
{X = 5} = {(1,4), (2,3), (3,2), (4,1)}.
Also P(X = 5) = 4/36 = 1/9.
Im allgemeinen gilt
P(X = 2) = 1/36, P(X = 3) = 2/36, P(X = 4) = 3/36, P(X = 5) = 4/36,
P(X = 6) = 5/36, P(X = 7) = 6/36, P(X = 8) = 5/36, P(X = 9) = 4/36,
P(X = 10) = 3/36, P(X = 11) = 2/36, P(X = 12) = 1/36.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 39
Beispiel (Leibniz)Beispiel (Leibniz)
Leibniz (Gottfried Wilhelm Leibniz, 1646 – 1716) meinte, dass beim
Würfeln mit zwei Würfeln die Augensummen 11 und 12 gleich
wahrscheinlich sind.
Offenbar betrachtet Leibniz Grundraum
= {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), (2,4), (2,5), (2,6),
(3,3), (3,4), (3,5), (3,6), (4,4), (4,5), (4,6), (5,5), (5,6), (6,6)}
wobei (i,j) interpretiert wird als „ein Würfel zeigt i, der andere j“.
Es gibt genau ein Experiment , das die Realisierung X() = 11
und genau ein Experiment, das die Realisierung 12 hat.
Aber ...
Leibniz (Gottfried Wilhelm Leibniz, 1646 – 1716) meinte, dass beim
Würfeln mit zwei Würfeln die Augensummen 11 und 12 gleich
wahrscheinlich sind.
Offenbar betrachtet Leibniz Grundraum
= {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), (2,4), (2,5), (2,6),
(3,3), (3,4), (3,5), (3,6), (4,4), (4,5), (4,6), (5,5), (5,6), (6,6)}
wobei (i,j) interpretiert wird als „ein Würfel zeigt i, der andere j“.
Es gibt genau ein Experiment , das die Realisierung X() = 11
und genau ein Experiment, das die Realisierung 12 hat.
Aber ...
Kapitel 5 © Beutelspacher
Dezember 2004Seite 40
Beispiel (Leibniz): FortsetzungBeispiel (Leibniz): Fortsetzung
... aber es handelt sich nicht um einen Laplaceschen
Wahrscheinlichkeitsraum.
Das heißt: Nicht alle Elementarereignisse sind gleich wahrscheinlich!
Lösung: In unserer Vorstellung müssen wir die Würfel unterscheiden
(z.B. einer rot, einer schwarz).
Dann gibt es für die Augenzahl 12 nur einen Ausgang (nämlich rot
= 6 und schwarz = 6), aber für die Augensumme 11 zwei Ausgänge
(rot = 5, schwarz = 6 und rot = 6 und schwarz = 5).
Mit anderen Worten: Wenn man die Gleichverteilung anwenden will,
muss man den Grundraum = {1, 2, ..., 6} {1, 2, ..., 6}
betrachten.
... aber es handelt sich nicht um einen Laplaceschen
Wahrscheinlichkeitsraum.
Das heißt: Nicht alle Elementarereignisse sind gleich wahrscheinlich!
Lösung: In unserer Vorstellung müssen wir die Würfel unterscheiden
(z.B. einer rot, einer schwarz).
Dann gibt es für die Augenzahl 12 nur einen Ausgang (nämlich rot
= 6 und schwarz = 6), aber für die Augensumme 11 zwei Ausgänge
(rot = 5, schwarz = 6 und rot = 6 und schwarz = 5).
Mit anderen Worten: Wenn man die Gleichverteilung anwenden will,
muss man den Grundraum = {1, 2, ..., 6} {1, 2, ..., 6}
betrachten.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 41
Beispiel (Galilei)Beispiel (Galilei)
Galileo Galilei (1564 – 1642) wurde folgende Frage gestellt:
Warum ist beim dreimaligen Würfeln die Augensumme 10
wahrscheinlicher als die Augensumme 9
– obwohl es jeweils gleich viele Kombinationen gibt, nämlich
1 2 6, 1 3 5, 2 2 5, 2 3 4, 1 4 4, 3 3 3 bzw.
1 3 6, 2 2 6, 1 4 5, 2 3 5, 2 4 4, 3 4 4 ???
Mögliche Antworten: (a) Es gibt zwar gleich viele „Kombinationen“,
diese haben aber nicht die gleiche Wahrscheinlichkeit.
(b) Am besten betrachtet man den zugehörigen Laplaceschen
Wahrscheinlichkeitsraum:
Galileo Galilei (1564 – 1642) wurde folgende Frage gestellt:
Warum ist beim dreimaligen Würfeln die Augensumme 10
wahrscheinlicher als die Augensumme 9
– obwohl es jeweils gleich viele Kombinationen gibt, nämlich
1 2 6, 1 3 5, 2 2 5, 2 3 4, 1 4 4, 3 3 3 bzw.
1 3 6, 2 2 6, 1 4 5, 2 3 5, 2 4 4, 3 4 4 ???
Mögliche Antworten: (a) Es gibt zwar gleich viele „Kombinationen“,
diese haben aber nicht die gleiche Wahrscheinlichkeit.
(b) Am besten betrachtet man den zugehörigen Laplaceschen
Wahrscheinlichkeitsraum:
Kapitel 5 © Beutelspacher
Dezember 2004Seite 42
Beispiel (Galilei). LösungBeispiel (Galilei). Lösung
= {1, 2, ..., 6} {1, 2, ..., 6} {1, 2, ..., 6}. = 63 = 216.
X() = i + j + k, wobei = (i, j, k) ist.
Das Ereignis {X = 9} besteht aus
6 Permutation von 1 2 6,
6 Permutationen von 135,
3 unterscheidbaren Permutation von 2 2 5,
6 Permutationen von 2 3 4,
3 unterscheidbaren Permutationen von 1 4 4,
dem Wurf 3 3 3.
Also P(X = 9) = 25/216. Andererseits ist P(X = 10) = 27/216.
= {1, 2, ..., 6} {1, 2, ..., 6} {1, 2, ..., 6}. = 63 = 216.
X() = i + j + k, wobei = (i, j, k) ist.
Das Ereignis {X = 9} besteht aus
6 Permutation von 1 2 6,
6 Permutationen von 135,
3 unterscheidbaren Permutation von 2 2 5,
6 Permutationen von 2 3 4,
3 unterscheidbaren Permutationen von 1 4 4,
dem Wurf 3 3 3.
Also P(X = 9) = 25/216. Andererseits ist P(X = 10) = 27/216.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 43
Das ZiegenproblemDas Ziegenproblem
In einer Spielshow steht der Gewinner am Ende vor folgender
Situation:
• Vor sich sieht er drei Türen. Er weiß: Hinter einer steht ein Auto,
hinter den beiden anderen nur eine Ziege (= Niete).
• Er wählt eine Tür – ohne sie zu öffnen.
• Dann öffnet der Showmaster eine andere Tür, hinter der eine Ziege
steht.
• Jetzt fragt der Showmaster den Kandidaten: Wollen sie die von
Ihnen gewählte Tür wechseln?
Problem: Kann die Mathematik dem Kandidaten helfen?
In einer Spielshow steht der Gewinner am Ende vor folgender
Situation:
• Vor sich sieht er drei Türen. Er weiß: Hinter einer steht ein Auto,
hinter den beiden anderen nur eine Ziege (= Niete).
• Er wählt eine Tür – ohne sie zu öffnen.
• Dann öffnet der Showmaster eine andere Tür, hinter der eine Ziege
steht.
• Jetzt fragt der Showmaster den Kandidaten: Wollen sie die von
Ihnen gewählte Tür wechseln?
Problem: Kann die Mathematik dem Kandidaten helfen?
Kapitel 5 © Beutelspacher
Dezember 2004Seite 44
Das Ziegenproblem: Ask Marylin!Das Ziegenproblem: Ask Marylin!
Das Ziegenproblem wurde durch folgendes Ereignis bekannt:
Marylin vos Savant, angeblich der Mensch mit dem höchsten
Intelligenzquotient, hat in den U.S.A. eine Kolumne („Ask Marylin“),
in der sie alle möglichen kniffligen Fragen beantwortet.
Auf das Ziegenproblem antwortete sie, dass Wechseln die
Gewinnchancen erhöht, und zwar auf das Doppelte.
Das Ergebnis war eine heiße Diskussionen, in der Marilyn heftigst
angegriffen wurde. Teilweise „wissenschaftlich“ („offensichtlich hat
bei zwei verbleibenden Möglichkeiten jede die gleiche Chance“),
teilweise unwissenschaftlich („Frauen und Mathematik ...“)
ABER ...
Das Ziegenproblem wurde durch folgendes Ereignis bekannt:
Marylin vos Savant, angeblich der Mensch mit dem höchsten
Intelligenzquotient, hat in den U.S.A. eine Kolumne („Ask Marylin“),
in der sie alle möglichen kniffligen Fragen beantwortet.
Auf das Ziegenproblem antwortete sie, dass Wechseln die
Gewinnchancen erhöht, und zwar auf das Doppelte.
Das Ergebnis war eine heiße Diskussionen, in der Marilyn heftigst
angegriffen wurde. Teilweise „wissenschaftlich“ („offensichtlich hat
bei zwei verbleibenden Möglichkeiten jede die gleiche Chance“),
teilweise unwissenschaftlich („Frauen und Mathematik ...“)
ABER ...
Kapitel 5 © Beutelspacher
Dezember 2004Seite 45
Das Ziegenproblem: Marylin hat Recht!Das Ziegenproblem: Marylin hat Recht!
5.3.2 Satz. Wenn man bei seiner Entscheidung bleibt, hat man eine
Gewinnchance von (nur) 1/3.
Wenn man wechselt, gewinnt man mit der Wahrscheinlichkeit 2/3.
Beweis. Wir nehmen an, dass der Kandidat jede der drei Türen mit
Wahrscheinlichkeit 1/3 wählt (Laplace-Verteilung).
(a) Der Kandidat wechselt nicht. Dann wählt er eine Tür und hat mit
Wahrscheinlichkeit 1/3 das Auto.
5.3.2 Satz. Wenn man bei seiner Entscheidung bleibt, hat man eine
Gewinnchance von (nur) 1/3.
Wenn man wechselt, gewinnt man mit der Wahrscheinlichkeit 2/3.
Beweis. Wir nehmen an, dass der Kandidat jede der drei Türen mit
Wahrscheinlichkeit 1/3 wählt (Laplace-Verteilung).
(a) Der Kandidat wechselt nicht. Dann wählt er eine Tür und hat mit
Wahrscheinlichkeit 1/3 das Auto.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 46
Das Ziegenproblem: Der Kandidat wechselt die TürDas Ziegenproblem: Der Kandidat wechselt die Tür
(b) Der Kandidat wechselt. Wenn er (mit Wahrscheinlichkeit 1/3) die
Autotür gewählt hat, verliert er.
Mit Wahrscheinlichkeit 2/3 hat er eine Ziegentür gewählt.
Der Showmaster öffnet die andere Ziegentür!
Das heißt: Wechseln bringt den Kandidaten zwangsläufig zur
Autotür!
Literatur: G.v. Randow: Das Ziegenproblem. rororo.
(b) Der Kandidat wechselt. Wenn er (mit Wahrscheinlichkeit 1/3) die
Autotür gewählt hat, verliert er.
Mit Wahrscheinlichkeit 2/3 hat er eine Ziegentür gewählt.
Der Showmaster öffnet die andere Ziegentür!
Das heißt: Wechseln bringt den Kandidaten zwangsläufig zur
Autotür!
Literatur: G.v. Randow: Das Ziegenproblem. rororo.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 47
Das GeburtstagsparadoxDas Geburtstagsparadox
Frage 1: Wie groß muss eine Gruppe von Personen sein, dass die
Wahrscheinlichkeit > ½ ist, dass zwei dieser Personen am gleichen
Tag des Jahres Geburtstag haben?
Frage 1: Wie groß muss eine Gruppe von Personen sein, dass die
Wahrscheinlichkeit > ½ ist, dass zwei dieser Personen am gleichen
Tag des Jahres Geburtstag haben?
Kapitel 5 © Beutelspacher
Dezember 2004Seite 48
Das Geburtstagsparadox IIDas Geburtstagsparadox II
Frage 2: Am 29. 6. 1995 ging folgende Meldung durch die Presse:
„(dpa) Zum ersten Mal in der 40jährigen Geschichte des deutschen
Zahlenlottos wurden zwei identische Gewinnreihen festgestellt. Am
21. Juni dieses Jahres kam im Lotto am Mittwoch in der Ziehung A
die Gewinnreihe 15-25-27-30-42-48 heraus. Genau die selben
Zahlen wurden bei der 1628. Ausspielung im Samstagslotto schon
einmal gezogen, nämlich am 20. Dezember 1986. Welch ein
Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen verschiedene
Sechserreihen möglich.“
Ist das wirklich so unwahrscheinlich?
Frage 2: Am 29. 6. 1995 ging folgende Meldung durch die Presse:
„(dpa) Zum ersten Mal in der 40jährigen Geschichte des deutschen
Zahlenlottos wurden zwei identische Gewinnreihen festgestellt. Am
21. Juni dieses Jahres kam im Lotto am Mittwoch in der Ziehung A
die Gewinnreihe 15-25-27-30-42-48 heraus. Genau die selben
Zahlen wurden bei der 1628. Ausspielung im Samstagslotto schon
einmal gezogen, nämlich am 20. Dezember 1986. Welch ein
Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen verschiedene
Sechserreihen möglich.“
Ist das wirklich so unwahrscheinlich?
Kapitel 5 © Beutelspacher
Dezember 2004Seite 49
Modellierung des GeburtstagsproblemsModellierung des Geburtstagsproblems
Wir stellen uns n Fächer vor. Dies ist die Anzahl aller
Möglichkeiten. Bei den Geburtstagen ist n = 365 (Anzahl der
möglichen Geburtstage). Beim Lotto ist n 14 Millionen (Anzahl der
möglichen Ziehungen).
Nun werden die Fächer sukzessiv zufällig besetzt.
Frage: Wann wird das erste Fach doppelt besetzt, d.h. wann tritt die
erste Kollision auf ?
Xn = Zeitpunkt der ersten Kollision beim sukzessiven, rein zufälligen
Besetzen von n Fächern.
Wir stellen uns n Fächer vor. Dies ist die Anzahl aller
Möglichkeiten. Bei den Geburtstagen ist n = 365 (Anzahl der
möglichen Geburtstage). Beim Lotto ist n 14 Millionen (Anzahl der
möglichen Ziehungen).
Nun werden die Fächer sukzessiv zufällig besetzt.
Frage: Wann wird das erste Fach doppelt besetzt, d.h. wann tritt die
erste Kollision auf ?
Xn = Zeitpunkt der ersten Kollision beim sukzessiven, rein zufälligen
Besetzen von n Fächern.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 50
Ergebnis zum GeburtstagsparadoxErgebnis zum Geburtstagsparadox
5.3.3 Satz. P(Xn k+1) = n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur (k+1)-ten Belegung
noch keine Kollision aufgetreten ist.
Beweis. Wir gehen davon aus, dass alle Belegungen der Fächer mit
k Objekten gleichwahrscheinlich ist (Laplace-Modell).
Dann ist n(n–1)(n–2)...(n–k+1) die Anzahl der Belegungen ohne
Kollision und nk ist die Anzahl aller Belegungen.
Die Aussage des Satz ergibt sich jetzt durch Satz 5.3.1
(„Wahrscheinlichkeit = Anzahl der günstigen Fälle durch Anzahl der
möglichen Fälle“).
5.3.3 Satz. P(Xn k+1) = n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur (k+1)-ten Belegung
noch keine Kollision aufgetreten ist.
Beweis. Wir gehen davon aus, dass alle Belegungen der Fächer mit
k Objekten gleichwahrscheinlich ist (Laplace-Modell).
Dann ist n(n–1)(n–2)...(n–k+1) die Anzahl der Belegungen ohne
Kollision und nk ist die Anzahl aller Belegungen.
Die Aussage des Satz ergibt sich jetzt durch Satz 5.3.1
(„Wahrscheinlichkeit = Anzahl der günstigen Fälle durch Anzahl der
möglichen Fälle“).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 51
Folgerung und AnwendungenFolgerung und Anwendungen
5.3.4 Folgerung. P(Xn k) = 1 – n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur k-ten Belegung
mindestens eine Kollision aufgetreten ist.
Beispiel 1: n = 365. P(Xn 22) 0,4757; P(Xn 23) 0,5073;
P(Xn 26) 0,5982; P(Xn 40) 0,8912; P(Xn 60) 0,99412.
D.h.: Bei 60 Personen ist die Wahrscheinlichkeit über 99%, dass
zwei am gleichen Tag Geburtstag haben.
Beispiel 2: n = 13983816. P(Xn 3500) 0,3546; P(Xn 4500)
0,5152; P(Xn 5500) 0,6609; P(Xn 6500) 0,7792.
5.3.4 Folgerung. P(Xn k) = 1 – n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur k-ten Belegung
mindestens eine Kollision aufgetreten ist.
Beispiel 1: n = 365. P(Xn 22) 0,4757; P(Xn 23) 0,5073;
P(Xn 26) 0,5982; P(Xn 40) 0,8912; P(Xn 60) 0,99412.
D.h.: Bei 60 Personen ist die Wahrscheinlichkeit über 99%, dass
zwei am gleichen Tag Geburtstag haben.
Beispiel 2: n = 13983816. P(Xn 3500) 0,3546; P(Xn 4500)
0,5152; P(Xn 5500) 0,6609; P(Xn 6500) 0,7792.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 52
Zeitpunkt der ersten KollisionZeitpunkt der ersten Kollision
5.3.5 Satz. Bei einer sukzessiven, rein zufälligen Besetzung von n
Fächer ist der Zeitpunkt der ersten Kollision etwa n.
5.3.5 Satz. Bei einer sukzessiven, rein zufälligen Besetzung von n
Fächer ist der Zeitpunkt der ersten Kollision etwa n.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 53
5.4 Der Erwartungswert5.4 Der Erwartungswert
Mit dem Begriff des Erwartungswerts kann man u.a. Probleme des
folgenden Typs lösen:
Sie spielen folgendes Spiel: Sie werfen eine Münze 4 mal. Wenn
jedesmal Kopf erscheint, gewinnen Sie 20 Euro, wenn in genau 3
Würfen Kopf erscheint, gewinnen Sie 10 Euro.
Der Einsatz pro Spiel beträgt 4 Euro.
Würden Sie ein solches Spiel auf Dauer spielen?
Mit dem Begriff des Erwartungswerts kann man u.a. Probleme des
folgenden Typs lösen:
Sie spielen folgendes Spiel: Sie werfen eine Münze 4 mal. Wenn
jedesmal Kopf erscheint, gewinnen Sie 20 Euro, wenn in genau 3
Würfen Kopf erscheint, gewinnen Sie 10 Euro.
Der Einsatz pro Spiel beträgt 4 Euro.
Würden Sie ein solches Spiel auf Dauer spielen?
Kapitel 5 © Beutelspacher
Dezember 2004Seite 54
Allgemeinere FragestellungAllgemeinere Fragestellung
Wir stellen uns ein Glücksrad vor mit den Sektoren 1, 2, ..., s.
Wenn der Zeiger im Sektor i stehen bleibt, erhält man den Gewinn
X(i).
Wir spielen das Spiel n mal. Dabei bleibt der Zeiger h1 mal im
Sektor 1, h2 mal im Sektor 2, ..., hs mal im Sektor s stehen.
Dann ist die durchschnittliche Auszahlung pro Spiel gleich
( h1 X(1) + h2 X(2) +...+ hs X(s) ) / n
= X(1) h1/n + X(2) h2/n +...+ X(s) hs/n .
Wir stellen uns ein Glücksrad vor mit den Sektoren 1, 2, ..., s.
Wenn der Zeiger im Sektor i stehen bleibt, erhält man den Gewinn
X(i).
Wir spielen das Spiel n mal. Dabei bleibt der Zeiger h1 mal im
Sektor 1, h2 mal im Sektor 2, ..., hs mal im Sektor s stehen.
Dann ist die durchschnittliche Auszahlung pro Spiel gleich
( h1 X(1) + h2 X(2) +...+ hs X(s) ) / n
= X(1) h1/n + X(2) h2/n +...+ X(s) hs/n .
Kapitel 5 © Beutelspacher
Dezember 2004Seite 55
Definition ErwartungswertDefinition Erwartungswert
Wenn man (für großes n) die relative Häufigkeit hi/n durch die
Wahrscheinlichkeit p(i) beschreibt, wird der vorige Ausdruck zu:
X(1) p(1) + X(2) p(2) +...+ X(s) p(s) .
Das ist die auf lange Sicht erwartete Auszahlung pro Spiel.
Definition. Sei = {1, 2, ..., s} ein endlicher Grundraum mit
Wahrscheinlichkeitsverteilung P, und sei X eine Zufallsvariable.
Dann nennt man die Zahl
E(X) = X(1) p(1) + X(2) p(2) +...+ X(s) p(s)
den Erwartungswert der Zufallsvariablen X.
Wenn man (für großes n) die relative Häufigkeit hi/n durch die
Wahrscheinlichkeit p(i) beschreibt, wird der vorige Ausdruck zu:
X(1) p(1) + X(2) p(2) +...+ X(s) p(s) .
Das ist die auf lange Sicht erwartete Auszahlung pro Spiel.
Definition. Sei = {1, 2, ..., s} ein endlicher Grundraum mit
Wahrscheinlichkeitsverteilung P, und sei X eine Zufallsvariable.
Dann nennt man die Zahl
E(X) = X(1) p(1) + X(2) p(2) +...+ X(s) p(s)
den Erwartungswert der Zufallsvariablen X.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 56
BeispieleBeispiele
Beispiel 1: einfaches Würfeln. Sei X() die Augenzahl beim Wurf .
Dann ist
E(X) = 1 1/6 + 2 1/6 + 3 1/6 + 4 1/6 + 5 1/6 + 6 1/6 = 3,5.
Beispiel 2: Eingangsbeispiel. Wir fassen = {0,1}4 als
Laplaceschen Wahrscheinlichkeitsraum auf, d.h. jedes
Elementarereignis hat Wahrscheinlichkeit 1/16.
X() ist der Gewinn bzw. Verlust (= Auszahlung – Einzahlung).
Dann ist einmal X() = 16 (= 20–4), viermal X() = 6 (= 10–4),
sonst X() = –4.
Also E(X) = (1 16 + 4 6 + 11 –4) / 16 = – ¼.
Beispiel 1: einfaches Würfeln. Sei X() die Augenzahl beim Wurf .
Dann ist
E(X) = 1 1/6 + 2 1/6 + 3 1/6 + 4 1/6 + 5 1/6 + 6 1/6 = 3,5.
Beispiel 2: Eingangsbeispiel. Wir fassen = {0,1}4 als
Laplaceschen Wahrscheinlichkeitsraum auf, d.h. jedes
Elementarereignis hat Wahrscheinlichkeit 1/16.
X() ist der Gewinn bzw. Verlust (= Auszahlung – Einzahlung).
Dann ist einmal X() = 16 (= 20–4), viermal X() = 6 (= 10–4),
sonst X() = –4.
Also E(X) = (1 16 + 4 6 + 11 –4) / 16 = – ¼.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 57
Satz über den ErwartungswertSatz über den Erwartungswert
5.4.1 Satz. Seien X, Y Zufallsvariablen auf ,
und sei A ein Ereignis.
Dann gelten die folgenden Aussagen:
(a) E(X + Y) = E(X) + E(Y) („Additivität“).
(b) E(aX) = a E(X) („Homogenität“).
(c) Wenn X Y (das bedeutet X() Y() für alle ), dann
gilt auch E(X) E(Y) („Monotonie“). (d) E( IA) = P(A).
5.4.1 Satz. Seien X, Y Zufallsvariablen auf ,
und sei A ein Ereignis.
Dann gelten die folgenden Aussagen:
(a) E(X + Y) = E(X) + E(Y) („Additivität“).
(b) E(aX) = a E(X) („Homogenität“).
(c) Wenn X Y (das bedeutet X() Y() für alle ), dann
gilt auch E(X) E(Y) („Monotonie“). (d) E( IA) = P(A).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 58
Beweis (a)Beweis (a)
Beweis. (a) Es gilt
E(X + Y)
= (X+Y)(1) p(1) + (X+Y)(2) p(2) +...+ (X+Y)(s) p(s)
= X(1) p(1) + X(2) p(2) +...+ X(s) p(s)
+ Y(1) p(1) + Y(2) p(2) +...+ Y(s) p(s)
= E(X) + E(Y).
(b) und (c) werden ganz entsprechend bewiesen (ÜA).
Beweis. (a) Es gilt
E(X + Y)
= (X+Y)(1) p(1) + (X+Y)(2) p(2) +...+ (X+Y)(s) p(s)
= X(1) p(1) + X(2) p(2) +...+ X(s) p(s)
+ Y(1) p(1) + Y(2) p(2) +...+ Y(s) p(s)
= E(X) + E(Y).
(b) und (c) werden ganz entsprechend bewiesen (ÜA).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 59
Beweis (d)Beweis (d)
(d) Sei A = {1, 2, ..., t}.
Nach Definition ist IA(i) = 1 für i t (d.h. ) und = 0 sonst.
Also
E(IA) = 1 p(1) + 1 p(2) +...+ 1 p(t)
= p(1) + p(2) +...+ p(t) = P(A).
(d) Sei A = {1, 2, ..., t}.
Nach Definition ist IA(i) = 1 für i t (d.h. ) und = 0 sonst.
Also
E(IA) = 1 p(1) + 1 p(2) +...+ 1 p(t)
= p(1) + p(2) +...+ p(t) = P(A).
Kapitel 5 © Beutelspacher
Dezember 2004Seite 60
FolgerungFolgerung
5.4.2 Folgerung. Seien X, Y, Z, ... Zufallsvariablen auf . Dann gilt
E(X + Y + Z + ...) = E(X) + E(Y) + E(Z) + ...
Beweis. Wir führen den Beweis für drei Zufallsvariablen X, Y, Z.
Wir wenden zwei Mal 5.4.1 (a) an und erhalten:
E(X + Y + Z) = E( (X+Y) + Z) = E(X+Y) + E(Z) = E(X) + E(Y) + E(Z).
Im allgemeinen beweist man dies mit Induktion nach der Anzahl n
der Zufallsvariablen.
5.4.2 Folgerung. Seien X, Y, Z, ... Zufallsvariablen auf . Dann gilt
E(X + Y + Z + ...) = E(X) + E(Y) + E(Z) + ...
Beweis. Wir führen den Beweis für drei Zufallsvariablen X, Y, Z.
Wir wenden zwei Mal 5.4.1 (a) an und erhalten:
E(X + Y + Z) = E( (X+Y) + Z) = E(X+Y) + E(Z) = E(X) + E(Y) + E(Z).
Im allgemeinen beweist man dies mit Induktion nach der Anzahl n
der Zufallsvariablen.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 61
Erwartungswert einer ZählvariableErwartungswert einer Zählvariable
5.4.3 Satz. Seien A, B, C, ... Ereignisse (d.h. A, B, C ), und sei
X die entsprechende Zählvariable, d.h.
X = IA + IB + IC + ...
Dann gilt
E(X) = P(A) + P(B) + P(C) + ...
Wenn die Ereignisse A, B, C, die gleiche Wahrscheinlichkeit p
besitzen, so ist
E(X) = n p,
wobei n die Anzahl der betrachteten Ereignisse ist.
5.4.3 Satz. Seien A, B, C, ... Ereignisse (d.h. A, B, C ), und sei
X die entsprechende Zählvariable, d.h.
X = IA + IB + IC + ...
Dann gilt
E(X) = P(A) + P(B) + P(C) + ...
Wenn die Ereignisse A, B, C, die gleiche Wahrscheinlichkeit p
besitzen, so ist
E(X) = n p,
wobei n die Anzahl der betrachteten Ereignisse ist.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 62
BeweisBeweis
Beweis. Nach 5.4.1 (d) gilt
E(IA) = P(A), E(IB) = P(B), E(IC) = P(C), ...
Nach 5.4.2 gilt
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ...
Zusammen folgt die Behauptung:
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... = P(A) + P(B) + P(C) + ...
Beweis. Nach 5.4.1 (d) gilt
E(IA) = P(A), E(IB) = P(B), E(IC) = P(C), ...
Nach 5.4.2 gilt
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ...
Zusammen folgt die Behauptung:
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... = P(A) + P(B) + P(C) + ...
Kapitel 5 © Beutelspacher
Dezember 2004Seite 63
BeispielBeispiel
Wir betrachten die Menge aller Permutationen der Menge {1, ..., n}.
Definition. Eine Permutation hat den Fixpunkt j, falls (j) = j ist.
5.4.4 Hilfssatz. (a) Es gibt genau (n–1)! Permutationen mit dem
Fixpunkt j.
(b) Die Wahrscheinlichkeit, dass eine zufällig ausgewählte
Permutation den Fixpunkt j hat, ist 1/n.
Beweis. (a) Jede Permutation mit Fixpunkt j kann auf den
restlichen n–1 Elementen eine beliebige Permutation sein.
(b) Insgesamt gibt es n! Permutationen, also ist der Anteil der
Permutationen mit Fixpunkt j genau 1/n.
Wir betrachten die Menge aller Permutationen der Menge {1, ..., n}.
Definition. Eine Permutation hat den Fixpunkt j, falls (j) = j ist.
5.4.4 Hilfssatz. (a) Es gibt genau (n–1)! Permutationen mit dem
Fixpunkt j.
(b) Die Wahrscheinlichkeit, dass eine zufällig ausgewählte
Permutation den Fixpunkt j hat, ist 1/n.
Beweis. (a) Jede Permutation mit Fixpunkt j kann auf den
restlichen n–1 Elementen eine beliebige Permutation sein.
(b) Insgesamt gibt es n! Permutationen, also ist der Anteil der
Permutationen mit Fixpunkt j genau 1/n.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 64
Die Wahrscheinlichkeit für einen Fixpunkt Die Wahrscheinlichkeit für einen Fixpunkt
5.4.5 Satz. Die Zufallsvariable X beschreibe die Anzahl der
Fixpunkte einer zufällig gewählten Permutation. Dann gilt: E(X)=1.
Mit anderen Worten: Wenn man eine Permutation rein zufällig
aussucht, hat diese im Mittel genau einen Fixpunkt.
Beweis. Wir betrachten den Grundraum aller Permutationen und
gehen davon aus, dass alle die gleiche Wahrscheinlichkeit haben.
Das Ereignis Aj „eine Permutation hat den Fixpunkt j“ hat nach
5.4.4 die Wahrscheinlichkeit 1/n.
Dies gilt für alle j {1, ..., n}, also folgt nach 5.4.3 für die
Zählvariable X („es tritt einer der Fixpunkte 1, 2, ..., n auf“)
E(X) = P(A1) + P(A2) + ... + P(An) = n1/n = 1.
5.4.5 Satz. Die Zufallsvariable X beschreibe die Anzahl der
Fixpunkte einer zufällig gewählten Permutation. Dann gilt: E(X)=1.
Mit anderen Worten: Wenn man eine Permutation rein zufällig
aussucht, hat diese im Mittel genau einen Fixpunkt.
Beweis. Wir betrachten den Grundraum aller Permutationen und
gehen davon aus, dass alle die gleiche Wahrscheinlichkeit haben.
Das Ereignis Aj „eine Permutation hat den Fixpunkt j“ hat nach
5.4.4 die Wahrscheinlichkeit 1/n.
Dies gilt für alle j {1, ..., n}, also folgt nach 5.4.3 für die
Zählvariable X („es tritt einer der Fixpunkte 1, 2, ..., n auf“)
E(X) = P(A1) + P(A2) + ... + P(An) = n1/n = 1.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 65
StichprobenStichproben
Problem: Eine Urne enthält r rote und s schwarze Kugeln.
Aus der Urne werden nacheinander zufällig n Kugeln gezogen.
Frage: Wie groß ist die Wahrscheinlichkeit, dass diese Stichprobe
genau k rote Kugeln enthält?
Anwendung: Rote Kugeln entsprechen defekten Teilen einer
Warenlieferung. Man möchte aufgrund der Stichprobe Rückschlüsse
auf die Gesamtzahl der defekten Teile ziehen.
Problem: Eine Urne enthält r rote und s schwarze Kugeln.
Aus der Urne werden nacheinander zufällig n Kugeln gezogen.
Frage: Wie groß ist die Wahrscheinlichkeit, dass diese Stichprobe
genau k rote Kugeln enthält?
Anwendung: Rote Kugeln entsprechen defekten Teilen einer
Warenlieferung. Man möchte aufgrund der Stichprobe Rückschlüsse
auf die Gesamtzahl der defekten Teile ziehen.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 66
ModellierungModellierung
Wir nummerieren die Kugeln: 1, ...., r+s.
Dabei seien die Kugeln 1, ..., r die roten Kugeln,
also die Kugeln r+1, ..., r+s die schwarzen.
Als Ergebnisraum bietet sich an:
= {(a1, a2,..., an) ai {1, ..., r+s}, ai aj},
wobei ai die Nummer der i-ten gezogenen Kugel ist.
Dann ist = (r+s)(r+s–1) ... (r+s–n+1).
(Für die erste Kugel stehen r+s Werte zur Verfügung, für die zweite
nur noch r+s–1. Usw. für die n-te nur noch r+s–n+1.)
Wir nummerieren die Kugeln: 1, ...., r+s.
Dabei seien die Kugeln 1, ..., r die roten Kugeln,
also die Kugeln r+1, ..., r+s die schwarzen.
Als Ergebnisraum bietet sich an:
= {(a1, a2,..., an) ai {1, ..., r+s}, ai aj},
wobei ai die Nummer der i-ten gezogenen Kugel ist.
Dann ist = (r+s)(r+s–1) ... (r+s–n+1).
(Für die erste Kugel stehen r+s Werte zur Verfügung, für die zweite
nur noch r+s–1. Usw. für die n-te nur noch r+s–n+1.)
Kapitel 5 © Beutelspacher
Dezember 2004Seite 67
Fortsetzung ModellierungFortsetzung Modellierung
Wir stellen uns vor, dass es sich um einen Laplaceschen
Wahrscheinlichkeitsraum handelt (die Ziehungen erfolgen rein
zufällig!). Daher gilt für jedes Ereignis A :
P(A) = A / = A / (r+s)(r+s–1)...(r+s–n+1).
Die Teilmenge
Aj = {(a1, a2,..., an) aj r}
beschreibt genau das Ereignis „die j-te Kugel ist rot“.
Wir stellen uns vor, dass es sich um einen Laplaceschen
Wahrscheinlichkeitsraum handelt (die Ziehungen erfolgen rein
zufällig!). Daher gilt für jedes Ereignis A :
P(A) = A / = A / (r+s)(r+s–1)...(r+s–n+1).
Die Teilmenge
Aj = {(a1, a2,..., an) aj r}
beschreibt genau das Ereignis „die j-te Kugel ist rot“.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 68
Die Wahrscheinlichkeit dafür, dass die j-te Kugel rot istDie Wahrscheinlichkeit dafür, dass die j-te Kugel rot ist
5.4.6 Hilfssatz. P(Aj) = r/(r+s) für alle j.
Mit anderen Worten: Die Ereignisse A1, A2, ..., An haben alle die
gleiche Wahrscheinlichkeit.
1. Beweis. Jede der r+s Kugeln hat die gleiche Wahrscheinlichkeit,
als j-te gezogen zu werden.
Dafür, dass diese rot ist, gibt es r Möglichkeiten.
2. Beweis. Wie viele Möglichkeiten gibt es, n Kugeln zu ziehen, so
dass die j-te rot ist? Dazu legen wir zuerst die j-te fest (r Möglichkt.).
Die anderen n–1 Kugeln sind beliebig.
Also ist die Gesamtzahl r(r+s–1) ... (r+s–n+1).
Mit = (r+s)(r+s–1)...(r+s–n+1) folgt die Behauptung.
5.4.6 Hilfssatz. P(Aj) = r/(r+s) für alle j.
Mit anderen Worten: Die Ereignisse A1, A2, ..., An haben alle die
gleiche Wahrscheinlichkeit.
1. Beweis. Jede der r+s Kugeln hat die gleiche Wahrscheinlichkeit,
als j-te gezogen zu werden.
Dafür, dass diese rot ist, gibt es r Möglichkeiten.
2. Beweis. Wie viele Möglichkeiten gibt es, n Kugeln zu ziehen, so
dass die j-te rot ist? Dazu legen wir zuerst die j-te fest (r Möglichkt.).
Die anderen n–1 Kugeln sind beliebig.
Also ist die Gesamtzahl r(r+s–1) ... (r+s–n+1).
Mit = (r+s)(r+s–1)...(r+s–n+1) folgt die Behauptung.
Kapitel 5 © Beutelspacher
Dezember 2004Seite 69
Die hypergeometrische VerteilungDie hypergeometrische Verteilung
Die Zufallsvariable X = IA1 + IA2 + ... + IAn beschreibt die Anzahl der roten
Kugeln beim n-maligen Ziehen ohne Zurücklegen.
Die Verteilung (d.h. die Wahrscheinlichkeiten P(X = k)) dieser
Zufallsvariablen heißt die hypergeometrische Verteilung.
5.4.7 Satz. (a) E(X) = nr/(r+s).
(b) P(X=k) =
Die Zufallsvariable X = IA1 + IA2 + ... + IAn beschreibt die Anzahl der roten
Kugeln beim n-maligen Ziehen ohne Zurücklegen.
Die Verteilung (d.h. die Wahrscheinlichkeiten P(X = k)) dieser
Zufallsvariablen heißt die hypergeometrische Verteilung.
5.4.7 Satz. (a) E(X) = nr/(r+s).
(b) P(X=k) =
n
srkn
s
k
r
Kapitel 5 © Beutelspacher
Dezember 2004Seite 70
BeweisBeweis
Beweis. (a) folgt aus 5.4.2.
(b) (X = k) bedeutet, dass genau k der Ereignisse A1, ..., An eintreten.
Wir zählen die Anzahl dieser Möglichkeiten:
Es gibt Möglichkeiten für die Stellen, an denen die roten Kugeln stehen.
Diese werden durch verschiedene Nummern r besetzt.
Dafür gibt es r(r–1)...(r–k+1) Möglichkeiten.
Nun werden die restlichen n–k Stellen aus dem Bereich der schwarzen
Kugeln ausgewählt. Dafür gibt es s(s–1)...(s–(n–k)+1) Möglichkeiten.
Multiplizieren, durch teilen, ausrechnen!
Beweis. (a) folgt aus 5.4.2.
(b) (X = k) bedeutet, dass genau k der Ereignisse A1, ..., An eintreten.
Wir zählen die Anzahl dieser Möglichkeiten:
Es gibt Möglichkeiten für die Stellen, an denen die roten Kugeln stehen.
Diese werden durch verschiedene Nummern r besetzt.
Dafür gibt es r(r–1)...(r–k+1) Möglichkeiten.
Nun werden die restlichen n–k Stellen aus dem Bereich der schwarzen
Kugeln ausgewählt. Dafür gibt es s(s–1)...(s–(n–k)+1) Möglichkeiten.
Multiplizieren, durch teilen, ausrechnen!
k
n