Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
Statistik
Institut fur angewandte Statistik & EDV
Universitat fur Bodenkultur Wien
Sommersemester 2012
3 Wahrscheinlichkeitsrechnung
Große von Unendlich
Enthalt die Menge
1. der naturlichen Zahlen N = {1,2,3,4, . . .}
2. aller reellen Zahlen im Intervall [0,1]
mehr Elemente? Gibt es verschiedene Arten von Unendlich?
1
Große von Unendlich
0.0
0.2
0.4
0.6
0.8
1.0
Gesamt
1/1
1/2
1/3
1/41/51/6
●
●
●
usw.
2
Große von Unendlich
Es gibt zwei Arten von”
unendlich“:
Abzahlbar unendlich: Elemente konnen”
durchnummeriert“ werden.
Es gibt eine eindeutige Abbildung, die jedem Element der Menge
eine naturliche Zahl zuordnet.
Uberabzahlbar unendlich: Die naturlichen Zahlen reichen nicht aus,
um jedem Element der Menge eine Nummer zuzuordnen.
Die bekanntesten Beispiele fur uberabzahlbare Mengen sind die reellen
Zahlen R und alle Teilintervalle [a, b] ⊂ R mit a < b.
3
3.1 Wahrscheinlichkeit
Klassische Wahrscheinlichkeitsdefinition
Merkmalsraum M = {ω1, ω2, . . . , ωm}Ereignis E = {ωi1, ωi2, . . . , ωig} ⊂M
P ({ω1}) = P ({ω2}) = . . . = P ({ωm}) = p =1
m
⇒ P (E) =g
m=
”Anzahl der gunstigen Falle”
”Anzahl der moglichen Falle”
Statistik 2012: 3.1 Wahrscheinlichkeit 5
Beispiel: 1 Wurfel
Merkmalsraum M = {1,2,3,4,5,6} m = 6
Ergebnis”
ungerade Augenzahl“
E = {1,3,5} ⊂M g = 3
⇒ P (E) =3
6= 0.5
Statistik 2012: 3.1 Wahrscheinlichkeit 6
Beispiel: 2 Wufel
Merkmalsraum M = {(1,1), (1,2), . . . , (1,6), (2,1), . . . ,
. . . , (2,6), . . . , (6,1), . . . , (6,6)} m = 36
Ereignis E = {(1,1), (1,2), (1,3), (2,1), (2,2), (3,1)} g = 6
⇒ P (E) =6
36=
1
6= 0.167
Statistik 2012: 3.1 Wahrscheinlichkeit 7
Relative Haufigkeiten
Was passiert, wenn wir oft wurfeln?
• empirisches Gesetz der großen Zahlen
hr;n(E)n→∞−→
”Grenzwert“ (Wahrscheinlichkeit)
• (relative) Haufigkeit:
H1) 0 ≤ hr(E) ≤ 1 fur alle E ∈ E,
H2) hr(∅) = 0 und hr(M) = 1,
H3) E1, E2 ∈ E und E1 ∩ E2 = ∅ (E1 und E2 ”schließen einander
aus“)
⇒ hr(E1 ∪ E2) = hr(E1) + hr(E2) (Additivitat)
Statistik 2012: 3.1 Wahrscheinlichkeit 8
Relative Haufigkeiten
• Wahrscheinlichkeit:
P1) 0 ≤ P (E) ≤ 1 fur alle E ∈ E,
P2) P (∅) = 0 und P (M) = 1,
P3)
E1, E2, . . . ∈ EEi ∩ Ej = ∅ fur alle i 6= j
}⇒
⇒ P (E1 ∪ E2 ∪ . . .) = P (∞⋃
i=1
Ei) =∞∑
i=1
P (Ei)
(σ–Additivitat, abzahlbare Additivitat)
Statistik 2012: 3.1 Wahrscheinlichkeit 9
Relative Haufigkeiten
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.......
.......
.......
.......
...............................................................................................
.......................
...............................
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..................................................................................................................................................................................... .......
.......
.......
.......
...............................................................................................
.......................
...............................
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.....................................................................................................................................................................................
.......
.......
.......
..............................................................................
.......................
........................................
.............................................................................................................................................................................................................................................................................................................................................................................................................................................
.............................................................................................................................
a) b)M M
E E1E2
E1 ∩ E2
........................................................................................
a) Gegenwahrscheinlichkeit
P (Ec) = 1− P (E)
b) Additionssregel 2 Ereignisse
P (E1 ∪ E2) = P (E1) + P (E2)− P (E1 ∩ E2)
Statistik 2012: 3.1 Wahrscheinlichkeit 10
Relative Haufigkeiten
• Additionsregel k Ereignisse
P (E1 ∪ E2 ∪ . . . ∪ Ek) =
= P (E1) + P (E2) + . . .+ P (Ek)
−P (E1 ∩ E2)− P (E1 ∩ E3)− . . .− P (Ek−1 ∩ Ek)
+P (E1 ∩ E2 ∩ E3) + . . .+ P (Ek−2 ∩ Ek−1 ∩ Ek)
. . .
=k∑
l=1
(−1)l+1 ∑
{i1,...,il}⊂{1,...,k}P (Ei1 ∩ Ei2 ∩ . . . ∩ Eil)
Statistik 2012: 3.1 Zufallige Großen 11
3.2 Zufallige Großen
Zufallige Großen
In der Statistik werden numerische Merkmale durch sogenannte
Zufallsvariablen (zufallige Großen, ZG) X modelliert:
diskret: Wertebereich ist endliche Menge von Zahlen oder hochstens
abzahlbar unendlich (naturliche Zahlen, ganze Zahlen, . . . ):
{x1, x2, . . .}
stetig: Wertebereich ist uberabzahlbar unendlich, z.B. Intervall oder
reelle Zahlen.
Statistik 2012: 3.2 Zufallige Großen 13
Zufallige Großen
• Merkmalsraum MX
Wahrscheinlichkeitsverteilung PX der ZG X
Beispiel:
a) Wurfeln: MX = {1,2,3,4,5,6}, PX =?
b) Rundungsfehler: MX = (−0.5,0.5], PX =?
Statistik 2012: 3.2 Zufallige Großen 14
Verteilungsfunktion
Verteilungsfunktion (VF) FX einer ZG X (engl. cumulative distributionfunction)
FX(x) := PX((−∞, x]) = P (X ≤ x) fur x ∈ R
Es gilt:
VF 1) 0 ≤ FX(x) ≤ 1 ∀x ∈ R;
VF 2) FX ist monoton wachsend mit
limx→−∞ FX(x) = 0 und lim
x→∞ FX(x) = 1 ;
VF 3) PX((a, b]) = P (a < X ≤ b) = FX(b)−FX(a) fur −∞ < a ≤ b <∞.
Statistik 2012: 3.2 Zufallige Großen 15
Diskrete Zufallsgroßen
• es gibt hochstens abzahlbar unendlich viele Werte fur X
MX = {x1, x2, . . .}
• Wahrscheinlichkeitsfunktion (W-Fkt)
pX(xi) = P (X = xi)
• ∑xi∈MXpX(xi) = 1
Statistik 2012: 3.2 Zufallige Großen 16
Beispiel
• Wurfeln mit 2 Wurfeln
• X: Augensumme
• MX = {2,3, . . . ,11,12}
• W-Fkt
i 2 3 4 5 6 712 11 10 9 8
pX(i) 1/36 2/36 3/36 4/36 5/36 6/36
• pX(5) = P (X = 5) = P ({(1-4), (2-3), (3-2), (4-1)}) = 4/36
Statistik 2012: 3.2 Zufallige Großen 17
Stetige Zufallsgroße
• X kann (alle) Werte aus einem Kontinuum (z.B. Intervall) annehmen• Da es uberabzahlbar viele Punkte gibt, gilt fur alle Punkte x aus dem
Wertebereich von X
P (X = x) = 0
Nur intervalle haben positive Wahrscheinlichkeiten.• Dichtefunktion (DF):
nichtnegative Funktion fX : R→ R+• Es gilt:
P (a < X ≤ b) =∫ bafX(x) dx,
∫ ∞−∞
fX(x) dx = 1
PX((a, b])
a b x
.......................................................................................................................................................................................................................................................................................................................................................................................................................................
...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
...
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
..
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
....
.....
.....
.....
.....
.....
.....
.....
....
..............................
..............................
..............................
..............................
..............................
..............................
..............................
...............
..............................
..............................
..............................
..............................
...................................................................................................................................................................................................................................................................................
Statistik 2012: 3.2 Zufallige Großen 18
Stetige Zufallsgroße
• Beispiel:
– Digital-Waage: X . . . Gewicht – Anzeige (in kg)
– DF
−0.5 0.0 0.5
1.0
fX(x)
x................................................................................................................................. .................................................................................................................................
...........................................................................................................................................................................................................................................................................................................................................................................................................................................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
.............
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
................
.............
Statistik 2012: 3.2.1 Beispiel 19
3.3 Momente von Zufallsgroßen
Erwartungswert
E(X) = µX =
∑xi∈MX
xi pX(xi) falls X diskret
∫∞−∞ x fX(x) dx falls X stetig
Statistik 2012: 3.3 Momente von Zufallsgroßen 21
Varianz
• durchschnittliche quadratische Abweichung von µX
σ2X = Var(X) = E((X−µX)2) =
∑xi∈MX
(xi − µX)2 pX(xi) diskret
∫∞−∞(x− µX)2 fX(x) dx stetig
• Verschiebungssatz
σ2X = E(X2)− (E(X))2
Statistik 2012: 3.3 Verteilungen 22
3.4 Verteilungen
Diskrete Verteilungen
Diskrete Gleichverteilung: Mogliche Ereignisse x1, . . . , xm (Munze,
Wurfel, . . . ): X ∼ D(m)
P{X = xi} =1
m
Binomialverteilung: X Treffer mit Wahrscheinlichkeit p in Stichprobe
vom Umfang n: X ∼ Bi(n, p)
P{X = k} =(nk
)pk(1− p)n−k, EX = np, Var(X) = np(1− p)
Poissonverteilung: Modellierung von gleichverteilten Zeitpunkten,
Standort von Pflanzen, . . . : X ∼ Po(µ)
P{X = k} =µke−µ
k!, EX = µ, Var(X) = µ
Statistik 2012: 3.4.1 Diskrete Verteilungen 24
Diskrete Gleichverteilung
1 2 3 4 5 6
0.00
0.05
0.10
0.15
0.20
0.25
Wah
rsch
einl
ichk
eit
Würfel
Statistik 2012: 3.4.1 Diskrete Verteilungen 25
Binomialverteilung
0 1 2 3 4 5 6
0.0
0.1
0.2
0.3
0.4
Wah
rsch
einl
ichk
eit
Bi(6, 0.25)
Statistik 2012: 3.4.1 Diskrete Verteilungen 26
Poissonverteilung
0 5 10 15
0.00
0.05
0.10
0.15
0.20
0.25
0.30
Wah
rsch
einl
ichk
eit Po(2)
Statistik 2012: 3.4.1 Diskrete Verteilungen 27
Stetige Gleichverteilung
Mogliche Werte sind die reellen Zahlen auf dem Intervall [a, b]. Dichte
ist Rechtecksfunktion:
f(x) =
{1b−a, a ≤ x ≤ b0 , sonst
EX =a+ b
2, Var(X) =
(b− a)2
12Analog mehrdimensionale Gleichverteilung auf Rechtecken, Wurfeln
oder allgemeinen Bereichen: Dichte ist immer konstant 1/Flache bzw.
1/Volumen
Statistik 2012: 3.4.2 Stetige Verteilungen 28
Univariate Normalverteilung
Eine stetige Zufallsvariable X heißt normalverteilt,
in Zeichen X ∼ N(µ, σ2), wenn sie die Dichte
f(x) =1
σ√
2πexp
(−(x− µ)2
2σ2
)
besitzt.
E(X) = µ
Var(X) = σ2
Die spezielle Verteilung mit µ = 0 und σ2 = 1 heißt Standardnormalver-
teilung.
Statistik 2012: 3.4.3 Univariate Normalverteilung 29
Univariate Normalverteilung
−4 −2 0 2 4
0.0
0.1
0.2
0.3
0.4
Dic
hte
N(0,1)
N(2,2)
Statistik 2012: 3.4.3 Univariate Normalverteilung 30
Univariate Normalverteilung
−1 0 1 2 3 4 5
0.0
0.1
0.2
0.3
0.4
f(x) =1
2πσ2 exp
−
(x − µ)2
2σ2
Im Bild: µ = 2, σ2 = 1µ
ca. 68% µ ± σ
ca. 95% µ ± 2σ
ca. 99.7% µ ± 3σ
Statistik 2012: 3.4.3 Univariate Normalverteilung 31
Kennzahlen der Normalverteilung
3-σ-Regel:
[µ− σ, µ+ σ]: ca. 68% der Daten
[µ− 2σ, µ+ 2σ]: ca. 95% der Daten
[µ− 3σ, µ+ 3σ]: ca. 99.7% der Daten
Quartile:
1. Quartil x0.25 ≈ µ− 2σ/3
3. Quartil x0.75 ≈ µ+ 2σ/3
IQR dQ =≈ 4σ/3
Standardisieren:
Ist X normalverteilt nach N(µ, σ2), so ist die standardisierte Zufallsgroße
Z =X − µσ
∼ N(0,1)
standardnormalverteilt.
Statistik 2012: 3.4.3 Univariate Normalverteilung 32
Anwendung: Boxplot
1.5 ∗ dQ =3
2∗ 4
3σ = 2σ
Suche Grenze fur”
untypische“ Beobachtungen (Ausreißer)
unterer Whisker:
zu = x0.25 − 1.5dQ ≈ µ−2
3σ − 2σ = µ− 2.66σ
oberer Whisker:
zo = x0.75 + 1.5dQ ≈ µ+2
3σ + 2σ = µ+ 2.66σ
Bei Normalverteilung gilt: [µ − 2.66σ, µ + 2.66σ] enthalt etwas mehr als99% der Daten (exakt 99.234%).
Statistik 2012: 3.4.3 Univariate Normalverteilung 33
Anwendung: Boxplot
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
● ●
●
●
●
●
●
●●
●
● ●●●●
●
●●
●
●●●
●●
●
●
●
●
●
●
●
●
●●
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
−2
02
4
50 Stichproben aus der N(0,1) mit n=100
Statistik 2012: 3.4.3 Univariate Normalverteilung 34
Anwendung: Boxplot
05
1015
20
Häufigkeitsverteilung Anzahl Ausreißer
Anz
ahl B
oxpl
ots
0 1 2 3 4 5 6
beobachtete Häufigkeitenerwartete Häufigkeiten Bi(100, 0.00766)
Statistik 2012: 3.4.3 Univariate Normalverteilung 35
Lognormalverteilung
Eine stetige, nicht-negative Zufallsvariable X heißt logarithmisch
normalverteilt, in Zeichen X ∼ LN(µ, σ2), falls die transformierte
Zufallsvariable Y = log(X) N(µ, σ2)-verteilt ist. Die Dichte von X ist
gegeben durch
f(x) =1
xσ√
2πexp
(−(log(x)− µ)2/2σ2
), x > 0.
E(X) = exp(µ+ σ2/2),
Var(X) = exp(2µ+ σ2) · (exp(σ2)− 1).
Statistik 2012: 3.4.4 Lognormalverteilung 36
Lognormalverteilung
0 1 2 3 4
0.0
0.1
0.2
0.3
0.4
0.5
0.6
Dic
hte
LN(0,1)
Statistik 2012: 3.4.4 Lognormalverteilung 37
Exponentialverteilung
Eine stetige, nicht-negative Zufallsvariable X heißt exponentialverteilt
mit Parameter λ > 0, in Zeichen X ∼ Ex(τ), wenn sie folgende Dichte
besitzt:
f(x) = λ exp(−x/τ), x > 0.
E(X) = τ
Var(X) = τ2
Statistik 2012: 3.4.5 Exponentialverteilung 38
Exponentialverteilung
0 1 2 3 4
0.0
0.2
0.4
0.6
0.8
1.0
Dic
hte
Ex(1)
Statistik 2012: 3.4.5 Exponentialverteilung 39
χ2-Verteilung
Eine stetige, nicht-negative Zufallsvariable X mit Dichte
fX(x) =xf/2−1 e−x/2
Γ(f/2) 2f/2x > 0
heißt χ2-verteilt mit f Freiheitsgraden, in Zeichen X ∼ χ2f .
E(X) = f
Var(X) = 2f
Sind X1, . . . , Xf unabhangig und identisch standardnormalverteilt, so ist
Yf =f∑
i=1
X2i
χ2-verteilt mit f Freiheitsgraden.
Statistik 2012: 3.4.6 χ2-Verteilung 40
χ2-Verteilung
0 2 4 6 8 10
0.00
0.05
0.10
0.15
0.20
0.25
Dic
hte
χ32
χ52
Statistik 2012: 3.4.6 χ2-Verteilung 41
t-Verteilung
Eine stetige Zufallsvariable X heißt t-verteilt mit f Freiheitsgraden, inZeichen X ∼ tf , wenn Sie folgende Dichte besitzt:
f(x) =Γ(f + 1)/2√
fπΓ(f/2)(1 + x2/f)(f+1)/2.
E(X) = 0, f > 1
Var(X) = f/(f − 2), f > 2
Die t1-Verteilung wird auch als Cauchy-Verteilung bezeichnet.
Sind X und Y unabhangig standardnormal- bzw. χ2f-verteilt, so gilt
T =X√Yf
∼ tf .
Statistik 2012: 3.4.7 t-Verteilung 42
t-Verteilung
−4 −2 0 2 4
0.0
0.1
0.2
0.3
0.4
Dic
hte
t15
t5
N(0,1)
Statistik 2012: 3.4.7 t-Verteilung 43
F-Verteilung
Sind X1 und X2 unabhangig χ2n- bzw. χ2
m-verteilt, so heißt
F =X1/n
X2/m
F-verteilt mit n und m Freiheitsgraden, in Zeichen F ∼ Fn,m.
Statistik 2012: 3.4.8 F-Verteilung 44
F-Verteilung
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Dic
hte
F3,30
F3,3 χ30,3
Statistik 2012: 3.4.8 F-Verteilung 45
Beispiel: Standort von Pflanzen
Standort gleichverteilt auf Flache, im Schnitt µ = 0.5 Pflanzen/m2.Anzahl der Pflanzen auf Teilstuck von 4m2 hat Poissonverteilung mitParameter 4µ = 2 (allgemein: Flache * µ)
P{X ≤ 3} ≈ 0.857 P{X ≤ 6} ≈ 0.995
2 4 6 8 10
12
34
Statistik 2012: 3.4.9 Beispiele 46
Zusammenhange: Beispiel
PKW auf einspuriger Straße:
• Aus Vogelperspektive sind die Autos gleichverteilt auf der Fahrbahn
• Die Anzahl der Autos in Teilabschnitten ist poissonverteilt
(Parameter proportional zu Lange des Abschnittes)
• Pro Zeiteinheit fahren eine poissonverteilte Anzahl von Autos durch
eine Zahlstelle mit Parameter µ, Mittelwert µ.
• Die Zeiten zwischen zwei Autos sind exponentialverteilt, ebenfalls
mit Parameter τ = 1/µ, Mittelwert 1/µ.
Statistik 2012: 3.4.9 Beispiele 47
Zusammenhange: Mathematik
Gegeben sei eine gleichverteilte Stichprobe X der Große n auf dem
Intervall [a, b]. Dann gilt:
1. Die Anzahl der Beobachtungen in jedem Teilintervall [c, d], a ≤ c <
d ≤ b ist annahernd poissonverteilt mit Parameter (d− c) ∗ n/(a− b)falls d− c << b− a.
2. Die Anzahl der Beobachtungen in [c, d] ist exakt poissonverteilt, falls
n nicht fix, sondern eine poissonverteilte Zufallsgroße ist.
3. Die Abstande x(i) − x(i−1) zwischen zwei Werten der geordneten
Stichprobe sind exponentialverteilt mit Parameter τ = (b− a)/n.
Statistik 2012: 3.4.9 Beispiele 48
Weitere Beispiele
• Sind die Zeitpunkte des Auswechselns einer Gluhbirne gleichverteilt
uber die Zeit, so ist die Lebensdauer der Gluhbirne exponenti-
alverteilt, und die Anzahl der verbrauchten Gluhbirnen pro Jahr
poissonverteilt.
• Isolationsfehler je Kupferdrahtspule
• Webfehler je Stoffballen
• Teilchen, die von radioaktiver Substanz je Zeiteinheit emittiert
werden
• Druckfehler je Buchseite
• Zahl der Kunden in einem Geschaft pro Tag
Statistik 2012: 3.4.9 Beispiele 49
3.5 Der zentrale Grenzwertsatz
Eine Frage
Nehmen Sie an, wir befragen
1. 1000 Einwohner Osterreichs,
2. 500 BOKU-StudentInnen, und
3. 100 BOKU-ProfessorInnen,
ob sie Schnitzel oder Pizza bevorzugen. Die Stichproben seien jeweils
zufallig. Uber die kulinarischen Praferenzen welcher Personengruppe
wissen wir dann am besten Bescheid?
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 51
Zentraler Grenzwertsatz
Sind X1, . . . Xn stochastisch unabhangige Zufallsvariablen mit Mittelwert
µ und Varianz σ2, dann konvergiert die Summe
η =n∑
i=1
Xi
fur n → ∞ gegen eine standardnormalverteilte Zufallsvariable mit
Mittelwert µη = nµ und Varianz σ2η = nσ2.
Folgerung (Gesetz der großen Zahlen): Das Mittel
x =1
n
n∑
i=1
xi
einer unabhangig identisch verteilten Stichprobe {x1, . . . , xn} hat
Erwartungswert µ und Varianz σ2/n.
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 52
Zentraler Grenzwertsatz: Wurfel
1 2 3 4 5 6
# Wuerfel = 1
050
100
150
2 3 4 5 6 7 8 9 10 11 12
# Wuerfel = 2
050
100
150
19 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
# Wuerfel = 10
020
4060
80
292 304 313 322 331 340 349 358 367 376 385 394 404
# Wuerfel = 100
050
100
150
200
250
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 53
Bsp: Wurfel
1 2 3 4 5 6
0.10
0.12
0.14
0.16
0.18
0.20
0.22
1 Würfel
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 54
Bsp: Wurfel
2 4 6 8 10 12
Summe 2 Würfel
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 55
Bsp: Wurfel
5 10 15
Summe 3 Würfel
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 56
Bsp: Wurfel
20 30 40 50
Summe 10 Würfel
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 57
Bsp: Wurfel
60 80 100 120
Summe 25 Würfel
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 58
Bsp: Ja/Nein Frage (40% Ja)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1 Antwort
Wah
rsch
einl
ichk
eit
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 59
Bsp: Ja/Nein Frage (40% Ja)
0.0 0.5 1.0 1.5 2.0
0.0
0.2
0.4
0.6
0.8
Summe 2 Antworten
Wah
rsch
einl
ichk
eit
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 60
Bsp: Ja/Nein Frage (40% Ja)
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.0
0.2
0.4
0.6
0.8
Summe 3 Antworten
Wah
rsch
einl
ichk
eit
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 61
Bsp: Ja/Nein Frage (40% Ja)
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
Summe 10 Antworten
Wah
rsch
einl
ichk
eit
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 62
Bsp: Ja/Nein Frage (40% Ja)
0 5 10 15 20 25
0.0
0.2
0.4
0.6
0.8
Summe 25 Antworten
Wah
rsch
einl
ichk
eit
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 63
Bsp: Ja/Nein Frage (40% Ja)
0.0 0.2 0.4 0.6 0.8 1.0
05
1015
2025
Verteilung Prozentsatz Ja
Dic
hte
25 Antworten50 Antworten200 Antworten
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 64
Bedeutung der Normalverteilung
Immer wenn eine Zufallsvariable als additive Uberlagerung vieler
unabhangiger Einflußfaktoren angesehen werden kann, so ist sie
annahernd normalverteilt (oder ein Funktional davon).
Typische Beispiele:
• Messungen (Schwankungen der gemessenen Werte, Fehler der
Instrumente, . . . ), egal ob an biologischen oder technischen
Objekten
• Preise in effizienten Markten (Angebot und Nachfrage durch viele
unabhangige Marktteilnehmer) → log-Normalverteilung
• Prozentwerte
Statistik 2012: 3.5 Der zentrale Grenzwertsatz 65
Welche Verteilung?
Manche Verteilungen ergeben sich”
naturlich“ aus der Anwendung:
• Diskrete Verteilungen aus Kombinatorik (Binomial-, Gleich-VT)
• Exponential und Poisson aus Gleichverteilungsannahmen
• Normalverteilung wegen ZGWS
• Prufverteilungen (t, F , χ2) als Funktion der Normalverteilung
In jedem Fall mussen vor einer entsprechenden Analyse etwaige
Verteilungsannahmen gepruft werden → explorativ, Tests
Statistik 2012: 3.5 QQ-Diagramme 66
3.6 QQ-Diagramme
Bsp: 200 gleichverteilte Zufallsgroßen
x
Fre
quen
cy
0.0 0.2 0.4 0.6 0.8 1.0
05
1015
2025
0.0 0.2 0.4 0.6 0.8 1.00.
00.
20.
40.
60.
81.
0
x
Fn(
x)
Statistik 2012: 3.6 QQ-Diagramme 68
Bsp: 200 gleichverteilte Zufallsgroßen
x
Fre
quen
cy
0.0 0.2 0.4 0.6 0.8 1.0
05
1015
2025
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
x
Fn(
x)
Statistik 2012: 3.6 QQ-Diagramme 69
Bsp: 200 standardnormalverteilte ZG
x200
Fre
quen
cy
−3 −2 −1 0 1 2 3
010
2030
40
−3 −2 −1 0 1 2 3
0.0
0.2
0.4
0.6
0.8
1.0
x
Fn(
x)
Statistik 2012: 3.6 QQ-Diagramme 70
Bsp: 50 standardnormalverteilte ZG
x50
Fre
quen
cy
−2 −1 0 1 2
02
46
810
−2 −1 0 1 2
0.0
0.2
0.4
0.6
0.8
1.0
x
Fn(
x)
Statistik 2012: 3.6 QQ-Diagramme 71
Kurven vergleichen
−2 −1 0 1 2
02
46
x
exp(
x)
Statistik 2012: 3.6 QQ-Diagramme 72
PP-Diagramme
• Das menschliche Auge kann Kurven nicht besonders gut vergleichen.
• Ob Punkte auf einer Linie liegen ist dagegen sehr einfach zu
entscheiden.
• Zum Vergleich einer empirischen Verteilung vergleicht man daher
nicht die Verteilungskurven, sondern tragt die theoretischen Werte
auf der x-Achse ab, die empirischen Werte auf der y-Achse ab.
• Stimmen die Werte uberein, sollten die resultierenden Punkte im
Streudiagramm auf einer Geraden liegen.
Statistik 2012: 3.6 QQ-Diagramme 73
PP-Diagramme
−2 −1 0 1 2
0.0
0.2
0.4
0.6
0.8
1.0
x
Fn(
x)
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
theoretische Wahrscheinlichkten N(0,1)
beob
acht
ete
Wah
rsch
einl
ichk
eite
n
Statistik 2012: 3.6 QQ-Diagramme 74
PP-Diagramme
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
theoretische Wahrscheinlichkten N(0,1)
beob
acht
ete
Wah
rsch
einl
ichk
eite
n
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0 0.1 0.2 0.3 0.4 0.5
0.0
0.2
0.4
0.6
0.8
1.0
theoretische Wahrscheinlichkten N(2,1)
beob
acht
ete
Wah
rsch
einl
ichk
eite
n
Statistik 2012: 3.6 QQ-Diagramme 75
QQ-Diagramme
• Ein großer Nachteil von PP-Diagrammen ist, daß
– die Parameter der Verteilung geschatzt werden mussen,
– Verteilungen mit unterschiedlichen Definitionsbereichen schwer
verglichen werden konnen.
• Abhilfe schafft Verwendung der Quantilsfunktion statt Verteilungs-
funktion:
– Definitionsbereich ist fur alle Verteilungen das Intervall [0,1].
– Fur mehrere Familien von Verteilungen, inkl. Gleichverteilung und
Normalverteilung gilt, daß QQ Diagramme gerade Linien ergeben,
auch wenn man falsche Parameter wahlt.
Statistik 2012: 3.6 QQ-Diagramme 76
QQ-Diagramme
●
●
● ●
●●●●
●●
●●●
●●●
●●●●●●
●●●●
●●●
●●●●
●
●●●
●●
●●●
●
●●
● ● ● ●
−2 −1 0 1 2
−2
−1
01
2
theoretische Quantile N(0,1)
beob
acht
ete
Qua
ntile
●
●
● ●
●●●●
●●
●●●
●●●
●●●●●●
●●●●
●●●
●●●●
●
●●●
●●
●●●
●
●●
● ● ● ●
0 1 2 3 4
−2
−1
01
2
theoretische Quantile N(2,1)
beob
acht
ete
Qua
ntile
Statistik 2012: 3.6 QQ-Diagramme 77
Bsp: Normalverteilte Daten
−2 −1 0 1 2
−2
−1
01
2
norm quantiles
x50
●
●
● ●
●●●●
●●●●●
●●●
●●●●●●
●●●●
●●●
●●●●
●
●●●
●●●●●
●
●●
● ● ● ●
●
−3 −2 −1 0 1 2 3
−3
−2
−1
01
2
norm quantiles
x200
●
●●●
●●●●●
●●●●●●●●●●●●●●
●●●●●●●
●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●
●●●●●●●●●
●●●●●●●●●●●●
●●●●●●●
●●●●●●●
●●●
●
Statistik 2012: 3.6 QQ-Diagramme 78
Bsp: Gleichverteilte Daten
−2 −1 0 1 2
0.0
0.2
0.4
0.6
0.8
1.0
norm quantiles
runi
f(50
)
●●
●● ●
●●●●●
●
●
●
●●●
●●●
●●●
●●●●●
●●
●●
●
●●●
●
●●●●●●●●
●●
● ●● ●
−3 −2 −1 0 1 2 3
0.0
0.2
0.4
0.6
0.8
1.0
norm quantiles
runi
f(20
0)
● ● ●●●●●●●●●●●●●●●
●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●
●●●●●●●●
●●●●●●●● ● ●
Statistik 2012: 3.6 QQ-Diagramme 79
Bsp: Exponentialverteilte Daten
−2 −1 0 1 2
0.0
0.5
1.0
1.5
2.0
2.5
3.0
norm quantiles
rexp
(50)
●●
● ● ●●●●●●●●●●●●●
●●●
●●●
●●●
●●●●●●●
●●
●●●
●●●
●●●●●
●
●●
●
−3 −2 −1 0 1 2 30
12
34
56
7
norm quantiles
rexp
(200
)● ● ●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●●●●
●●●●●●●●●●●●●●●●●●●●●●●
●●●●●●●●●●●
●●●●●●●●●●●●●●●●●
●●●●●●●●
●●●●●●●●●
●
●●●●
●
●●●●
●
●
●
●
Statistik 2012: 3.6 QQ-Diagramme 80