Upload
nguyenkhuong
View
215
Download
0
Embed Size (px)
Citation preview
Universität Augsburg
Klausur und Unterlagen
Klausur:
➢ „Spielregeln“: Wie Statistik I
➢ Nachholklausur im WS 2005 / 2006
Hilfreiche Unterlagen:
➢ Foliensatz∗
➢ Übungsaufgabensammlung
➢ Klausuraufgabensammlung
➢ Klausur Statistik II vom Wintersemester 2004 / 2005∗
∗) Download: www.wiwi.uni-augsburg.de/ibo, Rubrik „Downloads“
Literatur:
➢ Bamberg/Baur: Statistik, Oldenbourg, 12. Aufl. 2002
➢ Bamberg/Baur: Arbeitsbuch Statistik, Oldenbourg, 7. Aufl. 2004 (optional)
Statistik II 138
Statistik II
Sommersemester 2005
PD Dr. Michael Krapp
Institut für Statistik und Mathematische Wirtschaftstheorie
Universität Augsburg
Universität Augsburg
Gliederung
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
11. Grundlagen der induktiven Statistik
12. Punkt-Schätzung
13. Intervall-Schätzung
14. Signifikanztests
18. Stichprobenplanung
Statistik II 140
Universität Augsburg
Zusätzliche Veranstaltungen
Übung zu Statistik II Mittwoch 8:30 –10:00 HW 1001 Paul
Mittwoch 8:30 –10:00 FW 2101 Papatrifon
Mittwoch 10:15 –11:45 HW 1003 Krapp
Mittwoch 10:15 –11:45 FW 1109 Klein
Mittwoch 12:30 –14:00 HW 1003 Baur
Mittwoch 12:30 –14:00 FW 1106 Bamberg
Mittwoch 12:30 –14:00 FW 1109 Klein
Mittwoch 14:15 –15:45 HW 1004 Baur
Statistik II mit Excel – Grundkurs Mittwoch 14:15 –15:45 FW 2113 Paul
Mittwoch 16:00 –17:30 FW 2113 Paul
Statistik II mit Excel – Vertiefungskurs Mittwoch 17:45 –19:15 FW 2113 Paul
Übung zu Statistik I Mittwoch 17:45 –19:15 FW 1106 Klein/Papatrifon
Statistik II 139
Universität Augsburg
10.1 Gesetz der großen Zahlen
➢ Tschebyscheff-Ungleichung
P(|X− E(X)| = c) 5Var(X)
c2(93)
➢ angewandt auf X̄n = 1n
n∑
i=1Xi ergibt
P(|X̄n − µ| = c) 5σ2
n · c2
➢ Nun: n→ ∞ ⇒ Gesetz der großen Zahlen:
limn→∞
P(|X̄n − µ| = c) = 0 bzw. limn→∞
P(|X̄n − µ| 5 c) = 1 (95)
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 142
Universität Augsburg
Gesetz der großen Zahlen und zentraler Grenzwertsatz
➢ Gegeben: Zufallsvariablen X1, . . . ,Xn
• unabhängig und identisch verteilt (‚iid‘)
• E(Xi) = µ
• Var(Xi) = σ2
➢ Gesucht: Verhalten vonn∑
i=1
Xi bzw. X̄n =1
n
n∑
i=1
Xi
wenn n laufend erhöht wird.
➢ Beachte (vgl. Folie 125):
• E(X̄n) = µ
• Var(X̄n) = σ2
n
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 141
Universität Augsburg
10.2 Zentraler Grenzwertsatz
➢ BB S. 130: Wahrscheinlichkeiten von Ereignissen, die mithilfe der Summe
von iid Zufallsvariablen gebildet werden, lassen sich für großes n mittels
der Normalverteilung hinreichend genau berechnen.
➢ Beispiel (Übungsaufgabe 47):
X1, X2, X3 in [0; 1] gleichverteilt; Z1 = X1, Z2 = X1+X2, Z3 = X1+X2+X3
z1
f(z1)
1
1z2
f(z2)
1
1 2z3
f(z3)
34
1 2 3
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 144
Universität Augsburg
10.1 Gesetz der großen Zahlen
0 50 100 150 200 250
−0.6
−0.4
−0.2
0.0
0.2
0.4
n
x̄n
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 143
Universität Augsburg
10.2 Zentraler Grenzwertsatz
Beispiel (BB-Beispiel 61):
Xi ∼ B(1;p) ⇒ X =n∑
i=1Xi ∼ B(n;p) (Folie 93)
E(X) = np; Var(X) = np(1 − p) (Fig. 36)
⇒ P(
X−np√np(1−p)
5 x)
≈ Φ(x)
(Brauchbar, falls np = 5 und n(1 − p) = 5.)
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 146
Universität Augsburg
10.2 Zentraler Grenzwertsatz
➢ Approximativ gilt:n∑
i=1
Xi ∼ N(nµ;σ√n) (96)
➢ Standardisierung:
Yn =
n∑
i=1Xi − nµ
σ√n
=X̄n − µ
σ · 1√n
=X̄n − µ
σ
√n ∼ N(0; 1)
➢ Zentraler Grenzwertsatz:
P(Yn 5 x) −−−→n→∞
Φ(x) (97)
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 145
Universität Augsburg
Grundlagen der induktiven Statistik
➢ Vollerhebung of unmöglich, deshalb:
Beobachte Teilgesamtheit → schließe auf Grundgesamtheit
➢ Beispiel:
Warensendung von 1000 Stück; darunter M Stück Ausschuss.
M ist unbekannt.
→ Zufällige Entnahme von n = 30 Stück („Stichprobe“).
Darunter 2 Stück Ausschuss.
Denkbare Zielsetzungen:
• Schätze M durch eine Zahl (z.B. 230 · 1000 = 66,67)
• Schätze ein Intervall für M (z.B. M ∈ [58; 84])
• Teste die Hypothese, dass M > 50 ist.
11. Grundlagen der induktiven Statistik 148
Universität Augsburg
10.2 Zentraler Grenzwertsatz
Beispiel (BB-Aufgabe 76):
X1, . . . ,X12 gleichverteilt in [0; 1] ⇒ E(Xi) = 12; Var(Xi) = 1
12 (Fig. 36)
Y =
12∑
i=1
Xi − 6
Mit (87), (88), (91), (92) folgt:
E(Y) =12∑
i=1E(Xi) − 6 = 12 · 1
2 − 6 = 0
Var(Y) =12∑
i=1Var(Xi) = 12 · 1
12 = 1
⇒ Y ∼ N(0; 1) (approximativ)
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 147
Universität Augsburg
11.1–11.2.2 Grundbegriffe
➢ Stichprobenergebnis:
n-Tupel der Realisationen der Stichprobenvariablen, (x1, . . . , xn).
➢ Stichprobenraum:
Menge aller möglichen Stichprobenergebnisse.
➢ Likelihoodfunktion:
• Verteilgungsklasse, der F (Vtlg. von G) angehört, ist bekannt; Vertei-
lungsparameter ϑ aber unbekannt (z.B. N(µ;σ)).
• Einfache Stichprobe X1, . . . ,Xn.
→ Die gemeinsame Dichte / Wahrscheinlichkeitsfunktion von X1, . . . ,Xn in
Abhängigkeit von ϑ, f(x1, . . . , xn|ϑ), heißt Likelihoodfunktion.
11. Grundlagen der induktiven Statistik 150
Universität Augsburg
11.1–11.2.2 Grundbegriffe
➢ Grundgesamtheit (G):
Menge aller relevanten Merkmalsträger.
➢ Verteilung von G:
F(x) = P(X 5 x) = W’keit, dass ein Merkmalsträger ausgewählt wird, der
beim untersuchten Merkmal maximal die Ausprägung x aufweist.
➢ Uneingeschränkte (reine) Zufallsauswahl:
Jedes Element von G hat die selbe Chance, ausgewählt zu werden.
➢ Stichprobenumfang (n):
Anzahl der Merkmalsträger in der Stichprobe.
➢ Einfache Stichprobe:
Uneingeschränkte Zufallsauswahl und unabhängige Ziehung.
→ Alle Stichprobenvariablen X1, . . . ,Xn sind iid.
11. Grundlagen der induktiven Statistik 149
Universität Augsburg
Wichtige Stichprobenfunktionen (Fig. 38)
➢G
egeb
en:
•Ei
nfa
che
Stic
hp
rob
eX
1,.
..,Xn
•B
elie
big
eV
erte
ilun
g
•m
itE(Xi)
=µ
,Var
(Xi)
=σ
2
➠W
ich
tig
eSt
ich
pro
ben
fun
ktio
nen
:
➢H
erle
itu
ng
en:B
BS.
140
➢B
eso
nd
ers
wic
hti
ge
Zu
sam
men
hän
ge
...
11. Grundlagen der induktiven Statistik 152
Universität Augsburg
11.1–11.2.2 Grundbegriffe
Beispiel:
G ist B(1;p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 −p)1−x (BB S. 99)
Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion
f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)
= px1(1 − p)1−x1 · px2(1 − p)1−x2 = px1+x2(1 − p)2−x1−x2
Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p− p2
(Welcher Wert p passt „am besten“ zu (0, 1)?)
➢ Stichprobenfunktion:
Zufallsvariable V , die sich als Funktion der Stichprobenvariablen ergibt:
V = g(X1, . . . ,Xn), z.B. V = 1n
n∑
i=1Xi = X̄ (vgl. Folie 141)
11. Grundlagen der induktiven Statistik 151
Universität Augsburg
11.2.3 Testverteilungen
➀ Chi-Quadrat-Verteilung:
➢ Sind X1, . . . ,Xn iid N(0; 1)-verteilte ZV, so wird die Verteilung von
Z =
n∑
i=1
X2i
als Chi-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet.
➢ Kurzschreibweise: Z ∼ χ2(n)
➢ Es gilt: E(Z) = n und Var(Z) = 2n
➢ Fraktile: Bis n 5 30 in Tabelle 5 (BB S. 322 ff.); ab n > 30 Näherung:
xα = 12 (x̃α +
√2n− 1)2
wobei x̃α das α-Fraktil der N(0; 1)-Verteilung ist.
11. Grundlagen der induktiven Statistik 154
Universität Augsburg
Wichtige Stichprobenfunktionen (Fig. 38)
➢ E(
1n
n∑
i=1(Xi − X̄)2
)
= n−1nσ2, aber: E(S2) = σ2
➢ Auf Grund der jensenschen Ungleichung (Folie 120) gilt E(S) 5 σ. Grund:
E(S) = E(√S2) 5
√
E(S2) =√σ2 = σ,
da g(x) =√x konkav ist.
➢ Verschiebungssatz für S2:
S2 =n
n− 1
[
1
n
n∑
i=1
(Xi − X̄)2
]
=n
n− 1
[
1
n
n∑
i=1
X2i − X̄2
]
=1
n− 1
[
n∑
i=1
X2i − nX̄2
]
=1
n− 1
n∑
i=1
X2i −
n
n− 1· X̄2
11. Grundlagen der induktiven Statistik 153
Universität Augsburg
χ2-Verteilung (BB Tab. 5, S. 324)
11. Grundlagen der induktiven Statistik 156
Universität Augsburg
11.2.3 Testverteilungen
Beispiel: x0,975 aus . . .
• χ2(30): x0,975 = 46,98
• χ2(50): x̃0,975 = 1,96 ⇒ x0,975 = 12 (1,96 +
√99)2 = 70,92
11. Grundlagen der induktiven Statistik 155
Universität Augsburg
11.2.3 Testverteilungen
➁ t-Verteilung:
➢ Ist X ∼ N(0; 1), Z ∼ χ2(n), X, Z unabhängig, so wird die Verteilung von
T =X
√
1nZ
als t-Verteilung mit n Freiheitsgraden bezeichnet.
➢ Kurzschreibweise: T ∼ t(n)
➢ Es gilt: E(T) = 0 und Var(T) = nn−2
➢ Fraktile:
• n > 30: verwende N(0; 1)-Fraktile; bis n 5 30: Tabelle 4 (BB S. 320 f.)
• Achtung: Nur α = 0,6 vertafelt. Ggfs. Symmetrie ausnutzen:
xα = −x1−α für α < 0,5
11. Grundlagen der induktiven Statistik 158
Universität Augsburg
Standardnormalverteilung (BB Tab. 3, S. 319)
11. Grundlagen der induktiven Statistik 157
Universität Augsburg
t-Verteilung (BB Tab. 4, S. 320)
11. Grundlagen der induktiven Statistik 160
Universität Augsburg
11.2.3 Testverteilungen
Beispiel: Bestimme folgende Fraktile für t(10) . . .
• x0,6 = 0,260
• x0,5 = 0
• x0,1 = −x0,9 = −1,372
11. Grundlagen der induktiven Statistik 159
Universität Augsburg
11.2.3 Testverteilungen
Beispiel: Bestimme x0,05 für F(2, 5):
F(5, 2): x̃1−0,05 = x̃0,95 = 19,30 ⇒F(2, 5): x0,05 = 1
x̃0,95= 1
19,30 = 0,052
11. Grundlagen der induktiven Statistik 162
Universität Augsburg
11.2.3 Testverteilungen
➂ F-Verteilung:
➢ Ist X ∼ χ2(m), Y ∼ χ2(n), X, Y unabhängig, so wird die Verteilung von
Z =1mX
1nY
als F-Verteilung mit den Freiheitsgraden m und n bezeichnet.
➢ Kurzschreibweise: Z ∼ F(m,n)
➢ Es gilt: E(Z) = nn−2 und Var(Z) =
2n2(n+m−2)
m(n−4)(n−2)2
➢ Fraktile:
• 0,95- und 0,99-Fraktile: Tabelle 6 (BB S. 325 f.); ggfs. interpolieren.
• Für 0,01- und 0,05-Fraktile:
xα = 1x̃1−α
mit x̃1−α aus F(n,m) (98)
11. Grundlagen der induktiven Statistik 161
Universität Augsburg
11.2.4 Verteilungen von Stichprobenfunktionen
Gegeben: Einfache Stichprobe X1, . . . ,Xn aus N(µ;σ)-Verteilung:
Stichprobenfunktion Verteilungn∑
i=1Xi N(nµ;σ
√n)
X̄ N(µ; σ√n)
X̄−µσ
√n N(0; 1)
1σ2
n∑
i=1(Xi − µ)2 χ2(n)
1σ2
n∑
i=1(Xi − X̄)2 = n−1
σ2 S2 χ2(n− 1)
X̄−µS
√n t(n− 1)
Bei bel. Verteilung von G sind X̄−µσ
√n und X̄−µ
S
√n approx. N(0; 1)-verteilt.
11. Grundlagen der induktiven Statistik 164
Universität Augsburg
F-Verteilung (BB Tab. 6, S. 325)
11. Grundlagen der induktiven Statistik 163
Universität Augsburg
12.1 Erwartungstreue und wirksamste Schätzfunktionen
➢ Eine Schätzfunktion Θ̂ = g(X1, . . . ,Xn) heißt erwartungstreu oder un-
verzerrt für ϑ, wenn unabhängig vom numerischen Wert von ϑ gilt:
E(Θ̂) = ϑ (99)
Gilt
limn→∞
E(Θ̂n) = ϑ
so heißt Θ̂n asymptotisch erwartungstreu für ϑ.
12. Punkt-Schätzung 166
Universität Augsburg
Punkt-Schätzung
➢ Ein unbekannter Parameter ϑ der Verteilung von G (z.B. σ von N(10;σ))
soll auf Basis einer Stichprobe geschätzt werden.
➢ Schätzwert: ϑ̂
➢ Vorgehen: Verwendung einer Schätzfunktion
Θ̂ = g(X1, . . . ,Xn)
Beachte: Der Schätzwert ϑ̂ ist die Realisierung der ZV (!) Θ̂.
➢ Frage: Welche Stichprobenfunktion ist zur Schätzung geeignet?
➠ Kriterien für die Beurteilung/Konstruktion von Schätzfunktionen!
➢ Im Folgenden: Vorliegen einer einfachen Stichprobe, d.h. X1, . . . ,Xn iid.
12. Punkt-Schätzung 165
Universität Augsburg
12.1 Erwartungstreue und wirksamste Schätzfunktionen
➢ Von zwei erwartungstreuen Schätzfunktionen Θ̂, Θ̂ ′ für ϑ heißt Θ̂ wirk-
samer als Θ̂ ′, wenn unabhängig vom numerischen Wert von ϑ gilt:
Var(Θ̂) < Var(Θ̂ ′)
➢ Beispiel: Wegen
Var(Θ̂) = Var(X̄) = σ2
n< Var(Θ̂ ′) = Var
(
X1+X22
) (91),(92)= 1
4(σ2 + σ2) = σ2
2
(falls n > 2) ist Θ̂ wirksamer als Θ̂ ′.
12. Punkt-Schätzung 168
Universität Augsburg
12.1 Erwartungstreue und wirksamste Schätzfunktionen
➢ Beispiel:
Sind Θ̂ = X̄, Θ̂ ′ = X1+Xn2 , Θ̂ ′′ = 1
n−1
n∑
i=1Xi erwartungstreu für µ?
a) Θ̂: E(X̄) = µ (Fig. 38)
⇒ Θ̂ ist erwartungstreu.
b) Θ̂ ′: E(
X1+Xn2
) (87),(88)= 1
2[E(X1) + E(Xn)] = 12(µ+ µ) = µ
⇒ Θ̂ ′ ist erwartungstreu.
c) Θ̂ ′′: E(
1n−1
n∑
i=1Xi
)
(87),(88)= 1
n−1
n∑
i=1E(Xi) = 1
n−1
n∑
i=1µ = n
n−1 µ 6= µ
⇒ Θ̂ ′′ ist nicht erwartungstreu, aber wegen
limn→∞
(
nn−1 µ
)
= µ asymptotisch erwartungstreu.
➢ Welche der erwartungstreuen Schätzfunktionen Θ̂, Θ̂ ′ ist ‚besser‘?
12. Punkt-Schätzung 167
Universität Augsburg
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Verteilung von G ϑ wirksamste e.treue Schätzfkt.
unbekannt µ X̄
B(1;p) p (= µ) X̄
Gleichverteilung in [0; 2a] a (= µ) n+12n · max{X1, . . . ,Xn}
N(µ;σ) (σ bekannt oder unbekannt) µ X̄
N(µ;σ), µ bekannt σ2 1n
n∑
i=1(Xi − µ)2
N(µ;σ), µ unbekannt σ2 S2
12. Punkt-Schätzung 170
Universität Augsburg
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Allgemein: Diejenige Schätzfunktion, die die gerinste Varianz aller im Rah-
men eines bestimmten Schätzproblems erwartungstreuer Schätzfunktionen
besitzt, heißt die wirksamste Schätzfunktion.
Die Bestimmung der wirksamsten Schätzfunktion ist relativ schwierig.
12. Punkt-Schätzung 169
Universität Augsburg
12.2 Konsistente Schätzfunktionen
➢ Aus der Tschebyscheff-Ungleichung
P(|X− E(X)| = c) 5Var(X)
c2(93)
resultiert folgende hinreichende (nicht notwendige) Konsistenzbedingung:
(
limn→∞
)
E(Θ̂n) = ϑ und limn→∞
Var(Θ̂n) = 0
➢ Beispiel: Ist X̄n konsistent für µ?
Aus Fig. 38 folgt . . .
• E(X̄n) = µ, d.h. X̄n ist erwartungstreu für µ.
• Var(X̄n) = σ2
n−−−→n→∞
0, d.h. die Varianzen bilden eine Nullfolge.
⇒ X̄n ist konsistent für µ.
12. Punkt-Schätzung 172
Universität Augsburg
12.2 Konsistente Schätzfunktionen
➢ Eine Folge von Schätzfunktionen Θ̂n gemäß
Θ̂1 = g1(X1)
Θ̂2 = g2(X1,X2)
...
Θ̂n = gn(X1, . . . ,Xn)
heißt konsistent für ϑ, wenn für alle c > 0 gilt:
P(|Θ̂n − ϑ| = c) −−−→n→∞
0 (100)
(Die Wahrscheinlichkeit, ϑ deutlich zu verfehlen, geht gegen 0.)
12. Punkt-Schätzung 171
Universität Augsburg
12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)
➠ ML-Prinzip: Wähle ϑ̂ so, dass für alle möglichen ϑ-Werte gilt:
f(x1, . . . , xn|ϑ̂) = f(x1, . . . , xn|ϑ)
➢ Maximierung meist durch Nullsetzen der 1. Ableitung (2. Abl. < 0 prüfen!)
➢ Maximierung für . . .
• konkretes Stichprobenergebnis (z.B. (0, 1)) → ML-Schätzwert
• allgemeines Stichprobenergebnis (z.B. (x1, x2)) → ML-Schätzfunktion
➢ Die Maximierung der logarithmierten Likelihoodfunktion liefert dasselbe
Ergebnis, ist aber meist einfacher:
ln f(x1, . . . , xn|ϑ̂) = ln f(x1, . . . , xn|ϑ)
Grund: ln(x) wächst streng monoton mit x.
12. Punkt-Schätzung 174
Universität Augsburg
12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)
➢ Gegeben:
• Ergebnis einer einfachen Stichprobe (x1, . . . , xn)
• Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ)
➢ Beispiel:
G ist B(1;p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 −p)1−x (BB S. 99)
Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion
f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)
= px1(1 − p)1−x1 · px2(1 − p)1−x2 = px1+x2(1 − p)2−x1−x2
Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p− p2
➢ Gesucht: Schätzwert ϑ̂, der ‚am besten zu (x1, . . . , xn) passt‘
12. Punkt-Schätzung 173
Universität Augsburg
Typische Vorgehensweise bei ML-Schätzung
b) Schätzfunktion:
Logarithmieren sinnvoll (um Produktregel usw. zu vermeiden)!
ln f(x1, x2|p) = (x1 + x2) ln(p) + (2 − x1 − x2) ln(1 − p)
∂∂p
ln f(x1, x2|p) = x1+x2p
− 2−x1−x21−p
!= 0
⇐⇒ (x1 + x2)(1 − p) = (2 − x1 − x2)p
⇐⇒ x1 + x2 = 2p⇒ p̂ = x1+x22
∂2
∂p2 ln f(x1, x2|p) = −x1+x2p2 − 2−x1−x2
(1−p)2 < 0
⇒ p̂ = 12 (x1 + x2) (= x̄) ist ML-Schätzfunktion (passt auch zu a).
Achtung: Lösung meist per Ableitung; es gibt aber Ausnahmen!
12. Punkt-Schätzung 176
Universität Augsburg
Typische Vorgehensweise bei ML-Schätzung
1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ)
2. Likelihoodfunktion logarithmieren (optional): ln f(x1, . . . , xn|ϑ)
3. Erste Ableitung nullsetzen: ∂∂ϑ
[ln]f(x1, . . . , xn|ϑ)!= 0
4. Vorzeichen der zweiten Ableitung prüfen: ∂2
∂ϑ2 [ln]f(x1, . . . , xn|ϑ̂)?< 0
Im Beispiel auf Folie 173:
f(x1, x2|p) = px1+x2(1 − p)2−x1−x2 bzw. f(0, 1|p) = p− p2
a) Konkreter Schätzwert:
∂∂pf(0, 1|p) = 1 − 2p
!= 0 ⇒ p̂ = 1
2
∂2
∂p2 f(0, 1|p) = −2 < 0 ⇒ p̂ = 12 ist ML-Schätzwert
12. Punkt-Schätzung 175
Universität Augsburg
Maximum-Likelihood-Schätzfunktionen
Verteilung von G ϑ ML-Schätzfunktion
B(1;p) p (= µ) X̄
Exp(λ) µ X̄
Exp(λ) σ2 X̄2
P(λ) λ (= µ = σ2) X̄
N(µ;σ) (σ bekannt oder unbekannt) µ X̄
N(µ;σ), µ bekannt σ2 1n
n∑
i=1(Xi − µ)2
N(µ;σ), µ unbekannt σ2 1n
n∑
i=1(Xi − X̄)2
12. Punkt-Schätzung 178
Universität Augsburg
Klausuraufgabe 156 (gekürzt)
Ein bestimmtes Produkt wird von genau zwei Firmen A, B hergestellt. Jedes
der produzierten Stücke kann auf Grund äußerer Merkmale eindeutig einer
von zwei möglichen Güteklassen I, II zugeordnet werden. Bekannt ist, dass
die von Firma A (bzw. Firma B) erzeugten Stücke zu 35 % (bzw. zu 50 %) der
Güteklasse I entsprechen.
Aus der Produktion einer der beiden Firmen wurde eine einfache Stichprobe
vom Umfang 9 entnommen; alle 9 Stücke stammen also von ein und dersel-
ben Firma, wobei nicht erkennbar sei, von welcher. In der Stichprobe gehören
4 der 9 Stücke zu Güteklasse I.
Zu welcher Antwort auf die Frage nach der Herkunft der Stichprobe kommt
man nach dem Maximum-Likelihood-Prinzip?
12. Punkt-Schätzung 177
Universität Augsburg
12.5 Bayes-Schätzfunktionen
➢ Gegeben:
• Ergebnis einer einfachen Stichprobe (x1, . . . , xn)
• Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ)
• Vorinformation über ϑ (Einschätzung eines Sachkundigen) in Form einer
a priori Dichte / Wahrscheinlichkeitsfunktion ϕ(ϑ)
Vorinformation
Stichprobe
Bayes-Schätzung
➠ a posteriori Dichte / Wahrscheinlichkeitsfunktion ψ(ϑ|x1, . . . , xn)
12. Punkt-Schätzung 180
Universität Augsburg
Maximum-Likelihood-Schätzfunktionen
Für die ML-Schätzung von σ (und anderem) ist folgender Satz hilfreich:
Ist h eine streng monotone Funktion (gleichgültig ob wachsend
oder fallend) und ist Θ̂ eine Maximum-Likelihood-Schätzfunktion
für den Parameter ϑ, so ist die Stichprobenfunktion h(Θ̂) ei-
ne Maximum-Likelihood-Schätzfunktion für den transformierten
Parameter h(ϑ).
Beispiel:
• Ist Θ̂ ML-Schätzfunktion für σ2, so ist√Θ̂ ML-Schätzfunktion für σ.
• Ist G ∼ Exp(λ), so ist 1X̄
ML-Schätzfunktion für λ.
(λ = 1µ
= h(µ) mit h str. mon. fallend; ML-Schätzfkt. für µ: X̄⇒ h(X̄) = 1X̄
)
12. Punkt-Schätzung 179
Universität Augsburg
Vorgehensweise bei Bayes-Schätzung
1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ)
2. a priori Dichte / Wahrscheinlichkeitsfunktion (ist bekannt): ϕ(ϑ)
3. a posteriori Dichte / Wahrscheinlichkeitsfunktion ermitteln: ψ(ϑ|x1, . . . , xn)
4. Lageparameter der a posteriori Verteilung berechnen, z.B.
• Modus
• Median
• Erwartungswert
12. Punkt-Schätzung 182
Universität Augsburg
12.5 Bayes-Schätzfunktionen
➢ Hilfsmittel: Formel von Bayes:
P(Aj|B) =P(B|Aj) P(Aj)
∑
i
P(B|Ai) P(Ai)(65)
wobei nun P(Aj|B) ersetzt wird durch ψ(ϑ|x1, . . . , xn)
P(B|Aj) ersetzt wird durch f(x1, . . . , xn|ϑ)
P(Aj) ersetzt wird durch ϕ(ϑ)
⇒ ψ(ϑ|x1, . . . , xn) =
f(x1, . . . , xn|ϑi)ϕ(ϑi)∑
j
f(x1, . . . , xn|ϑj)ϕ(ϑj)im diskreten Fall
f(x1, . . . , xn|ϑ)ϕ(ϑ)∞∫
−∞
f(x1, . . . , xn|ϑ)ϕ(ϑ) dϑim stetigen Fall
12. Punkt-Schätzung 181
Universität Augsburg
Klausuraufgabe 131
b) Ermitteln Sie das Maximum-Likelihood-Schätzergebnis für den Stimmenan-
teil der Wähler, die für den Bau stimmen.
c) Ermitteln Sie die a posteriori Wahrscheinlichkeitsfunktion für den Anteil der
Wählerstimmen für den Bau der Straße.
d) Geben Sie den a posteriori Erwartungswert des Stimmenanteils für den Bau
der Straße an.
12. Punkt-Schätzung 184
Universität Augsburg
Klausuraufgabe 131
In A-Stadt wird über den Bau einer neuen Straße durch eine Volksabstimmung
abgestimmt. Ein Fachmann schätzt den Anteil der Stimmen für den Bau der
Straße folgendermaßen ein:
Stimmenanteil für den Bau a priori Wahrscheinlichkeit für diesen Anteil
35 % 0,4
45 % 0,3
55 % 0,3
a) Geben Sie den a priori Erwartungswert des Stimmenanteils für den Bau der
Straße an.
Eine Wahlumfrage bei 120 (zufällig ausgewählten) wahlberechtigten Einwoh-
nern ergab 70 Stimmen für den Bau der Straße.
12. Punkt-Schätzung 183
Universität Augsburg
Intervall-Schätzung
➢ Wichtiger Spezialfall: Symmetrische Konfidenzintervalle
• Symmetrisch heißt nicht, dass die Dichte symmetrisch ist, sondern
• übereinstimmende W’keiten für Über-/Unterschreiten des KI, d.h.
P(Vu > ϑ) = P(Vo < ϑ) = α2 (103)
➢ Wichtig: Eine Verkleinerung von α bewirkt eine Vergrößerung des KI.13. Intervall-Schätzung 186
Universität Augsburg
Intervall-Schätzung
➢ Für einen unbekannten Verteilungsparameter ϑ soll auf Basis einer Stich-
probe ein Intervall geschätzt werden.
➢ Verwendung der Stichprobenfunktionen Vu, Vo, so dass Vu 5 Vo und
P(Vu 5 ϑ 5 Vo) = 1 − α (102)
stets gelten.
[Vu;Vo] heißt Konfidenzintervall (KI) für ϑ zum Konfidenzniveau 1−α.
➢ Beachte: Das Schätzintervall [vu; vo] ist Realisierung der ZV (!) Vu, Vo.
➠ Irrtumswahrscheinlichkeit α (klein, i.d.R. α 5 0,1)
➢ Frage: Welche Konfidenzintervalle sind zur Schätzung geeignet?
➠ Hängt von Verteilung von G sowie vom unbekannten Parameter (µ, σ2) ab!
➢ Im Folgenden: Einfache Stichprobe X1, . . . ,Xn mit E(Xi) = µ, Var(Xi) = σ2
13. Intervall-Schätzung 185
Universität Augsburg
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
➢ Vorgehensweise:
➢ Grund für N(0; 1)-Verteilung: Betrachte z.B. Vu = X̄− σc√n
:
Vu > µ ⇐⇒ X̄− σc√n> µ ⇐⇒ X̄−µ
σ
√n > c
X̄−µσ
√n ∼ N(0; 1) (vgl. Folie 164)
13. Intervall-Schätzung 188
Universität Augsburg
Überblick Intervallschätzung (BB S. 172)
13. Intervall-Schätzung 187
Universität Augsburg
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
Beispiel (BB-Beispiel 73):
Normalverteilung mit σ = 2,4
(x1, . . . , x9) = (184,2; 182,6; 185,3; 184,5; 186,2; 183,9; 185,0; 187,1; 184,4)
Gesucht: KI für µ zum Konfidenzniveau 1 − α = 0,99
1. 1 − α = 0,99
2. N(0; 1): c = x1−α2= x1−0,01
2= x0,995 = 2,576 (Tab. 3; Interpolation)
3. x̄ = 19 (184,2 + · · · + 184,4) = 184,8
4. σc√n
= 2,4·2,576√9
= 2,06
5. KI = [184,8 − 2,06; 184,8 + 2,06] = [182,74; 186,86]
Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [182,74; 186,86].
13. Intervall-Schätzung 190
Universität Augsburg
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
13. Intervall-Schätzung 189
Universität Augsburg
Intervalllänge
➢ Im Fall 13.1.1 gilt offenkundig
L = Vo − Vu =2σc√n
(106)
➢ Welcher Stichprobenumfang n sichert eine vorgegebene (Maximal-)Länge L?
(106) nach n auflösen! ⇒
n =
(
2σc
L
)2
(107)
➢ Eine Halbierung von L erfordert eine Vervierfachung von n!
➢ Im BB-Beispiel 73: L = 4 ⇒
n =(
2·2,4·2,5764
)2= 9,556 ⇒ n = 10
13. Intervall-Schätzung 192
Universität Augsburg
Wichtige Fraktilswerte
Wichtige N(0; 1)-Fraktilswerte:
α xα
0,9 1,281552
0,95 1,644854
0,975 1,959964
0,99 2,326348
0,995 2,575829
(I.d.R. genügen drei Nachkommastellen.)
13. Intervall-Schätzung 191
Universität Augsburg
13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2
Beispiel (BB-Aufgabe 92):
Wie BB-Beispiel 73 (vgl. Folie 190), jedoch σ unbekannt.
1. 1 − α = 0,99
2. t(8): c = x1−α2= x1−0,01
2= x0,995 = 3,355 (Tab. 4)
3. x̄ = 19 (184,2 + · · · + 184,4) = 184,8
s =√
18 [(184,22 + · · · + 184,42) − 9 · 184,82] = 1,31
4. sc√n
= 1,31·3,355√9
= 1,47
5. KI = [184,8 − 1,47; 184,8 + 1,47] = [183,33; 186,27]
Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [183,33; 186,27].
13. Intervall-Schätzung 194
Universität Augsburg
13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2
➢ Vorgehensweise:
➢ Zu Schritt 2: Falls n− 1 > 30 wird die N(0; 1)-Verteilung verwendet.
13. Intervall-Schätzung 193
Universität Augsburg
13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung
Beispiel (BB-Beispiel 74):
Poisson-Verteilung mit λ (= µ = σ2) unbekannt.
(x1, . . . , x40) = (3; 8; . . . ; 6)
Gesucht: KI für λ zum Konfidenzniveau 1 − α = 0,9
1. 1 − α = 0,9
2. N(0; 1) : c = x1−α2= x1−0,1
2= x0,95 = 1,645 (Folie 191)
3. x̄ = 140 (3 + 8 + · · · + 6) = 6,5
σ̂ =√x̄ =
√6,5 = 2,55 (da σ2 = λ)
4. σ̂c√n
= 2,55·1,645√40
= 0,66
5. KI = [6,5 − 0,66; 6,5 + 0,66] = [5,84; 7,16]
13. Intervall-Schätzung 196
Universität Augsburg
13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung
➢ Voraussetzung: n > 30, bzw. falls G dichotom: 5 5n∑
i=1xi 5 n− 5
➢ Vorgehensweise:
➢ Zu Schritt 3: Manchmal kann ein anderer Schätzwert σ̂ sinnvoller sein.
13. Intervall-Schätzung 195
Universität Augsburg
13.2 KI für σ2 bei Normalverteilung
➢ Vorgehensweise, falls µ unbekannt:
➢ Falls µ bekannt:• Schritt 2: Ersetze χ2(n− 1) durch χ2(n).
• Schritte 3 und 4: Ersetze (n− 1) s2 durchn∑
i=1(xi − µ)2.
13. Intervall-Schätzung 198
Universität Augsburg
Intervalllänge
➢ Falls σ bekannt ➠ verwende (107).
➢ Sonst hängt L = 2σ̂c√n
(wegen σ̂) vom Stichprobenergebnis ab.
➠ n kann i.A. nicht ermittelt werden.
➢ Ausnahme: Obere Schranke d für σ̂ ist bekannt, d.h. σ̂ 5 d gilt immer.
L 52dc√n
⇐⇒ n =
(
2dc
L
)2
➢ Beispiel:
G ∼ B(1;p) ⇒ σ̂ =√
x̄(1 − x̄) =√x̄− x̄2
x̄ ∈ [0; 1] ⇒ x̄− x̄2 maximal bei x̄ = 12
⇒ x̄− x̄2 5 12 −
(
12
)2= 1
4
⇒ σ̂ 5√
14 = 1
2 = d
⇒ n =(
cL
)2 x̄
x̄− x̄2
0,5
14
•
13. Intervall-Schätzung 197
Universität Augsburg
Unsymmetrisches KI bei Binomialverteilung
Voraussetzung: G ∼ B(1;p) mit 5 5n∑
i=1xi 5 n− 5
a) Überschätzung vermeiden (z.B. kleine Partei nahe 5 %-Hürde):
1. Ein Konfidenzniveau 1 − α wird festgelegt.
2. Das (1 − α)-Fraktil c der N(0; 1)-Verteilung wird bestimmt.
3. Das Stichprobenmittel x̄ und σ̂ =√
x̄(1 − x̄) werden errechnet.
4. Der Wert vo = x̄+ σ̂c√n
wird berechnet.
5. Als Ergebnis der Intervall-Schätzung wird [0; vo] angegeben.
b) Unterschätzung vermeiden (z.B. Anteil militanter Demonstranten):Wie oben, aber . . .
4. Der Wert vu = x̄− σ̂c√n
wird berechnet.
5. Als Ergebnis der Intervall-Schätzung wird [vu; 1] angegeben.
13. Intervall-Schätzung 200
Universität Augsburg
13.2 KI für σ2 bei Normalverteilung
Beispiel:
G ∼ N(2;σ); (x1, . . . , x5) = (1; 1,5; 2,5; 3; 2)
Gesucht: KI für σ2 zum Konfidenzniveau 1 − α = 0,99
1. 1 − α = 0,99
2. χ2(5) : c1 = xα2
= x0,005 = 0,41; c2 = x1−α2= x0,995 = 16,75
3.5∑
i=1(xi − µ)2 = (1 − 2)2 + (1,5 − 2)2 + (2,5 − 2)2 + (3 − 2)2 + (2 − 2)2 = 2,5
4. vu = 2,516,75 = 0,15; vo = 2,5
0,41 = 6,10
5. KI = [0,15; 6,10]
(Extrem groß, da n klein.)
13. Intervall-Schätzung 199
Universität Augsburg
Unsymmetrisches KI bei Binomialverteilung
Beispiel:
Eine Umfrage unter 200 Erstwählern hat einen mittleren Stimmenanteil von
4,5 % für eine bestimmte Partei ergeben. Bestimmen Sie ein unsymmetrisches
Konfidenzintervall für den erwarteten Stimmenanteil dieser Partei zum Konfi-
denzniveau 95 %.
n = 200; x̄ = 0,045 ⇒200∑
i=1xi = 200 ·0,045 = 9 ∈ [5; 200−5] ⇒ Vorauss. erfüllt
1. 1 − α = 0,95
2. N(0; 1) : c = x1−α = x0,95 = 1,645 (Folie 191)
3. x̄ = 0,045; σ̂ =√
0,045 · (1 − 0,045) = 0,21
4. vo = 0,045 + 0,21·1,645√200
= 0,07
5. KI = [0; 0,07]
13. Intervall-Schätzung 201