Upload
trinhdat
View
280
Download
6
Embed Size (px)
Citation preview
Forord
Dessa anteckningar gjordes for mitt privata bruk av forelasningsmanuskriptoch har aldrig varit tankta att anvandas som kursmaterial. Jag kan darforinte ta nagot ansvar for eventuella fel och eventuella konsekvenser av dessa patentan.
Jan Grandell
i
Nagra beteckningar iMatematisk Statistik
Grundlaggande sannolikhetsteori
ω utfall av ett slumpforsokΩ utfallsrummet∅ tomma mangden, omojliga handelsenA,Ak, B, . . . handelser∩ snitt; A ∩B = A och B intraffar∪ union; A ∪B = A och/eller B intraffar, minst en av A eller B intraffarA∗ komplementet till A, A intraffar ejP (A) sannolikheten for AP (B | A) sannolikheten for B betingat av att A intraffat
Stokastiska variabler
X,Xk, Y, . . . stokastiska variablerx, xk, y, . . . utfall av stokastiska variablerFX(x) = P (X ≤ x) fordelningsfunktionfX(x) tathetsfunktion (for en kontinuerlig s.v.)pX(x) = P (X = k) sannolikhetsfunktion (for en diskret s.v.)µ = µX = E(X) vantevarde, forvantat vardeσ2 = σ2
X = V (X) variansσ = σX = D(X) standardavvikelseC(X,Y ) kovariansen mellan X och Yρ = ρ(X, Y ) korrelationskoefficienten mellan X och Y
Statistik
x1, x2, . . . , xn utfall av X1, X2, . . . , Xn
θ parameterθ∗obs = θ∗(x1, . . . , xn) punktskattningθ∗ = θ∗(X1, . . . , Xn) stickprovsvariabelx stickprovsmedelvardes2 stickprovsvariansIθ konfidensintervall for θλα, tα(f), χ2
α(f) α-kvantiler for normal-, t- resp. χ2-fordelningarnaH0 nollhypotesH1 alternativ hypotes, mothypotes
iii
Innehall
Forord i
Nagra beteckningar i Matematisk Statistik iii
Forelasning 1 11.1 Inledning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Grundlaggande sannolikhetsteori . . . . . . . . . . . . . . . . . 2
Forelasning 2 72.1 Betingad sannolikhet . . . . . . . . . . . . . . . . . . . . . . . . 72.2 Oberoende handelser . . . . . . . . . . . . . . . . . . . . . . . . 92.3 Stokastiska variabler . . . . . . . . . . . . . . . . . . . . . . . . 11
Forelasning 3 133.1 Stokastiska variabler . . . . . . . . . . . . . . . . . . . . . . . . 133.2 Flerdimensionella stokastiska variabler . . . . . . . . . . . . . . 16
Forelasning 4 194.1 Funktioner av stokastiska variabler . . . . . . . . . . . . . . . . 194.2 Vantevarden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Forelasning 5 255.1 Kovarians och korrelationskoefficient . . . . . . . . . . . . . . . 255.2 Mer om vantevarden . . . . . . . . . . . . . . . . . . . . . . . . 26
Forelasning 6 296.1 Normalfordelningen . . . . . . . . . . . . . . . . . . . . . . . . . 296.2 Centrala gransvardessatsen . . . . . . . . . . . . . . . . . . . . . 32
Forelasning 7 337.1 Binomialfordelningen och dess slaktingar . . . . . . . . . . . . . 337.2 Approximationer . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Forelasning 8 398.1 Punktskattning . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Forelasning 9 439.1 Intervallskattning . . . . . . . . . . . . . . . . . . . . . . . . . . 43
v
vi Innehall
Forelasning 10 5110.1 Hypotesprovning . . . . . . . . . . . . . . . . . . . . . . . . . . 5110.2 χ2-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Forelasning 11 5711.1 Regressionsanalys . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Forelasning 1
1.1 Inledning
Vi ska forst ge nagra exempel pa situationer dar matematisk statistik kommerin pa ett naturligt och viktigt satt
Sannolikhetsteori:
Sannolikhetsteori handlar om att gora modeller for verkligheten.
Exempel (S)Man vill dimensionera trafikljussystemet pa en genomfartsled med angransan-de tvargator i en stad. Hur langa gron-rod faser ska man ha for att minimerarisken for allt for besvarande kobildning i rusningstrafik? Biltrafik ar underkas-tad slumpmassiga fluktuationer. Vi maste formulera nagon slags slumpmodell.Hur skall den se ut?
Exempel (D)Man vill dimensionera ett datasystem pa ett foretag. Hur ska man gora detta,under en given kostnadsram, for att minimera risken for allt for besvarandekobildning i rusningstrafik? Datatrafik ar underkastad slumpmassiga fluktua-tioner. Vi maste formulera nagon slags slumpmodell. Hur skall den se ut?
Statistik:
Manga tanker nog pa tabeller nar de hor ordet ”statistik”. Vi menar dock medstatistik laran om hur man fran observationer eller analyser under osakerhetdrar slutsatser och beskriver dessa slutsatser pa ett korrekt satt.
Exempel Lat oss saga att vi vill mata halten av ett amne i en kemisk forening.Hur skall vi gora detta? Det ar en kemisk fraga som inte jag tanker ga in pa.Hur vi ska analysera resultaten ar daremot en statistisk fraga!
Vi kan t.ex. ha 2000 enheter som vi ar intresserade av. Detta ar var population,och det ar bara dom enheterna som intresserar oss. Det ar alldeles for mycketarbete att analysera alla enheterna! Det naturliga ar att gora ett urval av dessa,eller – som man brukar saga – ta ett stickprov. Med ett stickprov menar vi iregel en uppsattning analysdata. Hur ska vi valja stickprovet, och hur kan man
1
2 Forelasning 1
fran resultatet av analysen av stickprovet dra slutsatser om populationen?
En lite annan situation ar om vi vill undersoka en produktionsmetod. Vi har daingen naturlig population, eller om man sa vill, sa kan vi tala om en oandligpopulation. Vart ”stickprov” ersatts da av att vi valjer nagra enheter, ochanalyserar dessa. Man kan tanka sig att vi later framstalla ett visst antal, ochur dessa gor ett urval. Skillnaden med fallet ovan ar att vi nu inte vill uttalaoss om det tillverkade antalet – populationen – utan om ”alla” enheter. Ettnaturligare synsatt att se pa saken ar att vi uppfattar de enskilda analysernasom resultatet av ett slumpforsok.
1.2 Grundlaggande sannolikhetsteori
Handelser
Vi betraktar nu ett slumpforsok.
Definition 1.1 Varje mojligt resultat ω av ett slumpforsok kallas ett utfall,eller en elementarhandelse.
Definition 1.2 Mangden av alla utfall, eller resultat, kallar vi utfallsrummetoch betecknar det med Ω.
Definition 1.3 En handelse A ar en mangd av utfall, dvs en delmangd av Ω,A ⊂ Ω.
Lat oss nu anta att vi ar intresserade av tva handelser A och B definieradepa samma forsok. Har ar nagra exempel pa vad som kan intraffa, och hur vimatematiskt kan uttrycka detta:
”A intraffar”, A
”A och B intraffar” eller ”A snitt B intraffar”, A ∩B
”A eller B intraffar” eller ”A union B intraffar”, A ∪B
Obs! A ∪ B betyder att minst en av A eller B intraffar, sa A ∩ B kan mycketval intraffa. I matematik betyder ”eller” och/eller!
”A intraffar inte”, A∗.
Om A och B utesluter varandra, dvs. omojligt kan intraffa samtidigt, sa sagervi att A och B ar disjunkta eller oforenliga, dvs. A ∩ B = ∅ dar ∅ ar ”tommamangden” eller ”den omojliga handelsen”.
1.2. Grundlaggande sannolikhetsteori 3
Har vi manga handelser kan vi, precis som med summa- och produkt-tecken,anvanda ett forkortat skrivsatt:
n⋃1
Ai = A1 ∪ A2 ∪ . . . ∪ An ochn⋂1
Ai = A1 ∩ A2 ∩ . . . ∩ An
Lat oss saga att vi kastar en tarning, och ar intresserade av handelsen
vi far en sexa.
Alla haller nog med om att, om det ar en just tarning, att den sannolikhetenar 1
6. Symboliskt kan vi skriva
A = vi far en sexa och P (A) =1
6.
Ar det overhuvudtaget meningsfullt att tala om sannolikheter, och om sa arfallet, hur skall man tolka dessa?
Vi skall tolka detta som att om man kastar tarningen manga ganger, sa blirden relativa frekvensen 6or ungefar 1
6. Allmant sett, om vi har ett forsok och
en handelse A och gor forsoket n ganger, sa galler
fn(A) =antalet ganger A intraffar
n→ P (A) da n vaxer.
Vad ar nu en sannolikhet?
Kolmogorovs axiomsystem (1933):Ett sannolikhetsmatt P ar en funktion av handelser, sadan att:
(a) 0 ≤ P (A) ≤ 1;
(b) P (Ω) = 1;
(c) om A1, A2, . . . ar disjunkta handelser, sa galler
P
(∞⋃1
Ai
)=
∞∑1
P (Ai).
(a) och (b) kan ses som en kalibrering sa att P stammer med intuitionen (detblir lattare da) och (c) (som ar det ”viktiga” axiomet) betyder att P ar ettmatt.
Sats 1.1 P (A∗) = 1− P (A).
4 Forelasning 1
Bevis. Vi ska ge ett mycket formellt bevis, for att illustrera axiomsystemet:
Eftersom A och A∗ disjunkta och A ∪ A∗ = Ω, sa fas
P (A) + P (A∗) = P (Ω) = 1 ⇒ P (A∗) = 1− P (A).
2
Sats 1.2 P (A ∪B) = P (A) + P (B)− P (A ∩B).
Bevis. Satsen foljer med hjalp av Venn-diagram, och observationen attP (A) + P (B) ”mater” A ∩B tva ganger. 2
Den klassiska sannolikhetsdefinitionenAntag att Ω bestar av m (mojliga) elementarhandelser ω1, . . . , ωm, var och enmed samma sannolikhet att intraffa, dvs
P (ωk) =1
mk = 1, . . . ,m.
Betrakta en handelse A, A ⊂ Ω. Antag att A innehaller g (gynnsamma) ele-mentarhandelser. Da galler
P (A) =g
m.
Problemt med den klassiska sannolikhetsdefinitionen, i mera komplicerade si-tuationer, ar att hitta en uppdelning av Ω i lika sannolika elementarhandelseroch att berakna m och g. I manga – de flesta – situationer ar det inte allsmojligt att gora detta.
For att berakna m och g behover vi nagra kombinatoriska grundbegrepp:
n st. foremal kan permuteras eller ordnas pa
n! = n · (n− 1) . . . 2 · 1
olika satt.
Det finns (n
k
)=
n!
k!(n− k)!
olika satt att plocka ut k st. av dessa om vi ej tar hansyn till i vilken ordningde plockas ut.
Det finns nk olika satt att plocka ut k st. av dessa om varje foremal som harplockats ut stoppas tillbaka och om vi tar hansyn till i vilken ordning de plockasut.
1.2. Grundlaggande sannolikhetsteori 5
Tva urnmodeller
Dragning utan aterlaggning
I en urna finns kulor av tva slag: v vita och s svarta. Drag n kulor ur urnanslumpmassigt och sa att en kula som dragits inte stoppas tillbaka. dvs dragningutan aterlaggning.
Satt A = ”Man far k vita kulor i urvalet”.
Valj Ω: Alla uppsattningar om n kulor utan hansyn till ordning.
Da fas:
m =
(v + s
n
)och g =
(v
k
)(s
n− k
)
och saledes
P (A) =
(vk
)(s
n−k
)(
v+sn
) .
Dragning med aterlaggning
Samma modell som i fallet med dragning utan aterlaggning, men kulorna stop-pas tillbaka igen efter det att man observerat dess farg, och urnan skakas omfor nasta dragning.
Valj Ω: Alla uppsattningar om n kulor med hansyn till ordning:
m = (v + s)n.
Antag att vi valt ut k vita och n − k svarta kulor. Dessa kan placeras pa(
nk
)platser:
v v v · · · · · · v
Antal satt att valja ut k vita = vk. Antal satt att valja ut n−k svarta = sn−k.
Detta ger g =(
nk
)vksn−k och saledes far vi
P (A) =
(nk
)vksn−k
(v + s)n=
(n
k
)(v
v + s
)k (s
v + s
)n−k
.
Forelasning 2
2.1 Betingad sannolikhet
Vi paminner om relativa frekvensers stabilitet:
Om vi har ett forsok och en handelse A och gor forsoket n ganger, sa galler
fn(A) =antalet ganger A intraffar
antalet forsok→ P (A) da n vaxer.
Lat A och B vara tva handelser, dvs A,B ⊂ Ω. Vad ar P (B | A), dvs sanno-likheten for B da vi vet att A har intraffat?
Det borde galla att
P (B | A)
≈ antalet ganger A ∩B intraffar
antalet ganger A intraffar
=antalet ganger A ∩B intraffar
antalet forsok· antalet forsok
antalet ganger A intraffar
≈ P (A ∩B)
P (A).
Detta leder oss till foljande definition.
Definition 2.1 Lat A och B vara tva handelser. Antag att P (A) > 0. Sanno-likheten for B betingat av A betecknas med P (B | A) och definieras som
P (B | A) =P (A ∩B)
P (A).
Exempel (Kast med rod och vit tarning)A = summan av ogonen ar hogst 4.Bk = vita tarningen visar k ogon.P (Bk | A) = 0 om k ≥ 4.
7
8 Forelasning 2
Mojliga utfall, m, ar 36: (v, r), v, r = 1, . . . 6, dvs (1, 1), (1, 2), . . . (6, 6).Gynnsamma utfall for A, ar 6: (1,1), (1,2), (1,3), (2,1), (2,2), (3,1).Gynnsamma utfall for A ∩Bk, ar 4− k: (v, r), v = k, r = 1, . . . 4− k,dvs (k, 1), (k, 2), . . . (k, 4− k) om k < 4.
Klassiska sannolikhetsdefinitionen ger
P (A) =6
36och P (A ∩Bk) =
4− k
36.
Detta ger, for k < 4,
P (Bk | A) =4− k
6=
36
= 12
k = 126
= 13
k = 216
k = 3.
Ofta ar det lattare att ange varden till betingade sannolikheter an till obeting-ade, och vi utnyttar definitionen ”baklanges”.
ExempelEn ohederlig person har tva tarningar, en akta och en falsk som alltid ger 6ogon. Han valjer slumpmassigt den ena. Vad ar sannolikheten for 5 resp. 6 ogon.Lat oss betrakta fallet med sex ogon. Intiuitivt bor galla att sannolikheten ar
1
2· 1
6+
1
2· 1 =
1
12+
6
12=
7
12.
Mera systematiskt galler foljande sats
Sats 2.1 (Lagen om total sannolikhet)Om H1, . . . , Hn ar disjunkta handelser, har positiv sannolikhet och uppfyllerhela Ω, sa galler for varje handelse A ⊂ Ω att
P (A) =n∑
i=1
P (Hi)P (A | Hi).
Bevis. Vi har
P (A) = P (A ∩ Ω) = P (A ∩ (H1 ∪ . . . ∪Hn)) = P ((A ∩H1) ∪ . . . ∪ (A ∩Hn))
=n∑
i=1
P (A ∩Hi) =n∑
i=1
P (Hi)P (A | Hi).
2
Vi ska nu ge en viktig sats om ”vandning” av handelserna i betingade sanno-likheter.
2.2. Oberoende handelser 9
Sats 2.2 (Bayes’ sats) Under samma villkor som i lagen om total sannolik-het galler
P (Hi | A) =P (Hi)P (A | Hi)∑n
j=1 P (Hj)P (A | Hj).
Bevis.
P (Hi | A) =P (Hi ∩ A)
P (A)=
P (Hi ∩ A)
P (Hi)· P (Hi)
P (A)= P (A | Hi) · P (Hi)
P (A).
Lagen om total sannolikhet tillampad pa P (A) ger resultatet. 2
Lat oss ga tillbaka till exemplet om falskspelaren. SattA = 6 ogon.H1 = akta tarningen.H2 = falska tarningen.
Da galler
P (A) = P (H1)P (A | H1) + P (H2)P (A | H2) =1
2· 1
6+
1
2· 1 =
7
12,
som i exemplet. Bayes’ sats ger vidare
P (H1 | A) =P (H1 ∩ A)
P (A)= P (A | H1) · P (H1)
P (A)=
1
6
1
2
12
7=
1
7
och
P (H2 | A) =P (H2 ∩ A)
P (A)= P (A | H2) · P (H2)
P (A)= 1 · 1
2
12
7=
6
7
vilket kanske inte ar lika latt att inse rent intiuitivt.
2.2 Oberoende handelser
Intiuitivt ar tva handelser A och B oberoende om intraffandet av A inte gernagon information om huruvida B intraffar eller ej. I formler betyder detta
P (B | A) = P (B).
Allmant galler ju
P (B | A) =P (A ∩B)
P (A), om P (A) > 0.
Multiplikation med P (A) leder oss till foljande definition:
Definition 2.2 Tva handelser A och B ar oberoende om
P (A ∩B) = P (A)P (B).
10 Forelasning 2
Definitionen ovan kraver inget villkor om positiva sannolikheter.
Det ar inte sjalvklart hur oberoende skall definieras for flera handelser.
Definition 2.3 Tre handelser A, B och C ar oberoende om
P (A ∩B) = P (A)P (B)
P (A ∩ C) = P (A)P (C)
P (B ∩ C) = P (B)P (C)
P (A ∩B ∩ C) = P (A)P (B)P (C).
Endast P (A ∩B ∩ C) = P (A)P (B)P (C) racker inte, vilket inses om vi satterA = B och C = ∅.Inte heller racker parvis oberoende, vilket ses av foljande exempel:
Kast med rod och vit tarning:
A = vita tarningen visar jamnt antal ogon.B = roda tarningen visar jamnt antal ogon.C = jamn ogonsumma.
A och B ar oberoende av ”forsoksskal”. Vidare galler
P (A ∩ C) = P (A ∩B) = P (A)P (B) =1
4och P (A)P (C) =
1
4.
Saledes ar A och C oberoende. Pss. foljer att B och C ar oberoende.
Eftersom A∩B ⇒ C vore det inte rimligt att anse att A, B och C ar oberoende.
Allmant : Oavsett vilka handelser vi plockar ut sa skall sannolikheten for snittetvara produkten av sannolikheterna.
Man kan visa att om A1, . . . , An ar oberoende, sa ar aven A∗1, . . . , A
∗n oberoende.
Detta kan verka helt sjalvklart, med ar inte helt latt att visa. Vi nojer oss medfallet n = 2.
Vi har
P (A∗ ∩B∗) = P ((A ∪B)∗) = 1− P (A ∪B)
= 1− P (A)− P (B) + P (A)P (B) = 1− P (A)− P (B)(1− P (A))
= (1− P (A))(1− P (B)) = P (A∗)P (B∗).
Sats 2.3 Lat handelserna A1, . . . , An vara oberoende. Satt B =⋃n
1 Ai, dvs.minst en av handelserna A1, . . . , An intraffar. Da galler
P (B) = 1− (1− P (A1))(1− P (A2)) . . . (1− P (An)).
2.3. Stokastiska variabler 11
Bevis.
P (B) = 1− P (B∗) = 1− P
(n⋂1
A∗i
)= 1−
n∏1
P (A∗i ) = 1−
n∏1
(1− P (Ai)).
2
2.3 Stokastiska variabler
I nastan alla situationer som vi betraktar, kommer resultaten av slumpforsokenatt vara tal, kontinerliga matvarden eller antal. Det ar praktiskt att anpassabeteckningarna till detta.
Definition 2.4 En stokastisk variabel s.v. (eller en slumpvariabel) X ar enfunktion fran Ω till reella linjen.
Lite lost kommer vi att uppfatta X som en beteckning for resultatet av ettslumpforsok.
For ett tarningskast kan X anta ett av vardena 1, 2, 3, 4, 5 eller 6.
Lat X vara en stokastisk variabel. Det mest allmanna sattet att beskriva X,dvs. hur X varierar, ar att ange dess fordelningsfunktion.
Definition 2.5 Fordelningsfunktionen FX(x) till en s.v. X definieras av
FX(x) = P (X ≤ x).
En fordelningsfunktion FX(x) har foljande egenskaper:
1) FX(x) ar icke-avtagande;
2) FX(x) → 1 da x →∞;
3) FX(x) → 0 da x → −∞;
4) FX(x) ar hogerkontinuerlig.
Forelasning 3
3.1 Stokastiska variabler
Det ar lampligt att skilja pa fallen da var stokastiska variabel representerarkontinuerliga matvarden eller antal.
Diskret stokastisk variabel
Vi ska nu betrakta fallet med antal.
Definition 3.1 En s.v. X sages vara diskret om den kan anta ett andligt ellerupprakneligt oandligt antal olika varden.
Det viktiga ar att de mojliga vardena ligger i en andlig eller hogst upprakneligmangd. Oftast tar en diskret s.v. icke-negativa heltalsvarden ”raknar ett an-tal”. Vi kommer att forutsatta detta, om vi inte explicit sager nagot annat.
Definition 3.2 For en diskret s.v. definieras sannolikhetsfunktionen pX(k)av
pX(k) = P (X = k).
Om X beskriver ett tarningskast galler saledes
pX(k) =
16
for k = 1, 2, 3, 4, 5, 6
0 for ovriga varden pa k.
Gor vi nu slumpforsoket att pa mafa dra en av 6 lappar med talen 1, 2, 3, 4,5 eller 6, sa far vi samma s.v. som i tarningskasten.
Relationen mellan sannolikhetsfunktionen och fordelningsfunktionen for en dis-kret stokastisk variabel fas av sambanden
FX(x) =∑
j≤[x]
pX(j), dar [x] betyder heltalsdelen av x,
ochpX(k) = FX(k)− FX(k − 1)
(= FX(k + 1
2)− FX(k − 1
2)).
13
14 Forelasning 3
Det foljer av detta att
pX(k) ≥ 0 och∞∑0
pX(k) = 1.
Binomialfordelningen
Lat oss betrakta fallet ”dragning med aterlaggning”, och lat X vara antaletvita kulor i urvalet om n kulor. Satt p = v
v+s, dvs. p ar sannolikheten for en
vit kula. Da fas
pX(k) =
(n
k
)pk(1− p)n−k, for k = 0, 1, . . . , n.
Nu ar det inte alls nodvandigt att p ar ett rationellt tal, utan vi kan allmanntbetrakta ett forsok dar en handelse A med p = P (A) kan intraffa, och lataX vara antaltet ganger som A intraffar i n oberoende upprepningar av dettaforsok.
Definition 3.3 En diskret s.v. X sages vara binomialfordelad med paramet-rarna n och p, Bin(n, p)-fordelad, om
pX(k) =
(n
k
)pk(1− p)n−k, for k = 0, 1, . . . , n.
Poissonfordelningen
Ofta nar det ar rimligt att anta att en s.v. X ar Bin(n, p)-fordelad, sa ar detaven rimligt att anta att p ar liten och att n ar stor. Lat oss anta att p = µ/n,dar n ar ”stor” men µ ar ”lagom”. Da galler
pX(k) =
(n
k
)pk(1− p)n−k =
n(n− 1) . . . (n− k + 1)
k!
(µ
n
)k (1− µ
n
)n−k
=µk
k!
(1− µ
n
)n
︸ ︷︷ ︸≈ e−µ
n(n− 1) . . . (n− k + 1)
nk︸ ︷︷ ︸≈ 1
(1− µ
n
)−k
︸ ︷︷ ︸≈ 1
≈ µk
k!e−µ.
Definition 3.4 En diskret s.v. X sages vara Poissonfordelad med parameterµ, Po(µ)-fordelad, om
pX(k) =µk
k!e−µ, for k = 0, 1, 2 . . . .
Kontinuerlig stokastisk variabel
Har kan vi tyvarr inte ge definitionen i termer av den stokastiska variabelnsjalv. Det racker inte att saga att X kan ta ett overuppraneligt antal varden.Vi far darfor ge definitionen i termer av fordelningsfunktionen, som ju ar denallmannaste beskrivningen av en s.v.
3.1. Stokastiska variabler 15
Definition 3.5 En s.v. X sages vara kontinuerlig om dess fordelningsfunktionhar framstallningen
FX(x) =
∫ x
−∞fX(t) dt
for nagon funktion fX(x). Funktionen fX(x) kallas tathetsfunktionen for X.
Omvant galler att fX(x) = F ′X(x).
Tathetsfunktionen och sannolikhetsfunktionen kommer ofta att upptrada ”pa-rallellt”.
Tathetsfunktionen kan inte direkt tolkas som en sannolikhet, men vi har, forsma varden pa h,
P (x < X ≤ x + h) = FX(x + h)− FX(x) =
∫ x+h
x
fX(t) dt ≈ h fX(x).
Ett par begrepp:
Definition 3.6 Losningen till ekvationen 1 − FX(x) = α kallas α-kvantilentill X och betecknas med xα.
Rita figur!
x0.5 kallas for medianen och ar saledes det varde som overskrides med sammasannolikhet som det underskrides.
Likformig fordelning U(a, b)
fX(x) =
1
b−afor a ≤ x ≤ b,
0 annars.
FX(x) =
0 for x ≤ a,x−ab−a
for a ≤ x ≤ b,
1 for x ≥ b.
Rita figur!
16 Forelasning 3
Exponentialfordelningen Exp(λ)
fX(x) =
λ e−λx for x ≥ 0,
0 for x < 0.
FX(x) =
1− e−λx for x ≥ 0,
0 for x < 0.
Denna fordelning ar viktig i vantetidsproblem. For att inse detta sa tar vi ettenkelt exempel:
Antag att n personer gar forbi en affar per tidsenhet. Lat var och en av dessaga in i affaren oberoende av varandra och med sannolikheten p. Lat X varatiden tills forsta kunden kommer. X > x betyder att ingen kund kommit efterx tidsenheter.
P (X > x) = (1− p)nx ty nx personer har gatt forbi.
Lat oss anta precis som da vi ”harledde” Poissonfordelningen, att p = µ/n,dar n ar ”stor” men µ ar ”lagom”. Da galler
P (X > x) = (1− p)nx = (1− µ
n)nx ≈ e−µx.
Detta ger att FX(x) = 1 − P (X > x) ≈ 1 − e−µx, dvs X ar approximativtExp(µ). Observera att vantevardet (annu ej definierat, men det kommer) ar1/µ!
Normalfordelningen.
fX(x) =1
σ√
2πe−(x−µ)2/2σ2
dar µ godtycklig konstant och σ > 0.
Denna fordelning ar mycket viktig, och vi skall aterkomma till den. Man kaninte analytiskt ge fordelningsfunktionen, vilket kan tyckas lite taskigt.
3.2 Flerdimensionella stokastiska variabler
Ofta mater vi i samma slumpforsok flera storheter, och da beskrivs resultatetav en n-dimensionell stokastisk variabel (X1, X2, . . . , Xn).
ExempelSlumpforsoket ar att vi valjer en person slumpmassigt har i rummet, och satter
X = personens vikt;Y = personens langd.
Vi nojer oss med att ge detaljer i det tva-dimensionella fallet. Lat (X,Y) varaen tva-dimensionell s.v.
3.2. Flerdimensionella stokastiska variabler 17
FX,Y (x, y) = P (X ≤ x, Y ≤ y) kallas (den simultana) fordelningsfunktionenfor (X,Y ).
FX(x) = P (X ≤ x) = P (X ≤ x, Y ≤ ∞) = FX,Y (x,∞) kallas den marginellafordelningsfunktionen for X.
FY (y) = FX,Y (∞, y) kallas den marginella fordelningsfunktionen for Y .
Definition 3.7 X och Y ar oberoende stokastiska variabler om
FX,Y (x, y) = FX(x)FY (y)
Vi kommer ihag att for handelser sa var det inte helt latt att generlisera tillgodtyckligt antal. For s.v. ar det dock skenbart enklare.
Definition 3.8 (X1, X2, . . . , Xn) ar oberoende stokastiska variabler om
FX1,...,Xn(x1, . . . , xn) = P (X1 ≤ x1, . . . , Xn ≤ xn)
= FX1(x1) · · ·FXn(xn).
Kommentera!
Omvant galler att om X1, X2, . . . , Xn ar oberoende s.v. sa fas den simultanafordelningen enl. definitionen ovan.
Forelasning 4
4.1 Funktioner av stokastiska variabler
Storsta och minsta vardets fordelning
Lat X1, X2, . . . , Xn vara oberoende s.v. med resp. fordelningsfunktionerFX1(x1), . . . , FXn(xn).
Satt
Y = max(X1, X2, . . . , Xn)
Z = min(X1, X2, . . . , Xn).
Vi har
FY (y) = P (Y ≤ y) = P (alla Xi ≤ y) = FX1(y) · · ·FXn(y)
och
FZ(z) = P (min(X1, X2, . . . , Xn) ≤ z)
= 1− P (min(X1, X2, . . . , Xn) > z) = 1− P (alla Xi > z)
= 1− P (X1 > z) · · ·P (Xn > z) = 1− (1− FX1(z)) · · · (1− FXn(z)).
Summans fordelning
Lat X och Y vara tva oberoende kontinuerliga stokastiska variabler med tatheterfX(x) och fY (y).
Satt Z = X + Y . Da galler
FZ(z) = P (X + Y ≤ z) = P ((X, Y ) ∈ (x, y); x + y ≤ z)
=
∫
x+y≤z
fX(x)fY (y) dx dy
(fixera x och integrera over y)
=
∫ ∞
−∞fX(x)
(∫ z−x
−∞fY (y) dy
)dx
19
20 Forelasning 4
=
∫ ∞
−∞fX(x)FY (z − x) dx.
Z ar ocksa en kontinuerlig stokastisk variabel. Derivation map. z ger
fZ(z) = F ′Z(z) =
∫ ∞
−∞fX(x)fY (z − x) dx.
Denna operation kallas faltning.
4.2 Vantevarden
Vi ska nu infora begreppet vantevarde for en s.v. Detta ar den teoretiskamotsvarigveten till begreppet medelvarde for en talfoljd.
Antag att vi har en lang talfoljd x1, . . . , xn, dar talen ar ganska sma heltal.Medelvardet definierades av
x =1
n
n∑
k=1
xk.
Det kan vara bekvamt att gora omskrivningen
x =∞∑i=0
i · fi,
dar
fi =antalet k; xk = i
n.
Nar vi diskuterade tolkningen av begreppet sannolikhet, sa sa vi att
antalet ganger A intraffar
n→ P (A) da n vaxer.
For diskreta s.v. galler da att fk → pX(k) da k → ∞. Vi leds av detta tillfoljande definition:
Definition 4.1 Vantevardet µ for en s.v. X ar
µ = E(X) =
∑∞k=0 kpX(k) i diskreta fallet,∫∞
−∞ xfX(x) dx i kontinuerliga fallet.
Vi skall alltid anta att
∞∑
k=0
|k|pX(k) < ∞ och
∫ ∞
−∞|x|fX(x) dx < ∞.
4.2. Vantevarden 21
Vantevardet ger samma information och samma brist pa information for dens.v. som melelvardet ger for en talfoljd.
Lat oss tanka pa tarningskast igen. Hur mycket skulle ni vara villiga att betalafor foljande spel: Jag kastar en tarning, och ni far lika manga kronor som detblir ogon?
Vi har
pX(k) =
16
for k = 1, 2, 3, 4, 5, 6
0 for ovriga varden pa k,
vilket ger
E(X) =∞∑
k=0
kpX(k) =6∑
k=1
k1
6= 3.5.
Poissonfordelningen
pX(k) =µk
k!e−µ, for k = 1, 2 . . . .
E(X) =∞∑
k=0
k · µk
k!e−µ =
∞∑
k=1
k · µk
k!e−µ =
∞∑
k=1
µk
(k − 1)!e−µ
= µ
∞∑
k=1
µk−1
(k − 1)!e−µ = µ
∞∑i=0
µi
i!e−µ = µ.
Exponentialfordelningen
fX(x) =
λ e−λx for x ≥ 0,
0 for x < 0.
E(X) =
∫ ∞
−∞xfX(x) dx =
∫ ∞
0
xλ e−λx dx =
y = λxx = y/λ
dx = dy/λ
=1
λ
∫ ∞
0
ye−y dy =1
λ
[−ye−y]∞0
+1
λ
∫ ∞
0
e−y dy = 0− 1
λ
[e−y
]∞0
=1
λ.
Antag att vi kanner ford. for X, och vill berakna E(Y ) dar Y = g(X).
Foljande, skenbart oskyldiga, sats ar ordentligt svar att bevisa i det kontinu-erliga fallet
Sats 4.1 Vantevardet for g(X) ar
E(g(X)) =
∑∞k=0 g(k)pX(k) i diskreta fallet,∫∞
−∞ g(x)fX(x) dx i kontinuerliga fallet.
22 Forelasning 4
Bevis. Blom m.fl. visar satsen i det diskreta fallet, sa vi betraktar det konti-nuerliga fallet. Vi begransar oss dock till fallet da g ar strikt vaxande. Dennabegransning forenklar beviset hogst avsevart.
Lat g−1(x) vara inversen till g. Da galler
FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (X ≤ g−1(y)) = FX(g−1(y))
vilket ger
fY (y) =dFX(g−1(y))
dy= dF ′
X(g−1(y))dg−1(y)
dy= fX(g−1(y))
dg−1(y)
dy.
Av detta fas
E(Y ) =
∫ ∞
−∞yfX(g−1(y))
dg−1(y)
dydy
=
x = g−1(y)
dx = dg−1(y)dy
dy
y = g(x)
=
∫ ∞
−∞g(x)fX(x) dx.
2
Fran denna sats foljer bl.a. foljande:
E(h(X) + g(X)) = E(h(X)) + E(g(X))
med det viktiga specialfallet
E(aX + b) = aE(X) + b.
Spridningsmatt
Vantevardet sager ingen om hur X varierar.
Diskutera
|X − µ| och (X − µ)2
och dess egenskaper!
Vi leds nu till foljande definition.
Definition 4.2 Variansen σ2 for en s.v. X ar
σ2 = V (X) = E[(X − µ)2].
Foljande rakneregel ar mycket anvandbar:
Sats 4.2 V (X) = E(X2)− [E(X)]2 = E(X2)− µ2.
4.2. Vantevarden 23
Bevis.V (X) = E[(X − µ)2] = E[X2 + µ2 − 2µX]
= E[X2] + µ2 − 2µE[X] = E(X2)− µ2.
2
I exemplet med tarningsspel har vi µ = 3.5 = 216. Vidare har vi
E(X2) =∞∑
k=−∞k2pX(k) =
6∑
k=1
k2 1
6=
91
6= 15.16
Enligt rakneregeln fas
V (X) =91
6−
(21
6
)2
=546− 441
36= 2.92.
Sats 4.3 V (aX + b) = a2V (X).
Bevis.
V (aX + b) = E[(aX + b− E(aX + b))2] = E[(aX + b− aµ− b)2]
= E[(aX − aµ)2] = a2E[(X − µ)2] = a2V (X).
2
Definition 4.3 Standardavvikelsen σ for en s.v. X ar
σ = D(X) =√
V (X).
Sats 4.4 D(aX + b) = |a|D(X).
Allmant galler:
D – ratt sort.V – lattare att rakna med.
Exponentialfordelningen.
E(X2) =
∫ ∞
0
x2λe−λx dx =1
λ2
∫ ∞
0
y2e−y dy = part. int. =2
λ2
⇔V (X) =
2
λ2− 1
λ2=
1
λ2⇔ D(X) =
1
λ.
24 Forelasning 4
Poissonfordelningen
E(X(X − 1)) =∞∑
k=0
k(k − 1) · µk
k!e−µ =
∞∑
k=2
k(k − 1) · µk
k!e−µ
=∞∑
k=2
µk
(k − 2)!e−µ = µ2
∞∑
k=2
µk−2
(k − 2)!e−µ = µ2
∞∑i=0
µi
i!e−µ = µ2.
Detta ger µ2 = E(X(X − 1)) = E(X2)− µ, eller E(X2) = µ2 + µ, vilket ger
V (X) = E(X2)− µ2 = µ2 + µ− µ2 = µ.
Forelasning 5
5.1 Kovarians och korrelationskoefficient
Lat (X,Y ) vara en tvadimensionell s.v. dar vi ar intresserade av sambandetmellan Xs och Y s variation. Det kan vara natuligt att betrakta variablerna
X − µX och Y − µY .
Vi skiljer pa fallen da X och Y ”samvarierar” resp. ”motverkar varandra”, dvs.da
ett stort/litet varde pa X gor ett stort/litet varde pa Y troligtresp.ett stort/litet varde pa X gor ett litet/stort varde pa Y troligt.
Betraktar vi nu variabeln
(X − µX)(Y − µY ),
sa innebar detta att den i forsta fallet, eftersom + ·+ = + och − · − = +, attden har en tendens att vara positiv. Pa motsvarande satt, eftersom − ·+ = −och + · − = −, har den i andra fallet en tendens att vara negativ. Det som vi,lite slarvigt, har kallat tendens, kan vi ersatta med vantevarde. Vi leds da tillfoljande definition.
Definition 5.1 Kovariansen mellan X och Y ar
C(X,Y ) = E[(X − µX)(Y − µY )],
dar µX = E(X) och µY = E(Y ).
Kovariansen kan sagas ha fel sort. Det verkar rimligt att ett matt pa ett saabstrakt begrepp som samvariation skall vara ”sortfritt”. Det vanligaste mattetar korrelationskoefficienten.
Definition 5.2 Korrelationskoefficienten mellan X och Y ar
ρ = ρ(X, Y ) =C(X, Y )
D(X)D(Y ).
25
26 Forelasning 5
Man kan visa att |ρ| ≤ 1, dar |ρ| = ±1 betyder att det finns ett perfekt linjartsamband, dvs. Y = aX + b.
Sats 5.1 Om X och Y ar oberoende sa ar de okorrelerade, dvs. ρ(X,Y ) = 0.
Omvandningen galler ej, dvs. okorrelerade variabler kan vara beroende.
ExempelLat (X,Y ) vara en tvadimensionell diskret variabel med foljande sannolikhets-funktion:
pX,Y (i, j) =
14
om (i, j) = (0, 1), (0,−1), (1, 0), eller (−1, 0).
0 annars.
Rita!
Uppenbarligen ar dessa variabler beroende. Av symmetrin foljer att µX =µY = 0. Variabeln XY tar alltid vardet 0. Saledes fas
C(X,Y ) = E(XY ) = 0.
Om (X, Y ) ar tvadimensionellt normalfordelad, sa innebar dock ρ = 0 att Xoch Y ar oberoende.
Varning Korrelationskoefficienten ar svartolkad!
5.2 Mer om vantevarden
Sats 5.2 Lat (X,Y ) vara en tvadimensionell s.v. Da galler
(1) E(aX + bY ) = aE(X) + bE(Y );
(2) V (aX + bY ) = a2V (X) + b2V (Y ) + 2abC(X,Y ).
Bevis. (1) foljer av av raknereglerna for integraler resp. summor.
(2) fas av foljande
V (aX + bY ) = E[(aX + bY − aµX − bµY )2] = E[(aX − aµX + bY − bµY )2]
= E[a2(X − µX)2 + b2(Y − µY )2 + 2ab(X − µX)(Y − µY )]
= a2V (X) + b2V (Y ) + 2abC(X,Y ).
2
5.2. Mer om vantevarden 27
Foljdsats 5.1 Lat X och Y vara tva oberoende (okorrelerade racker) s.v. Dagaller
E(X + Y ) = E(X) + E(Y ) V (X + Y ) = V (X) + V (Y )
E(X − Y ) = E(X)− E(Y ) V (X − Y ) = V (X) + V (Y ).
Detta gar att utvidga till godtyckligt manga variabler:
Sats 5.3 Lat X1, . . . , Xn vara oberoende (okorrelerade racker) s.v. och satt
Y = c1X1 + . . . + cnXn.
Da gallerE(Y ) = c1E(X1) + . . . + cnE(Xn)
ochV (Y ) = c2
1V (X1) + . . . + c2nV (Xn)
Arimetiskt medelvarde
Sats 5.4 Lat X1, X2, . . . , Xn vara oberoende och likafordelade s.v. med vante-varde µ och standardavvikelse σ. Da galler att
E(X) = µ, V (X) =σ2
noch D(X) =
σ√n
.
Uttrycket ”X1, X2, . . . , Xn ar likafordelade” betyder att de stokastiska variab-lernas fordelningar, dvs. att de stokastiska variablernas statistiska egenskaper,ar identiska. Utfallen av variablerna varierar dock.
Sats 5.5 (Tjebysjovs olikhet)
For varje ε > 0 galler
P (|X − µ| > ε) ≤ V (X)
ε2.
(Ersatter vi ε med kσ fas formuleringen i Blom m.fl.)
Bevis. Detta ar den enda riktigt djupa satsen i kursen som vi kan bevisa.
Njut av elegansen i beviset! Bokens bevis via Markovs olikhet ar egentligenannu elegantare!
Vi nojer oss med det kontinuerliga fallet.Vi har
V (X) =
∫ ∞
−∞(x− µ)2fX(x) dx ≥
∫
|x−µ|>ε
(x− µ)2fX(x) dx
28 Forelasning 5
≥ ε2
∫
|x−µ|>ε
fX(x) dx = ε2P (|X − µ| > ε).
2
Sats 5.6 Stora talen lag
For varje ε > 0 galler
P (|X − µ| > ε) → 0 da n →∞.
Bevis. Enl. Tjebysjovs olikhet galler
P (|X − µ| > ε) ≤ V (X)
ε2=
σ2
nε2→∞
da n →∞. 2
Diskutera relationen till relativa frekvensers stabilitet.
Forelasning 6
6.1 Normalfordelningen
Diskutera matfel. Ofta beror matfelen pa att att oberoende fel av sammastorleksordning adderar sig. Erfarenheten visar att matfel fordelar sig enl. figur.
Rita!
Vi ska aterkomma till detta i slutet av forelasningen.
Standardiserad normalfordelning
Definition 6.1 En s.v. Z sages vara standardiserad normalfordelad om denar N(0, 1)-fordelad, dvs. om den har tathetsfunktionen
ϕ(z) =1√2π
e−z2/2.
Dess fordelningsfunktion betecknas med Φ(z), dvs.
Φ(z) =
∫ z
−∞
1√2π
e−x2/2 dx.
Ett problem ar att fordelningsfunktionen inte kan ges pa en analytisk form.Det ar dock latt att numeriskt berakna fordelningsfunktionen och i praktikenanvander man tabeller over Φ(x).
Vi observerar att ϕ(−z) = ϕ(z). Φ(z) ar tabulerad endast for x ≥ 0. Vi hardock
Φ(−z) =
∫ −z
−∞ϕ(x) dx = [y = −x] = −
∫ z
∞ϕ(−y) dy
=
∫ ∞
z
ϕ(y) dy = 1− Φ(z).
Om Z ar N(0, 1)-fordelad, sa kan man visa att
E(Z) = 0 (ty ϕ(−z) = ϕ(z))
V (Z) = 1.
29
30 Forelasning 6
Nar vi kommer till statistikdelen behover vi ofta losa ekvationer av foljandeslag:Bestam z sa att vi for givet α harP (Z ≤ z) = 1− α;P (Z > z) = 1− α;P (−z < Z ≤ z) = 1− α.
For att losa sadana ekvationer infor vi α-kvantilen λα definierad avP (Z > λα) = α eller
α = 1− Φ(λα).
Det ar da bra att observera att
1− α = 1− Φ(λ1−α)
⇔α = Φ(λ1−α)
⇔α = 1− Φ(−λ1−α),
vilket gerλ1−α = −λα.
Allman normalfordelning
Definition 6.2 En s.v. X sages vara N(µ, σ)-fordelad, dar µ reell och σ > 0,om
Z =X − µ
σar N(0, 1)-fordelad.
Sats 6.1 Lat X vara N(µ, σ)-fordelad. Da galler
fX(x) =1
σϕ
(x− µ
σ
)=
1
σ√
2πe−(x−µ)2/2σ2
och
FX(x) = Φ
(x− µ
σ
).
Bevis. Vi har
FX(x) = P (X ≤ x) = P
(X − µ
σ≤ x− µ
σ
)
= P
(Z ≤ x− µ
σ
)= Φ
(x− µ
σ
).
Derivation ger fX(x) = 1σϕ(
x−µσ
). 2
6.1. Normalfordelningen 31
Sats 6.2 Om X ar N(µ, σ)-fordelad sa galler
E(X) = µ och V (X) = σ2.
Bevis. Vi ska nu se hur listig var definition ar!
X = σZ + µ
E(X) = σE(Z) + µ = 0 + µ = µ
V (X) = σ2V (Z) + 0 = σ2.
2
Sats 6.3 Lat X vara N(µ, σ)-fordelad och satt Y = aX + b. Da galler det att
Y ar N(aµ + b, |a|σ)-fordelad.
Bevis. Fran definitionen foljer att X = µ + σZ dar Z ar N(0, 1)-fordelad.Detta ger
Y = aX + b = a(µ + σZ) + b = aµ + b + aσZ
Y − (aµ + b)
aσ= Z.
Om a > 0 foljer satsen. Om a < 0 utnyttjar vi att Z och −Z har sammafordelning. 2
Sats 6.4 Om X ar N(µX , σX)-fordelad, Y ar N(µY , σY )-fordelad och X ochY ar oberoende sa galler att
X + Y ar N
(µX + µY ,
√σ2
X + σ2Y
)-fordelad
och
X − Y ar N
(µX − µY ,
√σ2
X + σ2Y
)-fordelad.
Denna sats tycks inte kunna bevisas pa annat satt an genom faltning.
Sats 6.5 Lat X1, . . . , Xn vara oberoende och N(µ1, σ1), . . . , N(µn, σn). Da galleratt
n∑
k=1
ckXk ar N
n∑
k=1
ckµk,
√√√√n∑
k=1
c2kσ
2k
-fordelad.
Allman regel : Linjarkombinationer av oberoende normalfordelade stokastiskavariabler ar normalfordelade med ratt vantevarde och ratt standardavvikelse.
Foljdsats 6.1 Lat X1, X2, . . . , Xn vara oberoende och N(µ, σ)-fordelade s.v.Da galler att
X ar N
(µ,
σ√n
)-fordelad.
32 Forelasning 6
6.2 Centrala gransvardessatsen
Vi har sett nagra exempel pa att normalfordelningen har trevliga statistiskaegenskaper. Detta skulle vi inte ha sa stor gladje av, om normalfordelningeninte dessutom var vanligt forekommande. Centrala gransvardessatsen CGS,som ar den huvudsakliga motiveringen for normalfordelningen, kan utan vidaresagas vara ett av sannolikhetsteorins och statistikens allra viktigaste resultat.
Sats 6.6 (CGS) Lat X1, X2, . . . vara oberoende och lika fordelade s.v. medvantevarde µ och standardavvikelse σ. Da galler att
P
(∑ni=1 Xi − nµ
σ√
n≤ x
)→ Φ(x) da n →∞.
Ofta uttrycker man slutsatsen i CGS som att∑n
i=1 Xi − nµ
σ√
nar approximativt N(0, 1)-fordelad
eller attn∑
i=1
Xi ar approximativt N(nµ, σ
√n)-fordelad.
En, for statistiken mycket vanlig anvandning av CGS ar foljande:
Foljdsats 6.2 Lat X1, X2, . . . vara oberoende och lika fordelade s.v. med vantevardeµ och standardavvikelse σ. Da galler att
P (a < X ≤ b) ≈ Φ
(b− µ
σ/√
n
)− Φ
(a− µ
σ/√
n
)
om n ar tillrackligt stort.
Det ar tyvarr inte mojligt att ge nagra generella och enkla tumregler om hurstort n maste vara for att normalapproximationen ska vara anvandbar. Dettaberor pa hur ”normalliknande” de enskilda variablerna Xk ar. Om Xkna arnormalfordelade sa ”galler” ju CGS for alla n. En tumregel ar att om Xknaar nagorlunda symmetriskt fordelade sa racker ganska sma n, sag nagot tiotal.Om Xkna ar patagligt skevt fordelade sa behover n var nagot eller i varsta fallnagra hundratal.
Det ar svart att formulera strikt, men det racker i CGS att Xkna ar nagorlundaoberoende och nagorlunda lika fordelade. Med ”nagorlunda lika fordelade”menas framforallt att det inte finns vissa Xk som ar mycket dominerande.Detta innebar att matfel i valgjorda forsok kan anses vara approximativt nor-malfordelade. I mindre valgjorda forsok kan det daremot mycket val finnasnagon dominerande felkalla som inte alls behover vara approximativt nor-malfordelad.
Forelasning 7
7.1 Binomialfordelningen och dess slaktingar
Vi paminner om urnmodellerna. Vi hade en urna med kulor av tva slag: v vitaoch s svarta. Vi drog n kulor ur urnan slumpmassigt.
Satt A = ”Man far k vita kulor i urvalet”.
Dragning utan aterlaggning :
P (A) =
(vk
)(s
n−k
)(
v+sn
) .
Dragning med aterlaggning :
P (A) =
(n
k
)(v
v + s
)k (s
v + s
)n−k
.
Hypergeometrisk fordelning
Antag att vi har N enheter, dar proportionen p, dvs Np stycken, har egenska-pen A. Drag ett slumpmassigt urval om n stycken enheter. Satt
X = antalet enheter i urvalet med egenskapen A.
I termer av urnmodellen for dragning utan aterlaggning galler Np = v ochN(1− p) = s om A = ”vit kula”. Saledes fas
pX(k) = P (X = k) =
(Npk
)(N(1−p)
n−k
)(
Nn
) ,
for 0 ≤ k ≤ Np och 0 ≤ n− k ≤ N(1− p).
Man sager att X ar Hyp(N,n, p)-fordelad.
Man kan visa att
E(X) = np och V (X) =N − n
N − 1np(1− p).
33
34 Forelasning 7
Vi skall aterkomma nagot till detta.
Binomialfordelningen
Antag att vi gor ett forsok dar en handelse A, med sannolikheten p = P (A),kan intraffa. Vi upprepar forsoken n ganger, dar forsoken ar oberoende. Satt
X = antalet ganger som A intraffar i de n forsoken.
Vi sager da att X ar binomialfordelad med parametrarna n och p, eller kortareatt X ar Bin(n, p)-fordelad.
Vi har
pX(k) =
(n
k
)pkqn−k, for k = 0, . . . , n,
dar q = 1− p.
Lat U1, . . . , Un vara s.v. definierade av
Ui =
0 om A∗ intraffar i forsok nummer i,
1 om A intraffar i forsok nummer i.
Lite eftertanke ger att U1, . . . , Un ar oberoende och att
X = U1 + . . . + Un.
DaE(Ui) = 0 · (1− p) + 1 · p = p
och
V (U1) = E(U2i )− E(Ui)
2 = E(Ui)− E(Ui)2 = p− p2 = p(1− p)
sa foljer
E(X) = nE(Ui) = np och V (X) = nV (Ui) = npq.
Diskutera motsv. for den hypergeometriska fordelningen.
Poissonfordelningen
Definition 7.1 En diskret s.v. X sages vara Poissonfordelad med parameterµ, Po(µ)-fordelad, om
pX(k) =µk
k!e−µ, for k = 0, 1 . . . .
Vi paminner om att om X ar Po(µ)-fordelad, sa galler
E(X) = µ och V (X) = µ.
Poissonfordelningen ar den viktigaste diskreta fordelningen, och har t.ex. foljandetrevliga egenskap.
7.2. Approximationer 35
Sats 7.1 Om X och Y vara oberoende Po(µX)- resp. Po(µY )-fordelade s.v.Da galler att X + Y ar Po(µX + µY )-fordelad.
Bevis.
P (X + Y = k) =k∑
i=0
P (X = i)P (Y = k − i) =k∑
i=0
µiX
i!e−µX
µ(k−i)Y
(k − i)!e−µY
= e−(µX+µY )
k∑i=0
µiXµ
(k−i)Y
i!(k − i)!
= e−(µX+µY ) (µX + µY )k
k!
k∑i=0
(k
i
)(µX
µX + µY
)i (µY
µX + µY
)(k−i)
︸ ︷︷ ︸= 1, jmf. Bin-ford.
.
2
7.2 Approximationer
Hyp(N,n, p)
Om n/N ar nagolunda liten, sa verkar det troligt att det inte spelar sa storroll om vi drar med aterlaggning eller ej.
Vi har(
Npk
)(N(1−p)
n−k
)(
Nn
) =Np!
k!(Np− k)!
N(1− p)!
(n− k)![N(1− p)− (n− k)]!
n!(N − n)!
N !
=n!
k!(n− k)!
Np!(N(1− p)!(N − n)!
(Np− k)![N(1− p)− (n− k)]!N !
≈ n!
k!(n− k)!
(Np)k(N(1− p))n−k
Nn=
(n
k
)pkqn−k.
2
Sats 7.2 Om X ar Hyp(N, n, p)-fordelad med n/N ≤ 0.1 sa ar X approxima-tivt Bin(n, p)-fordelad.
Bin(n, p)
Av Xs representation som en summa foljer att CGS kan tillampas.
Sats 7.3 Om X ar Bin(n, p)-fordelad med npq ≥ 10 sa ar X approximativtN(np,
√npq)-fordelad.
36 Forelasning 7
Detta innebar attP (X ≤ k)
P (X < k)
≈ Φ
(k − np√
npq
).
Med halvkorrektion menas att vi anvander foljande approximation:
P (X ≤ k) ≈ Φ
(k + 1
2− np√
npq
),
P (X < k) ≈ Φ
(k − 1
2− np√
npq
).
Trots att halvkorrektionen patagligt kan hoja noggrannheten, tar vi ratt lattpa den.
Av detta foljer att Hyp(N,n, p) ≈ N(np,√
npq) om n/N ≤ 0.1 och npq ≥ 10.Det racker dock att krava N−n
N−1np(1− p) ≥ 10.
Vi inforde ju Poissonfordelningen som en approximation av binomialfordel-ningen. Detta kan vi formalisera till foljande sats.
Sats 7.4 Om X ar Bin(n, p)-fordelad med p ≤ 0.1 sa ar X approximativtPo(np)-fordelad.
I var approximation antog vi aven att n var stor. Detta ar inte nodvandigt,men vart enkla resonemang fungerar inte utan denna extra forutsattning. Mankan visa att om X ar Bin(n, p) och Y ar Po(np) sa galler att
|P (X = k)− P (Y = k)| ≤ np2.
Po(µ)
Om bagga villkoren p ≤ 0.1 och npq ≥ 10 ar uppfyllda kan vi valja om vi villPoissonapproximera eller normalapproximera. Detta ar ingen motsagelse, somfoljande sats visar.
Sats 7.5 Om X ar Po(µ)-fordelad med µ ≥ 15 sa ar X approximativtN(µ,
õ)-fordelad.
7.2. Approximationer 37
Sammanfattning
npq≥10︷︸︸︷≈ N(np,√
npq)
Hyp(N, n, p)
n/N≤0.1︷︸︸︷≈ Bin(n, p)N−nN−1
np(1−p)≥10︷︸︸︷≈p≤0.1︷︸︸︷≈ Po( np︸︷︷︸
=µ
)
µ≥15︷︸︸︷≈ N(µ,√
µ)
N(np,√
npq)
Forelasning 8
8.1 Punktskattning
ExempelPa en laboration vill man bestamma den fysikaliska konstanten µ. Vi gor upp-repade matningar av µ och erhaller foljande matvarden:
x1, x2, . . . , xn
ProblemHur skall vi skatta µ sa bra som mojligt.
ModellVi uppfattar matvardena som utfall av n st. oberoende och lika fordelade s.v.X1, X2, . . . , Xn med E(Xi) = µ och V (Xi) = σ2.
En punktskatting µ∗obs av µ ar en funktion av matvardena: µ∗(x1, . . . , xn).
Nar vill vill analysera en skatting ersatter vi observationerna med de un-derliggande stokastiska variablerna. Vi sager da att µ∗ = µ∗(X1, . . . , Xn) aren stickprovsvariabel. Stickprovsvariabeln ar sjalv en stokastisk variabel, varsfordelning beror av fordelningen for X1, X2, . . . , Xn och darmed av µ.
Om vi inte anvander nagon statistisk teori sa valjer vi antagligen µ∗obs =x = 1
n
∑xi. For motsvarande stickprovsvariabel X galler att E(X) = µ och
V (X) = σ2/n.
AllmantVi har en uppsattning data
x1, x2, . . . , xn
som ses som utfall av s.v.X1, X2, . . . , Xn.
Dessa variabler antages vara oberoende och likafordelade och deras gemensam-ma fordelning beror av en okand parameter θ, t.ex. N(θ, σ), Po(θ), N(θ1, θ2),osv.
En punktskatting θ∗obs av θ ar en funktion θ∗(x1, . . . , xn) och motsvarande stick-provsvariabel θ∗ ar θ∗(X1, . . . , Xn)
39
40 Forelasning 8
Vad menas med en bra skattning?
Definition 8.1
1) En punktskattning θ∗obs av θ ar vantevardesriktig omE(θ∗(X1, . . . , Xn)) = θ.
2) En punktskattning θ∗obs av θ ar konsistent omP (|θ∗(X1, . . . , Xn)− θ| > ε) → 0 da n →∞.
3) Om θ∗obs och θ∗∗obs ar vantevardesriktiga skattningar av θ sa sager man attθ∗obs ar effektivare an θ∗∗obs om V (θ∗(X1, . . . , Xn)) < V (θ∗∗(X1, . . . , Xn)).
Skattning av vantevardet µ
Sats 8.1 Stickprovsmedelvardet x = 1n
∑ni=1 xi som skattning av vantevardet
µ ar
1) Vantevardesriktig;
2) Konsistent;
3) Ej nodvandigtvis effektiv, dvs. den effektivaste mojliga skattningen.
Bevis.
1) E(X) = µ.
2) V (X) = σ2/n och stora talens lag galler.
3) Motexempel: Lat Xi vara U(0, 2µ), dvs,
fX(x) =
12µ
om x ∈ (0, 2µ),
0 annars.
Da galler E(X) = µ och V (X) = µ2
3n.
(Om Y ar U(a, b) sa galler V (Y ) = (b− a)2/12.
Betrakta
µ∗ =n + 1
2nmax1≤i≤n
Xi.
Da galler
E(µ∗) = µ och V (µ∗) =µ2
n(n + 2)≤ µ2
3n.
8.1. Punktskattning 41
For att visa detta satter vi Y = max1≤i≤n Xi. Da fas
FY (x) =
0 om x ≤ 0,xn
(2µ)n om x ∈ (0, 2µ),
1 om x ≤ 0,
eller
fY (x) =
nxn−1
(2µ)n om x ∈ (0, 2µ),
0 annars.
Detta ger
E(Y ) =
∫ 2µ
0
nxn
(2µ)ndx =
n
n + 12µ
E(Y 2) =
∫ 2µ
0
nxn+1
(2µ)ndx =
n
n + 2(2µ)2
V (Y ) =
(n
n + 2− n2
(n + 1)2
)(2µ)2 =
n
(n + 2)(n + 1)2(2µ)2.
Detta ger
E(µ∗) =n + 1
2n· n
n + 1· 2µ = µ
och
V (µ∗) =
(n + 1
2n
)2
V (Y ) =1
4n(n + 2)(2µ)2 =
µ2
n(n + 2).
2
Skattning av σ2
Sats 8.2 Stickprovsvariansen s2 = 1n−1
∑ni=1(xi − x)2 som skattning av σ2 ar
1) Vantevardesriktig;
2) Konsistent;
3) Ej nodvandigtvis effektiv.
1) anvands ofta som motivering for att man dividerar med n− 1, men det aren dalig motivering, eftersom man oftast vill skatta σ. s som skattning av σ ardock ej vantevardesriktig.
Maximum-likelihood-metoden
Vi ska nu studera en systematisk metod att hitta skattningar. Iden ar attskatta θ sa att utfallet blir sa ”troligt” som mojligt.
Antag att Xi har tathetsfunktionen f(x, θ), θ okand.
42 Forelasning 8
Definition 8.2L(θ) = f(x1, θ) · · · · · f(xn, θ)
kallas L-funktionen.
(For diskreta fallet hanvisas till boken.)
Definition 8.3 Det varde θ∗obs for vilket L(θ) antar sitt storsta varde kallasML-skattningen av θ.
For stora stickprov ar denna skattning i allmanhet mycket bra.
ExempelXi ar N(θ, σ), dvs.
f(x, θ) =1
σ√
2πe−
12(
x−θσ )
2
.
Vi observerar x1, . . . , xn. Da fas
L(θ) =1
σn(2π)n/2e−
12
Pn1 (
xi−θ
σ )2
log L(θ) = − log(σn(2π)n/2)− 1
2σ2
n∑1
(xi − θ)2
d log L(θ)
dθ=
1
2σ2
n∑1
2(xi − θ).
d log L(θ)dθ
= 0 ger∑n
1 xi = nθ, dvs. θ∗obs = x.
I detta fall ar θ∗obs effektiv !
Minsta-kvadrat-metoden
Om vi inte kanner fordelningen helt kan inte ML-metoden anvandas. Iblandger den aven svara matematiska problem. Man kan da ga tillvaga pa foljandesatt:
Lat x1, . . . , xn vara ett stickprov fran en fordelning med E(X) = µ(θ) dar µ(θ)ar en kand funktion av en okand parameter θ.
Satt Q(θ) =∑n
i=1(xi − µ(θ))2 och minimera Q(θ) map. θ. Losningen θ∗obs tilldetta problem kallas MK-skattningen av θ.
Forelasning 9
9.1 Intervallskattning
ExempelVi atergar till var fysikaliska konstant µ, dvs. vi uppfattar matvardena somutfall av n st. oberoende och lika fordelade s.v. X1, X2, . . . , Xn med E(Xi) = µoch V (Xi) = σ2.
Oftast ar vi inte nojda med att ange X, utan vi vill ha en uppfattning omprecisionen i skattningen. Visserligen vet vi att
E(X) = µ och D(X) =σ√n
,
men vi vill ha en mera informativ och lattbegriplig beskrivning av precisionenav vart uttalande. Vi leds da till begreppet konfidensintervall.
Definition 9.1 Lat x1, x2, . . . , xn vara utfall av X1, X2, . . . , Xn vars fordelningberor av en okand parameter θ. Intervallet
Iθ = (a1(x1, . . . , xn), a2(x1, . . . , xn))
kallas ett konfidensintervall for θ med konfidensgrad 1− α om
P (a1(X1, . . . , Xn) < θ < a2(X1, . . . , Xn)) = 1− α.
Ett stickprov, konfidensintervall for µ
Normalfordelning
a) σ kant
Vi antar nu att vara matningar kommer fran en normalfordelning, dvs. attX1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade.
Detta innebar attX − µ
σ/√
nar N(0, 1)-fordelad.
43
44 Forelasning 9
Saledes galler att
P
(−λα/2 <
X − µ
σ/√
n< λα/2
)= 1− α.
Rita figur och paminn om att λα/2!
Detta ger
P
(−λα/2 <
X − µ
σ/√
n< λα/2
)= 1− α.
mP
(−λα/2σ/√
n < X − µ < λα/2σ/√
n)
= 1− α
mP
(−λα/2σ/√
n < µ−X < λα/2σ/√
n)
= 1− α
mP
(X − λα/2σ/
√n < µ < X + λα/2σ/
√n)
= 1− α.
Jmf. vi definitionen av konfidensintervall sa inser vi att
Iµ = x± λα/2σ/√
n
har konfidensgrad 1− α. En vanlig konfidensgrad ar 95%. Da ar λ0.025 = 1.96.
b) σ okant
Vi utgar nu franX − µ
S/√
n,
dar
S2 =1
n− 1
n∑i=1
(Xi −X)2.
Man kan berakna fordelningen for denna variabel.
Man sager attX − µ
S/√
n
ar t-fordelad med n− 1 frihetsgrader, eller att den ar t(n− 1)-fordelad.
t-fordelningen finns tabulerad. Fordelning ar symmetrisk, och for stora vardenpa n, lik N(0, 1)-fordelningen. Vi aterkommer till t-fordelningen.
Pa samma satt som i a) fas nu att
Iµ = x± tα/2(n− 1)s/√
n
ar ett konfidensintervall for µ med konfidensgrad 1− α.
9.1. Intervallskattning 45
I fallet med n = 10 galler t0.025(9) = 2.26, vilket kan jamforas med λ0.025 = 1.96.
Ett stickprov, konfidensintervall for σ
Vi ska borja med ett par sannolikhetsteoretiska resultat.
Definition 9.2 Om Z1, . . . , Zn ar oberoende och N(0, 1)-fordelade, sa ar
n∑i=1
Z2i
χ2(n)-fordelad.
Sats 9.1 Om X1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade sa ar
1
σ2
n∑i=1
(Xi −X)2 =(n− 1)S2
σ2
χ2(n− 1)-fordelad.
Detta ar den ”riktiga” motiveringen till att man i s2 dividerar med n− 1.
Vi ar nu i en lite besvarligare situation an for µ, eftersom χ2-fordelningeninte ar symmetrisk. I normal- respektive t-fallet utnyttjade vi att symmetrinmedforde att λ1−α = −λα resp. t1−α(n− 1) = −tα(n− 1).
Lat nu χ2α(n− 1) vara α-kvantilen i χ2(n− 1)-fordelningen. Da galler
P
(χ2
1−α/2(n− 1) <(n− 1)S2
σ2< χ2
α/2(n− 1)
)= 1− α
m
P
(χ2
1−α/2(n− 1)
n− 1<
S2
σ2<
χ2α/2(n− 1)
n− 1
)= 1− α
m
P
(n− 1
χ2α/2(n− 1)
<σ2
S2<
n− 1
χ21−α/2(n− 1)
)= 1− α
m
P
((n− 1)S2
χ2α/2(n− 1)
< σ2 <(n− 1)S2
χ21−α/2(n− 1)
)= 1− α
m
46 Forelasning 9
P
(√(n− 1)S2
χ2α/2(n− 1)
< σ <
√(n− 1)S2
χ21−α/2(n− 1)
)= 1− α.
Detta ger att
Iσ2 =
((n− 1)s2
χ2α/2(n− 1)
,(n− 1)s2
χ21−α/2(n− 1)
)
resp.
Iσ =
(√(n− 1)s2
χ2α/2(n− 1)
,
√(n− 1)s2
χ21−α/2(n− 1)
)
ar konfidensintervall for σ2 resp. σ med konfidensgrad 1− α.
t-fordelningen
Vi atergar nu lite till t-fordelningen.
Definition 9.3 Om X ar N(0, 1)-fordelad, Y ar χ2(f)-fordelad, och X och Yar oberoende, sa ar
X√Y/f
t(f)-fordelad.
Sats 9.2 Om X1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade sa ar X ochS2 oberoende.
Denna sats karakteriserar normalfordelningen! Den ar saledes inte sann fornagon annan fordelning.
Av detta foljer nu att
X − µ
S/√
n=
X − µ
σ/√
n
/√S2
σ2
ar t(n− 1)-fordelad.
Tva stickprov, konfidensintervall for skillnad mellan vantevarden.
Normalfordelning
Modell:X1, X2, . . . , Xn1 ar N(µ1, σ1) (stickprov 1)Y1, Y2, . . . , Yn2 ar N(µ2, σ2) (stickprov 2)
dar alla Xen och Y na ar oberoende.
a) σ1 och σ2 kanda
Vi vill nu skaffa oss ett konfidensintervall for µ1 − µ2. En naturlig skattningav µ1 − µ2 ar X − Y . Eftersom den ar en linjarkombination av oberoende
9.1. Intervallskattning 47
normalfordelade variabler, sa galler att
(X − Y )− (µ1 − µ2)√σ21
n1+
σ22
n2
ar N(0, 1)-fordelad. Av detta leds vi till
Iµ1−µ2 = x− y ± λα/2
√σ2
1
n1
+σ2
2
n2
.
Om σ1 = σ2 = σ reduceras detta till att
(X − Y )− (µ1 − µ2)
σ√
1n1
+ 1n2
ar N(0, 1)-fordelad och
Iµ1−µ2 = x− y ± λα/2σ
√1
n1
+1
n2
.
b) σ1 = σ2 = σ okand
Vi betraktar nu fallet da σ1 = σ2 = σ, men dar σ ar okand. Detta skattas meds dar s2 ar den sammanvagda stickprovsvariansen.
Man kan visa att man skall valja
s2 =(n1 − 1)s2
1 + (n2 − 1)s22
n1 + n2 − 2
och att(X − Y )− (µ1 − µ2)
S√
1n1
+ 1n2
ar t(n1 + n2 − 2)-fordelad.
Vi far
Iµ1−µ2 = x− y ± tα/2(n1 + n2 − 2)s
√1
n1
+1
n2
.
Stickprov i par
ExempelPa ett bryggeri gor man varje dag analyser av alkoholhalten i ol. Dessa ana-lyser utfors av tva kemister A och B. Man vill undersoka om det finns nagonsystematisk skillnad mellan As och Bs matningar. Varje dag, under n dagarlater man A och B, oberoende av varandra, analysera samma prov.
48 Forelasning 9
Vi leds da till foljande modell:
X1, X2, . . . , Xn ar N(µi, σA) (As analyser)Y1, Y2, . . . , Yn ar N(µi + ∆, σB) (Bs analyser)
dar alla Xen och Y na ar oberoende. Vi menar har att Xi ar N(µi, σA)-fordeladoch att Yi ar N(µi + ∆, σB)-fordelad.
Knepet ar nu att bildaZi = Yi −Xi
som ar N(∆, σ)-fordelad, med
σ
(=
√σ2
A + σ2A
).
Vi har nu aterfort problemet till fallet med ett stickprov, och kan ge konfi-densintervall eller genomfora test for ∆ pa samma satt som vi gjorde for µ,dvs.
I∆ = z ± λα/2σ/√
n
om σ kand ochI∆ = z ± tα/2(n− 1)s/
√n
om σ okand, dar
s2 =1
n− 1
n∑i=1
(zi − z)2.
Approximativa konfidensintervall
Ett stickprov, konfidensintervall for µ
Modell: X1, X2, . . . , Xn antages vara oberoende och likafordelade s.v. medE(Xi) = µ och V (Xi) = σ2.
Om n ar nagolunda stort, sa galler enligt CGS att
X − µ
σ/√
nar approximativt N(0, 1)-fordelad,
och helt analogt med normalfordelningsfallet far vi att
Iµ = x± λα/2σ∗obs/
√n
har approximativ konfidensgrad 1− α. Har forutsattes σ∗obs vara en bra skatt-ning av σ, vanligen s.
For fallet med tva stickprov, dar nu σ1 = σ2 ej behover antas, hanvisar vi tillBlom m.fl. 12.4.
9.1. Intervallskattning 49
Binomialfordelning
Antag nu att vi observerar ett utfall x av en s.v. X som ar Bin(n, p)-fordelad,dar p ar okant. En naturlig skattning av p ar
p∗obs =x
n.
Da galler, om np(1 − p) ≥ 10, och det kan vi anta om np∗obs(1 − p∗obs) ≥ 10”med lite rage”, att
p∗ − p√p(1− p)/n
ar approximativt N(0, 1)-fordelad. Har ar en viktig skillnad fran tidigare,namligen att vantevarde och varians inte ar ”fria” parametrar. Det enklas-te, och formodligen det vanligaste, ar att man skattar variansen med hjalp avp∗obs, och saledes leds man till det approximativa konfidensintervallet
Ip = p∗obs ± λα/2
√p∗obs(1− p∗obs)/n .
Forelasning 10
10.1 Hypotesprovning
Lat oss borja i den allmanna situationen, dvs.:
Vi har en uppsattning data x1, x2, . . . , xn som ses som utfall av s.v.
X1, X2, . . . , Xn.
Dessa variabler antages vara oberoende och likafordelade och deras gemensam-ma fordelning beror av en okand parameter θ.
En hypotes om verkligheten ar i detta sammanhang en mangd av θ-varden.Formaliserat betyder detta att vi vill testa en nollhypotes
H0 : θ ∈ H0
mot ett alternativ (eller en mothypotes)
H1 : θ ∈ H1.
Eftersom detta blir lite abstrakt, sa exemplifierar vi steg for steg med fallet daX1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade dar µ och σ ar okanda.
ExempelH0 : µ = µ0
motH1 : µ 6= µ0.
Att testa H0 ar detsamma som att avgora om vara data ar ”forenliga” medH0. Om H0 ej ar sann vill vi forkasta H0 till forman for H1. Vi bildar darforen teststorhet T = T (x1, . . . , xn) och ett kritiskt omrade C. (For ogonblicketbekymrar vi oss inte for hur T och C lampligen bildas.)
Test: Forkasta H0 om T ∈ C.
I praktiken bestams T av situationen och C av signifikansnivan (eller felrisken)α:
signifikansnivan = α ≥ P (H0 forkastas om H0 sann)
51
52 Forelasning 10
= P (T (X1, . . . , Xn) ∈ C om H0 sann).
Med risknivan garderar vi oss saledes mot felet att forkasta H0 da H0 ar sann.Vi bor valja H0 sa att detta ar det allvarligase felet. Det andra mojliga feletar att ej forkasta H0 da H0 ar falsk. Vi bildar styrkefunktionen
h(θ) = P (H0 forkasta) om θ ar det sanna vardet.
For θ ∈ H0 galler saledes att h(θ) ≤ α. Ett test ar ”bra” om h(θ) ar stor daθ ∈ H1.
Vi haller oss tills vidare till exemplet.
Har verkar det rimligt att utga fran
T (X1, . . . , Xn) =X − µ0
s/√
n,
som under H0 ar t(n − 1)-fordelad, och att forkasta H0 om |T (x1, . . . , xn)| arfor stor.
Vi far daα = P (|T (X1, . . . , Xn)| > c om H0 sann),
vilket ger c = tα/2(n− 1).
Vi kan nu binda ihop hypotesprovning med konfidensintervall, genom att kon-statera att testet ar exakt detsamma som foljande:
Bilda ett konfidensintervall Iµ och forkasta H0 om
Iµ 63 µ0.
Detta verkar ju hogst rimligt. Iµ ger ju de ”troliga” vardena pa µ, och om thehypotetiska vardet inte hor dit, sa bor ju H0 forkastas.
Om vi forkastar H0 sager vi att ”µ ar signifikant skilt fran µ0. Ordet signifikantar egentligen inte sa bra, eftersom det ofta tolkas som att skillnaden ar ”viktig”,men det betyder i sjalva verket endast ett ”skillnaden formodligen inte arslumpmassig”.
En god regel, om vi ar intresserade av µs eventuella avvikelse fran µ0, ar attforst gora en hypotesprovning. Om µ ar signifikant skilt fran µ0, kan vi ta dettasom ”alibi” for att diskutera storleken pa avvikelsen. Detta gors lampligengenom att vi betraktar Iµ. Pa detta satt minskar vi risken for att gora en ”storsak” av rent slumpmassig skillnad.
10.2. χ2-test 53
Ensidiga test
Vi betraktar nu foljande situation:
H0 : µ = µ0
motH1 : µ > µ0 (resp. µ < µ0).
Lat oss anta att stort varde pa µ ar en onskad egenskap. Det kan vara naturligtatt vi gor en atgard, t.ex. koper nagon ny utrustning, som bor oka vardet paµ. Det ar naturligt att vi endast vill kopa denna nya utrustning om vi arnagolunda sakra pa att den verkligen ger ett hogre varde pa µ an µ0
Det ar da naturligt att testa
H0 : µ = µ0
motH1 : µ > µ0.
Testet blir da att vi forkastar H0 om T (x1, . . . , xn) ar for stor, eller mera precistom
T > tα(n− 1) eller om x > µ0 + tα(n− 1)s/√
n.
Tolkningen ar att vi kraver, for att forkasta H0, att x ar tillrackligt mycketstorre an µ0 for att det inte ska vara troligt att skillnaden ar slumpmassig.
Det ar egentligen inte en statistisk fraga hur man skall valja H1. Ofta kan detvara enklare att titta pa testet, for att overtyga sig att man ”garderar” sig at”ratt hall”. Viktigt ar dock att man bestammer sig innan man har studeratdata, for annars blir signifikansnivan fel.
Grundregeln ar dock att det vi vill pasta skall sattas som H1, eftersom vi barakan dra tva slutsatser av ett test:
”H0 forkastas ej”, vilket inte betyder att vi visat att den ar sann;
”H0 forkastas”.
Givetvis skulle vi mycket val kunna vilja pasta att µ = µ0, och da skulle viju vilja testa H0 : µ 6= µ0 mot H1 : µ = µ0. Detta gar inte, eftersom ingaobservationer i varlden skulle kunna fa oss att forkasta detta H0.
Den som gor ett test, ”vill” darfor ofta att H0 ska forkastas. Det ar nog dettasom gor att begreppet signifikant misstolkas.
10.2 χ2-test
χ2-testet ar ett sa kallat ”goodness of fit”-test.
54 Forelasning 10
Vi borjar med den enklaste situationen:
Ett forsok kan utfalla pa r olika satt: A1, A2, . . . , Ar. Lat x1, x2, . . . , xr varaantalet ganger som alternativen A1, A2, . . . , Ar forkommer i n forsok.
Lat p1, p2, . . . , pr vara givna sannolikheter, dvs∑r
i=1 pi = 1. Vi vill testa
H0 : P (Ai) = pi for i = 1, . . . , r
motH1 : ej alla P (Ai) = pi.
For att gora detta bildar vi
Qobs =r∑
i=1
(xi − npi)2
npi
.
Man kan visa att Q ar approximativt χ2(r− 1)-fordelad under H0. (Vi tillateross har att slarva lite med s.v. och dess utfall.)
For att gora resultatet troligt, betraktar vi r = 2. Da galler, med X = X1 ochp = p1 att
Q =(X1 − np1)
2
np1
+(X2 − np2)
2
np2
=(X − np)2
np+
(n−X − n(1− p))2
n(1− p)
=(X − np)2
np+
(X − np))2
n(1− p)=
(X − np)2
np(1− p).
Eftersom X ar Bin(n, p) sa galler att X−np√np(1−p)
ar appr. N(0, 1). Saledes foljer
att (X−np)2
np(1−p)ar appr. χ2(1).
Vi gor nu foljande test:
Forkasta H0 om Qobs > χ2α(r − 1).
Ofta vill vi lata sannolikheterna p1, p2, . . . , pr bero av en okand parameterθ = (θ1, . . . , θs), och testa hypotesen
H0 : P (Ai) = pi(θ), for i = 1, . . . , r,
och for nagot varde pa θ.
Skattar vi θ med ML-metoden, och bildar
Qobs =r∑
i=1
(xi − npi(θ∗obs))
2
npi(θ∗obs),
sa ar Q approximativt χ2(r − s− 1)-fordelad under H0.
Detta resultat kallas ibland for stora χ2-satsen.
10.2. χ2-test 55
Grundregeln ar att antalet frihetsgrader fas av
antalet fria kvadratsummor− antalet skattade parametrar.
En vanlig tillampning ar att vi vill testa om ett stickprov kommer fran en vissfordelning, eller en viss klass av fordelningar. Man klassindelar da observatio-nerna, t.ex. enl foljande:
A1 = [g1, g2), A2 = [g2, g3), . . . , Ar = [gr, gr+1),
dar man kan ha g1 = −∞ och/eller gr+1 = ∞.
Fordelen med χ2-testet ar att man kan skatta okanda parametrar, nackdelenar att klassindelningen ger viss subjektivitet.
En vanlig tumregel ar att krava att alla npi eller npi(θ∗obs) ar storre an 5.
Homogenitetstest
Vi atergar nu till exemplet i borjan, med ett forsok som kan utfalla pa rolika satt: A1, A2, . . . , Ar. Antag nu att vi har s forsoksserier om n1, . . . , ns
forsok vardera. Lat xij vara antalet ganger som alternativet Aj forkommer iite forsoksserien.
Serie Antal observationer av Antal forsokA1 A2 . . . Ar
1 x11 x12 . . . x1r n1
2 x21 x22 . . . x2r n2...
......
s xs1 xs2 . . . xsr ns
Vi anser att serierna ar homogena om hypotesen
H0 : P (Ai) = pi, for i = 1, . . . , r i alla serierna.
For att testa H0 bildar vi
Qobs =s∑
i=1
r∑j=1
(xij − nip∗j)
2
nip∗j,
dar
p∗j = (p∗j)obs =
∑si=1 xij∑si=1 ni
.
Man kan visa att Q ar approximativt χ2((r − 1)(s− 1))-fordelad under H0.
56 Forelasning 10
Frihetsgraderna fas pa foljande satt:
antalet fria kvadratsummor− antalet skattade parametrar
= s · (r − 1)− (r − 1) = (r − 1)(s− 1).
Oberoendetest
Vi tar nu ett stickprov om n enheter, dar varje enhet klassifiseras efter tvaegenskaper, A och B. Vi kan skriva detta i en kontingenstabell, lik den tabellvi hade i hogenitetstestet.
Egenskap A1 A2 . . . Ar Total
B1 x11 x12 . . . x1r x1·B2 x21 x22 . . . x2r x2·...
......
Bs xs1 xs2 . . . xsr xs·
Total x·1 x·2 . . . x·r n
Vi vill nu testa hypotesen
H0 : P (Aj ∩Bi) = P (Aj)P (Bi), for alla i och j.
For att testa H0 bildar vi
Q =s∑
i=1
r∑j=1
(xij − np∗i· p∗·j)
2
np∗i· p∗·j
,
darp∗i· = (p∗i·)obs =
xi·n
och p∗·j = (p∗·j)obs =x·jn
.
Man kan aven har visa att Q ar approximativt χ2((r−1)(s−1))-fordelad underH0.
Frihetsgraderna fas pa foljande satt:
antalet fria kvadratsummor− antalet skattade parametrar
= (sr − 1)− [(r − 1) + (s− 1)] = sr − r − s + 1 = (r − 1)(s− 1).
OBSERVERA! Aven om homogenitetstestet och kontingenstabellen numerisktoch statistiskt ar lika, sa ar det olika test.
Forelasning 11
11.1 Regressionsanalys
ExempelVi vill undersoka hur en termometer mater temperatur. Vi provar darfor ter-mometern i vatskor med olika temperaturer x1, . . . , xn. Dessa temperatureranser vi helt kanda. Motsvarande matvarden y1, . . . , yn antar vi ar ungefaren linjar funktion av den verkliga temperaturen: yk ≈ α + βxk. Som vanligtuppfattas matvardena y1, . . . , yn som utfall av s.v. Y1, . . . , Yn.
Modell:Yk = α + βxk + εk,
dar ε1, . . . , εn ar oberoende och εk ar N(0, σ)-fordelad. Observera att σ forutsattsatt ej bero av x, vilket ofta ar det kritiska antagandet.
Det ar vanligt att modellen skrivs pa formen
Yk = α′ + β(xk − x) + εk,
dvs. α ersatts med α′ − βx.
Vi skattar parametrarna α och β med Minsta-Kvadratmetoden, dvs. vi mini-merar
Q(α, β) =n∑
i=1
(yi − α− βxi)2
m.a.p. α och β. De varden α∗obs och β∗obs som ger minimum kallas MK-skattningarnaav α och β.
Vi far nu:
∂Q
∂α= −2
n∑i=1
(yi − α− βxi) = −2n(y − α− βx)
∂Q
∂β= −2
n∑i=1
xi(yi − α− βxi).
Satter vi derivatorna = 0, sa fas av forsta ekvationen
α = y − βx,
57
58 Forelasning 11
vilket insatt i andra ekv. ger
0 =n∑
i=1
xi(yi − y − β(xi − x)) =n∑
i=1
(xi − x)(yi − y − β(xi − x)).
Satter vi ihop detta sa far vi
α∗obs = y − β∗obsx och β∗obs =
∑ni=1(xi − x)(yi − y)∑n
i=1(xi − x)2.
σ2 skattas med
s2 =Q0
n− 2,
dar
Q0 = Q(α∗obs, β∗obs) =
n∑i=1
(yi − α∗obs − β∗obsxi)2.
Linjeny = α∗obs + β∗obsx.
kallas den skattade regressionslinjen.
Eftersom bade α∗ och β∗ ar linjara funktioner i Y -variablerna, kom ihag attxen ar givna tal, sa ar de normalfordelade.
Sats 11.1 Vi har
E(α∗) = α V (α∗) = σ2
(1
n+
x2
∑ni=1(xi − x)2
)
E(β∗) = β V (β∗) =σ2
∑ni=1(xi − x)2
.
Skattningarna α∗ och β∗ ar normalfordelade.
Vidare galler att, har betyder Q0 stickprovsvariabeln Q(α∗, β∗),
Q0
σ2=
(n− 2)S2
σ2
ar χ2(n− 2)-fordelad och att S2 ar oberoende av α∗ och β∗.
Detta gor att vi kan konstruera konfidensintervall och test som forut, badeda σ ar kant och okant. For att inte behova skriva alla intervall tva ganger sabetraktar vi fallet da σ ar okand. Eftersom α nu forekommer som en parameter,sa ger vi konfidensintervall med konfidensgrad 95%. Metoden ar definiera ettθ och sedan bilda
Iθ = θ∗obs ± t0.025(n− 2)d(θ∗),
dar d(θ∗) ar skattningen av D(θ∗).
11.1. Regressionsanalys 59
θ = α + βx = α′
Vi har V (θ∗) = V (Y − β∗x + β∗x) = V (Y ) = σ2
n, vilket ger
Iα+βx = y ± t0.025(n− 2)s
√1
n.
Man kan visa att Y och β∗ ar oberoende, vilket ar skalet till att modellen oftaskrivs pa formen med α′.
θ = β
Vi har V (β∗) = σ2Pni=1(xi−x)2
, vilket ger
Iβ = β∗obs ± t0.025(n− 2)s√∑n
i=1(xi − x)2.
θ = α + βx0 = α′ + β(x0 − x)
Vi har V (α∗ + β∗x0) = V (Y + β∗(x0 − x)) = V (Y ) + (x0 − x)2V (β∗) =σ2
n+ (x0−x)2σ2Pn
i=1(xi−x)2, vilket ger
Iα+β(x0−x) = α∗obs + β∗obs(x0 − x)± t0.025(n− 2)s
√1
n+
(x0 − x)2
∑ni=1(xi − x)2
.