67
orel¨ asningsanteckningar i Matematisk Statistik Jan Grandell

F¨orel ¨asningsanteckningar i Matematisk Statistik · F¨orord Dessa anteckningar gjordes f¨or mitt privata bruk av f ¨orel ¨asningsmanuskript och har aldrig varit t¨ankta att

Embed Size (px)

Citation preview

Forelasningsanteckningar iMatematisk Statistik

Jan Grandell

2

Forord

Dessa anteckningar gjordes for mitt privata bruk av forelasningsmanuskriptoch har aldrig varit tankta att anvandas som kursmaterial. Jag kan darforinte ta nagot ansvar for eventuella fel och eventuella konsekvenser av dessa patentan.

Jan Grandell

i

ii Kapitel 0. Forord

Nagra beteckningar iMatematisk Statistik

Grundlaggande sannolikhetsteori

ω utfall av ett slumpforsokΩ utfallsrummet∅ tomma mangden, omojliga handelsenA,Ak, B, . . . handelser∩ snitt; A ∩B = A och B intraffar∪ union; A ∪B = A och/eller B intraffar, minst en av A eller B intraffarA∗ komplementet till A, A intraffar ejP (A) sannolikheten for AP (B | A) sannolikheten for B betingat av att A intraffat

Stokastiska variabler

X,Xk, Y, . . . stokastiska variablerx, xk, y, . . . utfall av stokastiska variablerFX(x) = P (X ≤ x) fordelningsfunktionfX(x) tathetsfunktion (for en kontinuerlig s.v.)pX(x) = P (X = k) sannolikhetsfunktion (for en diskret s.v.)µ = µX = E(X) vantevarde, forvantat vardeσ2 = σ2

X = V (X) variansσ = σX = D(X) standardavvikelseC(X,Y ) kovariansen mellan X och Yρ = ρ(X, Y ) korrelationskoefficienten mellan X och Y

Statistik

x1, x2, . . . , xn utfall av X1, X2, . . . , Xn

θ parameterθ∗obs = θ∗(x1, . . . , xn) punktskattningθ∗ = θ∗(X1, . . . , Xn) stickprovsvariabelx stickprovsmedelvardes2 stickprovsvariansIθ konfidensintervall for θλα, tα(f), χ2

α(f) α-kvantiler for normal-, t- resp. χ2-fordelningarnaH0 nollhypotesH1 alternativ hypotes, mothypotes

iii

iv Kapitel 0. Nagra beteckningar i Matematisk Statistik

Innehall

Forord i

Nagra beteckningar i Matematisk Statistik iii

Forelasning 1 11.1 Inledning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Grundlaggande sannolikhetsteori . . . . . . . . . . . . . . . . . 2

Forelasning 2 72.1 Betingad sannolikhet . . . . . . . . . . . . . . . . . . . . . . . . 72.2 Oberoende handelser . . . . . . . . . . . . . . . . . . . . . . . . 92.3 Stokastiska variabler . . . . . . . . . . . . . . . . . . . . . . . . 11

Forelasning 3 133.1 Stokastiska variabler . . . . . . . . . . . . . . . . . . . . . . . . 133.2 Flerdimensionella stokastiska variabler . . . . . . . . . . . . . . 16

Forelasning 4 194.1 Funktioner av stokastiska variabler . . . . . . . . . . . . . . . . 194.2 Vantevarden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Forelasning 5 255.1 Kovarians och korrelationskoefficient . . . . . . . . . . . . . . . 255.2 Mer om vantevarden . . . . . . . . . . . . . . . . . . . . . . . . 26

Forelasning 6 296.1 Normalfordelningen . . . . . . . . . . . . . . . . . . . . . . . . . 296.2 Centrala gransvardessatsen . . . . . . . . . . . . . . . . . . . . . 32

Forelasning 7 337.1 Binomialfordelningen och dess slaktingar . . . . . . . . . . . . . 337.2 Approximationer . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Forelasning 8 398.1 Punktskattning . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Forelasning 9 439.1 Intervallskattning . . . . . . . . . . . . . . . . . . . . . . . . . . 43

v

vi Innehall

Forelasning 10 5110.1 Hypotesprovning . . . . . . . . . . . . . . . . . . . . . . . . . . 5110.2 χ2-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Forelasning 11 5711.1 Regressionsanalys . . . . . . . . . . . . . . . . . . . . . . . . . . 57

Forelasning 1

1.1 Inledning

Vi ska forst ge nagra exempel pa situationer dar matematisk statistik kommerin pa ett naturligt och viktigt satt

Sannolikhetsteori:

Sannolikhetsteori handlar om att gora modeller for verkligheten.

Exempel (S)Man vill dimensionera trafikljussystemet pa en genomfartsled med angransan-de tvargator i en stad. Hur langa gron-rod faser ska man ha for att minimerarisken for allt for besvarande kobildning i rusningstrafik? Biltrafik ar underkas-tad slumpmassiga fluktuationer. Vi maste formulera nagon slags slumpmodell.Hur skall den se ut?

Exempel (D)Man vill dimensionera ett datasystem pa ett foretag. Hur ska man gora detta,under en given kostnadsram, for att minimera risken for allt for besvarandekobildning i rusningstrafik? Datatrafik ar underkastad slumpmassiga fluktua-tioner. Vi maste formulera nagon slags slumpmodell. Hur skall den se ut?

Statistik:

Manga tanker nog pa tabeller nar de hor ordet ”statistik”. Vi menar dock medstatistik laran om hur man fran observationer eller analyser under osakerhetdrar slutsatser och beskriver dessa slutsatser pa ett korrekt satt.

Exempel Lat oss saga att vi vill mata halten av ett amne i en kemisk forening.Hur skall vi gora detta? Det ar en kemisk fraga som inte jag tanker ga in pa.Hur vi ska analysera resultaten ar daremot en statistisk fraga!

Vi kan t.ex. ha 2000 enheter som vi ar intresserade av. Detta ar var population,och det ar bara dom enheterna som intresserar oss. Det ar alldeles for mycketarbete att analysera alla enheterna! Det naturliga ar att gora ett urval av dessa,eller – som man brukar saga – ta ett stickprov. Med ett stickprov menar vi iregel en uppsattning analysdata. Hur ska vi valja stickprovet, och hur kan man

1

2 Forelasning 1

fran resultatet av analysen av stickprovet dra slutsatser om populationen?

En lite annan situation ar om vi vill undersoka en produktionsmetod. Vi har daingen naturlig population, eller om man sa vill, sa kan vi tala om en oandligpopulation. Vart ”stickprov” ersatts da av att vi valjer nagra enheter, ochanalyserar dessa. Man kan tanka sig att vi later framstalla ett visst antal, ochur dessa gor ett urval. Skillnaden med fallet ovan ar att vi nu inte vill uttalaoss om det tillverkade antalet – populationen – utan om ”alla” enheter. Ettnaturligare synsatt att se pa saken ar att vi uppfattar de enskilda analysernasom resultatet av ett slumpforsok.

1.2 Grundlaggande sannolikhetsteori

Handelser

Vi betraktar nu ett slumpforsok.

Definition 1.1 Varje mojligt resultat ω av ett slumpforsok kallas ett utfall,eller en elementarhandelse.

Definition 1.2 Mangden av alla utfall, eller resultat, kallar vi utfallsrummetoch betecknar det med Ω.

Definition 1.3 En handelse A ar en mangd av utfall, dvs en delmangd av Ω,A ⊂ Ω.

Lat oss nu anta att vi ar intresserade av tva handelser A och B definieradepa samma forsok. Har ar nagra exempel pa vad som kan intraffa, och hur vimatematiskt kan uttrycka detta:

”A intraffar”, A

”A och B intraffar” eller ”A snitt B intraffar”, A ∩B

”A eller B intraffar” eller ”A union B intraffar”, A ∪B

Obs! A ∪ B betyder att minst en av A eller B intraffar, sa A ∩ B kan mycketval intraffa. I matematik betyder ”eller” och/eller!

”A intraffar inte”, A∗.

Om A och B utesluter varandra, dvs. omojligt kan intraffa samtidigt, sa sagervi att A och B ar disjunkta eller oforenliga, dvs. A ∩ B = ∅ dar ∅ ar ”tommamangden” eller ”den omojliga handelsen”.

1.2. Grundlaggande sannolikhetsteori 3

Har vi manga handelser kan vi, precis som med summa- och produkt-tecken,anvanda ett forkortat skrivsatt:

n⋃1

Ai = A1 ∪ A2 ∪ . . . ∪ An ochn⋂1

Ai = A1 ∩ A2 ∩ . . . ∩ An

Lat oss saga att vi kastar en tarning, och ar intresserade av handelsen

vi far en sexa.

Alla haller nog med om att, om det ar en just tarning, att den sannolikhetenar 1

6. Symboliskt kan vi skriva

A = vi far en sexa och P (A) =1

6.

Ar det overhuvudtaget meningsfullt att tala om sannolikheter, och om sa arfallet, hur skall man tolka dessa?

Vi skall tolka detta som att om man kastar tarningen manga ganger, sa blirden relativa frekvensen 6or ungefar 1

6. Allmant sett, om vi har ett forsok och

en handelse A och gor forsoket n ganger, sa galler

fn(A) =antalet ganger A intraffar

n→ P (A) da n vaxer.

Vad ar nu en sannolikhet?

Kolmogorovs axiomsystem (1933):Ett sannolikhetsmatt P ar en funktion av handelser, sadan att:

(a) 0 ≤ P (A) ≤ 1;

(b) P (Ω) = 1;

(c) om A1, A2, . . . ar disjunkta handelser, sa galler

P

(∞⋃1

Ai

)=

∞∑1

P (Ai).

(a) och (b) kan ses som en kalibrering sa att P stammer med intuitionen (detblir lattare da) och (c) (som ar det ”viktiga” axiomet) betyder att P ar ettmatt.

Sats 1.1 P (A∗) = 1− P (A).

4 Forelasning 1

Bevis. Vi ska ge ett mycket formellt bevis, for att illustrera axiomsystemet:

Eftersom A och A∗ disjunkta och A ∪ A∗ = Ω, sa fas

P (A) + P (A∗) = P (Ω) = 1 ⇒ P (A∗) = 1− P (A).

2

Sats 1.2 P (A ∪B) = P (A) + P (B)− P (A ∩B).

Bevis. Satsen foljer med hjalp av Venn-diagram, och observationen attP (A) + P (B) ”mater” A ∩B tva ganger. 2

Den klassiska sannolikhetsdefinitionenAntag att Ω bestar av m (mojliga) elementarhandelser ω1, . . . , ωm, var och enmed samma sannolikhet att intraffa, dvs

P (ωk) =1

mk = 1, . . . ,m.

Betrakta en handelse A, A ⊂ Ω. Antag att A innehaller g (gynnsamma) ele-mentarhandelser. Da galler

P (A) =g

m.

Problemt med den klassiska sannolikhetsdefinitionen, i mera komplicerade si-tuationer, ar att hitta en uppdelning av Ω i lika sannolika elementarhandelseroch att berakna m och g. I manga – de flesta – situationer ar det inte allsmojligt att gora detta.

For att berakna m och g behover vi nagra kombinatoriska grundbegrepp:

n st. foremal kan permuteras eller ordnas pa

n! = n · (n− 1) . . . 2 · 1

olika satt.

Det finns (n

k

)=

n!

k!(n− k)!

olika satt att plocka ut k st. av dessa om vi ej tar hansyn till i vilken ordningde plockas ut.

Det finns nk olika satt att plocka ut k st. av dessa om varje foremal som harplockats ut stoppas tillbaka och om vi tar hansyn till i vilken ordning de plockasut.

1.2. Grundlaggande sannolikhetsteori 5

Tva urnmodeller

Dragning utan aterlaggning

I en urna finns kulor av tva slag: v vita och s svarta. Drag n kulor ur urnanslumpmassigt och sa att en kula som dragits inte stoppas tillbaka. dvs dragningutan aterlaggning.

Satt A = ”Man far k vita kulor i urvalet”.

Valj Ω: Alla uppsattningar om n kulor utan hansyn till ordning.

Da fas:

m =

(v + s

n

)och g =

(v

k

)(s

n− k

)

och saledes

P (A) =

(vk

)(s

n−k

)(

v+sn

) .

Dragning med aterlaggning

Samma modell som i fallet med dragning utan aterlaggning, men kulorna stop-pas tillbaka igen efter det att man observerat dess farg, och urnan skakas omfor nasta dragning.

Valj Ω: Alla uppsattningar om n kulor med hansyn till ordning:

m = (v + s)n.

Antag att vi valt ut k vita och n − k svarta kulor. Dessa kan placeras pa(

nk

)platser:

v v v · · · · · · v

Antal satt att valja ut k vita = vk. Antal satt att valja ut n−k svarta = sn−k.

Detta ger g =(

nk

)vksn−k och saledes far vi

P (A) =

(nk

)vksn−k

(v + s)n=

(n

k

)(v

v + s

)k (s

v + s

)n−k

.

6 Forelasning 1

Forelasning 2

2.1 Betingad sannolikhet

Vi paminner om relativa frekvensers stabilitet:

Om vi har ett forsok och en handelse A och gor forsoket n ganger, sa galler

fn(A) =antalet ganger A intraffar

antalet forsok→ P (A) da n vaxer.

Lat A och B vara tva handelser, dvs A,B ⊂ Ω. Vad ar P (B | A), dvs sanno-likheten for B da vi vet att A har intraffat?

Det borde galla att

P (B | A)

≈ antalet ganger A ∩B intraffar

antalet ganger A intraffar

=antalet ganger A ∩B intraffar

antalet forsok· antalet forsok

antalet ganger A intraffar

≈ P (A ∩B)

P (A).

Detta leder oss till foljande definition.

Definition 2.1 Lat A och B vara tva handelser. Antag att P (A) > 0. Sanno-likheten for B betingat av A betecknas med P (B | A) och definieras som

P (B | A) =P (A ∩B)

P (A).

Exempel (Kast med rod och vit tarning)A = summan av ogonen ar hogst 4.Bk = vita tarningen visar k ogon.P (Bk | A) = 0 om k ≥ 4.

7

8 Forelasning 2

Mojliga utfall, m, ar 36: (v, r), v, r = 1, . . . 6, dvs (1, 1), (1, 2), . . . (6, 6).Gynnsamma utfall for A, ar 6: (1,1), (1,2), (1,3), (2,1), (2,2), (3,1).Gynnsamma utfall for A ∩Bk, ar 4− k: (v, r), v = k, r = 1, . . . 4− k,dvs (k, 1), (k, 2), . . . (k, 4− k) om k < 4.

Klassiska sannolikhetsdefinitionen ger

P (A) =6

36och P (A ∩Bk) =

4− k

36.

Detta ger, for k < 4,

P (Bk | A) =4− k

6=

36

= 12

k = 126

= 13

k = 216

k = 3.

Ofta ar det lattare att ange varden till betingade sannolikheter an till obeting-ade, och vi utnyttar definitionen ”baklanges”.

ExempelEn ohederlig person har tva tarningar, en akta och en falsk som alltid ger 6ogon. Han valjer slumpmassigt den ena. Vad ar sannolikheten for 5 resp. 6 ogon.Lat oss betrakta fallet med sex ogon. Intiuitivt bor galla att sannolikheten ar

1

2· 1

6+

1

2· 1 =

1

12+

6

12=

7

12.

Mera systematiskt galler foljande sats

Sats 2.1 (Lagen om total sannolikhet)Om H1, . . . , Hn ar disjunkta handelser, har positiv sannolikhet och uppfyllerhela Ω, sa galler for varje handelse A ⊂ Ω att

P (A) =n∑

i=1

P (Hi)P (A | Hi).

Bevis. Vi har

P (A) = P (A ∩ Ω) = P (A ∩ (H1 ∪ . . . ∪Hn)) = P ((A ∩H1) ∪ . . . ∪ (A ∩Hn))

=n∑

i=1

P (A ∩Hi) =n∑

i=1

P (Hi)P (A | Hi).

2

Vi ska nu ge en viktig sats om ”vandning” av handelserna i betingade sanno-likheter.

2.2. Oberoende handelser 9

Sats 2.2 (Bayes’ sats) Under samma villkor som i lagen om total sannolik-het galler

P (Hi | A) =P (Hi)P (A | Hi)∑n

j=1 P (Hj)P (A | Hj).

Bevis.

P (Hi | A) =P (Hi ∩ A)

P (A)=

P (Hi ∩ A)

P (Hi)· P (Hi)

P (A)= P (A | Hi) · P (Hi)

P (A).

Lagen om total sannolikhet tillampad pa P (A) ger resultatet. 2

Lat oss ga tillbaka till exemplet om falskspelaren. SattA = 6 ogon.H1 = akta tarningen.H2 = falska tarningen.

Da galler

P (A) = P (H1)P (A | H1) + P (H2)P (A | H2) =1

2· 1

6+

1

2· 1 =

7

12,

som i exemplet. Bayes’ sats ger vidare

P (H1 | A) =P (H1 ∩ A)

P (A)= P (A | H1) · P (H1)

P (A)=

1

6

1

2

12

7=

1

7

och

P (H2 | A) =P (H2 ∩ A)

P (A)= P (A | H2) · P (H2)

P (A)= 1 · 1

2

12

7=

6

7

vilket kanske inte ar lika latt att inse rent intiuitivt.

2.2 Oberoende handelser

Intiuitivt ar tva handelser A och B oberoende om intraffandet av A inte gernagon information om huruvida B intraffar eller ej. I formler betyder detta

P (B | A) = P (B).

Allmant galler ju

P (B | A) =P (A ∩B)

P (A), om P (A) > 0.

Multiplikation med P (A) leder oss till foljande definition:

Definition 2.2 Tva handelser A och B ar oberoende om

P (A ∩B) = P (A)P (B).

10 Forelasning 2

Definitionen ovan kraver inget villkor om positiva sannolikheter.

Det ar inte sjalvklart hur oberoende skall definieras for flera handelser.

Definition 2.3 Tre handelser A, B och C ar oberoende om

P (A ∩B) = P (A)P (B)

P (A ∩ C) = P (A)P (C)

P (B ∩ C) = P (B)P (C)

P (A ∩B ∩ C) = P (A)P (B)P (C).

Endast P (A ∩B ∩ C) = P (A)P (B)P (C) racker inte, vilket inses om vi satterA = B och C = ∅.Inte heller racker parvis oberoende, vilket ses av foljande exempel:

Kast med rod och vit tarning:

A = vita tarningen visar jamnt antal ogon.B = roda tarningen visar jamnt antal ogon.C = jamn ogonsumma.

A och B ar oberoende av ”forsoksskal”. Vidare galler

P (A ∩ C) = P (A ∩B) = P (A)P (B) =1

4och P (A)P (C) =

1

4.

Saledes ar A och C oberoende. Pss. foljer att B och C ar oberoende.

Eftersom A∩B ⇒ C vore det inte rimligt att anse att A, B och C ar oberoende.

Allmant : Oavsett vilka handelser vi plockar ut sa skall sannolikheten for snittetvara produkten av sannolikheterna.

Man kan visa att om A1, . . . , An ar oberoende, sa ar aven A∗1, . . . , A

∗n oberoende.

Detta kan verka helt sjalvklart, med ar inte helt latt att visa. Vi nojer oss medfallet n = 2.

Vi har

P (A∗ ∩B∗) = P ((A ∪B)∗) = 1− P (A ∪B)

= 1− P (A)− P (B) + P (A)P (B) = 1− P (A)− P (B)(1− P (A))

= (1− P (A))(1− P (B)) = P (A∗)P (B∗).

Sats 2.3 Lat handelserna A1, . . . , An vara oberoende. Satt B =⋃n

1 Ai, dvs.minst en av handelserna A1, . . . , An intraffar. Da galler

P (B) = 1− (1− P (A1))(1− P (A2)) . . . (1− P (An)).

2.3. Stokastiska variabler 11

Bevis.

P (B) = 1− P (B∗) = 1− P

(n⋂1

A∗i

)= 1−

n∏1

P (A∗i ) = 1−

n∏1

(1− P (Ai)).

2

2.3 Stokastiska variabler

I nastan alla situationer som vi betraktar, kommer resultaten av slumpforsokenatt vara tal, kontinerliga matvarden eller antal. Det ar praktiskt att anpassabeteckningarna till detta.

Definition 2.4 En stokastisk variabel s.v. (eller en slumpvariabel) X ar enfunktion fran Ω till reella linjen.

Lite lost kommer vi att uppfatta X som en beteckning for resultatet av ettslumpforsok.

For ett tarningskast kan X anta ett av vardena 1, 2, 3, 4, 5 eller 6.

Lat X vara en stokastisk variabel. Det mest allmanna sattet att beskriva X,dvs. hur X varierar, ar att ange dess fordelningsfunktion.

Definition 2.5 Fordelningsfunktionen FX(x) till en s.v. X definieras av

FX(x) = P (X ≤ x).

En fordelningsfunktion FX(x) har foljande egenskaper:

1) FX(x) ar icke-avtagande;

2) FX(x) → 1 da x →∞;

3) FX(x) → 0 da x → −∞;

4) FX(x) ar hogerkontinuerlig.

12 Forelasning 2

Forelasning 3

3.1 Stokastiska variabler

Det ar lampligt att skilja pa fallen da var stokastiska variabel representerarkontinuerliga matvarden eller antal.

Diskret stokastisk variabel

Vi ska nu betrakta fallet med antal.

Definition 3.1 En s.v. X sages vara diskret om den kan anta ett andligt ellerupprakneligt oandligt antal olika varden.

Det viktiga ar att de mojliga vardena ligger i en andlig eller hogst upprakneligmangd. Oftast tar en diskret s.v. icke-negativa heltalsvarden ”raknar ett an-tal”. Vi kommer att forutsatta detta, om vi inte explicit sager nagot annat.

Definition 3.2 For en diskret s.v. definieras sannolikhetsfunktionen pX(k)av

pX(k) = P (X = k).

Om X beskriver ett tarningskast galler saledes

pX(k) =

16

for k = 1, 2, 3, 4, 5, 6

0 for ovriga varden pa k.

Gor vi nu slumpforsoket att pa mafa dra en av 6 lappar med talen 1, 2, 3, 4,5 eller 6, sa far vi samma s.v. som i tarningskasten.

Relationen mellan sannolikhetsfunktionen och fordelningsfunktionen for en dis-kret stokastisk variabel fas av sambanden

FX(x) =∑

j≤[x]

pX(j), dar [x] betyder heltalsdelen av x,

ochpX(k) = FX(k)− FX(k − 1)

(= FX(k + 1

2)− FX(k − 1

2)).

13

14 Forelasning 3

Det foljer av detta att

pX(k) ≥ 0 och∞∑0

pX(k) = 1.

Binomialfordelningen

Lat oss betrakta fallet ”dragning med aterlaggning”, och lat X vara antaletvita kulor i urvalet om n kulor. Satt p = v

v+s, dvs. p ar sannolikheten for en

vit kula. Da fas

pX(k) =

(n

k

)pk(1− p)n−k, for k = 0, 1, . . . , n.

Nu ar det inte alls nodvandigt att p ar ett rationellt tal, utan vi kan allmanntbetrakta ett forsok dar en handelse A med p = P (A) kan intraffa, och lataX vara antaltet ganger som A intraffar i n oberoende upprepningar av dettaforsok.

Definition 3.3 En diskret s.v. X sages vara binomialfordelad med paramet-rarna n och p, Bin(n, p)-fordelad, om

pX(k) =

(n

k

)pk(1− p)n−k, for k = 0, 1, . . . , n.

Poissonfordelningen

Ofta nar det ar rimligt att anta att en s.v. X ar Bin(n, p)-fordelad, sa ar detaven rimligt att anta att p ar liten och att n ar stor. Lat oss anta att p = µ/n,dar n ar ”stor” men µ ar ”lagom”. Da galler

pX(k) =

(n

k

)pk(1− p)n−k =

n(n− 1) . . . (n− k + 1)

k!

n

)k (1− µ

n

)n−k

=µk

k!

(1− µ

n

)n

︸ ︷︷ ︸≈ e−µ

n(n− 1) . . . (n− k + 1)

nk︸ ︷︷ ︸≈ 1

(1− µ

n

)−k

︸ ︷︷ ︸≈ 1

≈ µk

k!e−µ.

Definition 3.4 En diskret s.v. X sages vara Poissonfordelad med parameterµ, Po(µ)-fordelad, om

pX(k) =µk

k!e−µ, for k = 0, 1, 2 . . . .

Kontinuerlig stokastisk variabel

Har kan vi tyvarr inte ge definitionen i termer av den stokastiska variabelnsjalv. Det racker inte att saga att X kan ta ett overuppraneligt antal varden.Vi far darfor ge definitionen i termer av fordelningsfunktionen, som ju ar denallmannaste beskrivningen av en s.v.

3.1. Stokastiska variabler 15

Definition 3.5 En s.v. X sages vara kontinuerlig om dess fordelningsfunktionhar framstallningen

FX(x) =

∫ x

−∞fX(t) dt

for nagon funktion fX(x). Funktionen fX(x) kallas tathetsfunktionen for X.

Omvant galler att fX(x) = F ′X(x).

Tathetsfunktionen och sannolikhetsfunktionen kommer ofta att upptrada ”pa-rallellt”.

Tathetsfunktionen kan inte direkt tolkas som en sannolikhet, men vi har, forsma varden pa h,

P (x < X ≤ x + h) = FX(x + h)− FX(x) =

∫ x+h

x

fX(t) dt ≈ h fX(x).

Ett par begrepp:

Definition 3.6 Losningen till ekvationen 1 − FX(x) = α kallas α-kvantilentill X och betecknas med xα.

Rita figur!

x0.5 kallas for medianen och ar saledes det varde som overskrides med sammasannolikhet som det underskrides.

Likformig fordelning U(a, b)

fX(x) =

1

b−afor a ≤ x ≤ b,

0 annars.

FX(x) =

0 for x ≤ a,x−ab−a

for a ≤ x ≤ b,

1 for x ≥ b.

Rita figur!

16 Forelasning 3

Exponentialfordelningen Exp(λ)

fX(x) =

λ e−λx for x ≥ 0,

0 for x < 0.

FX(x) =

1− e−λx for x ≥ 0,

0 for x < 0.

Denna fordelning ar viktig i vantetidsproblem. For att inse detta sa tar vi ettenkelt exempel:

Antag att n personer gar forbi en affar per tidsenhet. Lat var och en av dessaga in i affaren oberoende av varandra och med sannolikheten p. Lat X varatiden tills forsta kunden kommer. X > x betyder att ingen kund kommit efterx tidsenheter.

P (X > x) = (1− p)nx ty nx personer har gatt forbi.

Lat oss anta precis som da vi ”harledde” Poissonfordelningen, att p = µ/n,dar n ar ”stor” men µ ar ”lagom”. Da galler

P (X > x) = (1− p)nx = (1− µ

n)nx ≈ e−µx.

Detta ger att FX(x) = 1 − P (X > x) ≈ 1 − e−µx, dvs X ar approximativtExp(µ). Observera att vantevardet (annu ej definierat, men det kommer) ar1/µ!

Normalfordelningen.

fX(x) =1

σ√

2πe−(x−µ)2/2σ2

dar µ godtycklig konstant och σ > 0.

Denna fordelning ar mycket viktig, och vi skall aterkomma till den. Man kaninte analytiskt ge fordelningsfunktionen, vilket kan tyckas lite taskigt.

3.2 Flerdimensionella stokastiska variabler

Ofta mater vi i samma slumpforsok flera storheter, och da beskrivs resultatetav en n-dimensionell stokastisk variabel (X1, X2, . . . , Xn).

ExempelSlumpforsoket ar att vi valjer en person slumpmassigt har i rummet, och satter

X = personens vikt;Y = personens langd.

Vi nojer oss med att ge detaljer i det tva-dimensionella fallet. Lat (X,Y) varaen tva-dimensionell s.v.

3.2. Flerdimensionella stokastiska variabler 17

FX,Y (x, y) = P (X ≤ x, Y ≤ y) kallas (den simultana) fordelningsfunktionenfor (X,Y ).

FX(x) = P (X ≤ x) = P (X ≤ x, Y ≤ ∞) = FX,Y (x,∞) kallas den marginellafordelningsfunktionen for X.

FY (y) = FX,Y (∞, y) kallas den marginella fordelningsfunktionen for Y .

Definition 3.7 X och Y ar oberoende stokastiska variabler om

FX,Y (x, y) = FX(x)FY (y)

Vi kommer ihag att for handelser sa var det inte helt latt att generlisera tillgodtyckligt antal. For s.v. ar det dock skenbart enklare.

Definition 3.8 (X1, X2, . . . , Xn) ar oberoende stokastiska variabler om

FX1,...,Xn(x1, . . . , xn) = P (X1 ≤ x1, . . . , Xn ≤ xn)

= FX1(x1) · · ·FXn(xn).

Kommentera!

Omvant galler att om X1, X2, . . . , Xn ar oberoende s.v. sa fas den simultanafordelningen enl. definitionen ovan.

18 Forelasning 3

Forelasning 4

4.1 Funktioner av stokastiska variabler

Storsta och minsta vardets fordelning

Lat X1, X2, . . . , Xn vara oberoende s.v. med resp. fordelningsfunktionerFX1(x1), . . . , FXn(xn).

Satt

Y = max(X1, X2, . . . , Xn)

Z = min(X1, X2, . . . , Xn).

Vi har

FY (y) = P (Y ≤ y) = P (alla Xi ≤ y) = FX1(y) · · ·FXn(y)

och

FZ(z) = P (min(X1, X2, . . . , Xn) ≤ z)

= 1− P (min(X1, X2, . . . , Xn) > z) = 1− P (alla Xi > z)

= 1− P (X1 > z) · · ·P (Xn > z) = 1− (1− FX1(z)) · · · (1− FXn(z)).

Summans fordelning

Lat X och Y vara tva oberoende kontinuerliga stokastiska variabler med tatheterfX(x) och fY (y).

Satt Z = X + Y . Da galler

FZ(z) = P (X + Y ≤ z) = P ((X, Y ) ∈ (x, y); x + y ≤ z)

=

x+y≤z

fX(x)fY (y) dx dy

(fixera x och integrera over y)

=

∫ ∞

−∞fX(x)

(∫ z−x

−∞fY (y) dy

)dx

19

20 Forelasning 4

=

∫ ∞

−∞fX(x)FY (z − x) dx.

Z ar ocksa en kontinuerlig stokastisk variabel. Derivation map. z ger

fZ(z) = F ′Z(z) =

∫ ∞

−∞fX(x)fY (z − x) dx.

Denna operation kallas faltning.

4.2 Vantevarden

Vi ska nu infora begreppet vantevarde for en s.v. Detta ar den teoretiskamotsvarigveten till begreppet medelvarde for en talfoljd.

Antag att vi har en lang talfoljd x1, . . . , xn, dar talen ar ganska sma heltal.Medelvardet definierades av

x =1

n

n∑

k=1

xk.

Det kan vara bekvamt att gora omskrivningen

x =∞∑i=0

i · fi,

dar

fi =antalet k; xk = i

n.

Nar vi diskuterade tolkningen av begreppet sannolikhet, sa sa vi att

antalet ganger A intraffar

n→ P (A) da n vaxer.

For diskreta s.v. galler da att fk → pX(k) da k → ∞. Vi leds av detta tillfoljande definition:

Definition 4.1 Vantevardet µ for en s.v. X ar

µ = E(X) =

∑∞k=0 kpX(k) i diskreta fallet,∫∞

−∞ xfX(x) dx i kontinuerliga fallet.

Vi skall alltid anta att

∞∑

k=0

|k|pX(k) < ∞ och

∫ ∞

−∞|x|fX(x) dx < ∞.

4.2. Vantevarden 21

Vantevardet ger samma information och samma brist pa information for dens.v. som melelvardet ger for en talfoljd.

Lat oss tanka pa tarningskast igen. Hur mycket skulle ni vara villiga att betalafor foljande spel: Jag kastar en tarning, och ni far lika manga kronor som detblir ogon?

Vi har

pX(k) =

16

for k = 1, 2, 3, 4, 5, 6

0 for ovriga varden pa k,

vilket ger

E(X) =∞∑

k=0

kpX(k) =6∑

k=1

k1

6= 3.5.

Poissonfordelningen

pX(k) =µk

k!e−µ, for k = 1, 2 . . . .

E(X) =∞∑

k=0

k · µk

k!e−µ =

∞∑

k=1

k · µk

k!e−µ =

∞∑

k=1

µk

(k − 1)!e−µ

= µ

∞∑

k=1

µk−1

(k − 1)!e−µ = µ

∞∑i=0

µi

i!e−µ = µ.

Exponentialfordelningen

fX(x) =

λ e−λx for x ≥ 0,

0 for x < 0.

E(X) =

∫ ∞

−∞xfX(x) dx =

∫ ∞

0

xλ e−λx dx =

y = λxx = y/λ

dx = dy/λ

=1

λ

∫ ∞

0

ye−y dy =1

λ

[−ye−y]∞0

+1

λ

∫ ∞

0

e−y dy = 0− 1

λ

[e−y

]∞0

=1

λ.

Antag att vi kanner ford. for X, och vill berakna E(Y ) dar Y = g(X).

Foljande, skenbart oskyldiga, sats ar ordentligt svar att bevisa i det kontinu-erliga fallet

Sats 4.1 Vantevardet for g(X) ar

E(g(X)) =

∑∞k=0 g(k)pX(k) i diskreta fallet,∫∞

−∞ g(x)fX(x) dx i kontinuerliga fallet.

22 Forelasning 4

Bevis. Blom m.fl. visar satsen i det diskreta fallet, sa vi betraktar det konti-nuerliga fallet. Vi begransar oss dock till fallet da g ar strikt vaxande. Dennabegransning forenklar beviset hogst avsevart.

Lat g−1(x) vara inversen till g. Da galler

FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (X ≤ g−1(y)) = FX(g−1(y))

vilket ger

fY (y) =dFX(g−1(y))

dy= dF ′

X(g−1(y))dg−1(y)

dy= fX(g−1(y))

dg−1(y)

dy.

Av detta fas

E(Y ) =

∫ ∞

−∞yfX(g−1(y))

dg−1(y)

dydy

=

x = g−1(y)

dx = dg−1(y)dy

dy

y = g(x)

=

∫ ∞

−∞g(x)fX(x) dx.

2

Fran denna sats foljer bl.a. foljande:

E(h(X) + g(X)) = E(h(X)) + E(g(X))

med det viktiga specialfallet

E(aX + b) = aE(X) + b.

Spridningsmatt

Vantevardet sager ingen om hur X varierar.

Diskutera

|X − µ| och (X − µ)2

och dess egenskaper!

Vi leds nu till foljande definition.

Definition 4.2 Variansen σ2 for en s.v. X ar

σ2 = V (X) = E[(X − µ)2].

Foljande rakneregel ar mycket anvandbar:

Sats 4.2 V (X) = E(X2)− [E(X)]2 = E(X2)− µ2.

4.2. Vantevarden 23

Bevis.V (X) = E[(X − µ)2] = E[X2 + µ2 − 2µX]

= E[X2] + µ2 − 2µE[X] = E(X2)− µ2.

2

I exemplet med tarningsspel har vi µ = 3.5 = 216. Vidare har vi

E(X2) =∞∑

k=−∞k2pX(k) =

6∑

k=1

k2 1

6=

91

6= 15.16

Enligt rakneregeln fas

V (X) =91

6−

(21

6

)2

=546− 441

36= 2.92.

Sats 4.3 V (aX + b) = a2V (X).

Bevis.

V (aX + b) = E[(aX + b− E(aX + b))2] = E[(aX + b− aµ− b)2]

= E[(aX − aµ)2] = a2E[(X − µ)2] = a2V (X).

2

Definition 4.3 Standardavvikelsen σ for en s.v. X ar

σ = D(X) =√

V (X).

Sats 4.4 D(aX + b) = |a|D(X).

Allmant galler:

D – ratt sort.V – lattare att rakna med.

Exponentialfordelningen.

E(X2) =

∫ ∞

0

x2λe−λx dx =1

λ2

∫ ∞

0

y2e−y dy = part. int. =2

λ2

⇔V (X) =

2

λ2− 1

λ2=

1

λ2⇔ D(X) =

1

λ.

24 Forelasning 4

Poissonfordelningen

E(X(X − 1)) =∞∑

k=0

k(k − 1) · µk

k!e−µ =

∞∑

k=2

k(k − 1) · µk

k!e−µ

=∞∑

k=2

µk

(k − 2)!e−µ = µ2

∞∑

k=2

µk−2

(k − 2)!e−µ = µ2

∞∑i=0

µi

i!e−µ = µ2.

Detta ger µ2 = E(X(X − 1)) = E(X2)− µ, eller E(X2) = µ2 + µ, vilket ger

V (X) = E(X2)− µ2 = µ2 + µ− µ2 = µ.

Forelasning 5

5.1 Kovarians och korrelationskoefficient

Lat (X,Y ) vara en tvadimensionell s.v. dar vi ar intresserade av sambandetmellan Xs och Y s variation. Det kan vara natuligt att betrakta variablerna

X − µX och Y − µY .

Vi skiljer pa fallen da X och Y ”samvarierar” resp. ”motverkar varandra”, dvs.da

ett stort/litet varde pa X gor ett stort/litet varde pa Y troligtresp.ett stort/litet varde pa X gor ett litet/stort varde pa Y troligt.

Betraktar vi nu variabeln

(X − µX)(Y − µY ),

sa innebar detta att den i forsta fallet, eftersom + ·+ = + och − · − = +, attden har en tendens att vara positiv. Pa motsvarande satt, eftersom − ·+ = −och + · − = −, har den i andra fallet en tendens att vara negativ. Det som vi,lite slarvigt, har kallat tendens, kan vi ersatta med vantevarde. Vi leds da tillfoljande definition.

Definition 5.1 Kovariansen mellan X och Y ar

C(X,Y ) = E[(X − µX)(Y − µY )],

dar µX = E(X) och µY = E(Y ).

Kovariansen kan sagas ha fel sort. Det verkar rimligt att ett matt pa ett saabstrakt begrepp som samvariation skall vara ”sortfritt”. Det vanligaste mattetar korrelationskoefficienten.

Definition 5.2 Korrelationskoefficienten mellan X och Y ar

ρ = ρ(X, Y ) =C(X, Y )

D(X)D(Y ).

25

26 Forelasning 5

Man kan visa att |ρ| ≤ 1, dar |ρ| = ±1 betyder att det finns ett perfekt linjartsamband, dvs. Y = aX + b.

Sats 5.1 Om X och Y ar oberoende sa ar de okorrelerade, dvs. ρ(X,Y ) = 0.

Omvandningen galler ej, dvs. okorrelerade variabler kan vara beroende.

ExempelLat (X,Y ) vara en tvadimensionell diskret variabel med foljande sannolikhets-funktion:

pX,Y (i, j) =

14

om (i, j) = (0, 1), (0,−1), (1, 0), eller (−1, 0).

0 annars.

Rita!

Uppenbarligen ar dessa variabler beroende. Av symmetrin foljer att µX =µY = 0. Variabeln XY tar alltid vardet 0. Saledes fas

C(X,Y ) = E(XY ) = 0.

Om (X, Y ) ar tvadimensionellt normalfordelad, sa innebar dock ρ = 0 att Xoch Y ar oberoende.

Varning Korrelationskoefficienten ar svartolkad!

5.2 Mer om vantevarden

Sats 5.2 Lat (X,Y ) vara en tvadimensionell s.v. Da galler

(1) E(aX + bY ) = aE(X) + bE(Y );

(2) V (aX + bY ) = a2V (X) + b2V (Y ) + 2abC(X,Y ).

Bevis. (1) foljer av av raknereglerna for integraler resp. summor.

(2) fas av foljande

V (aX + bY ) = E[(aX + bY − aµX − bµY )2] = E[(aX − aµX + bY − bµY )2]

= E[a2(X − µX)2 + b2(Y − µY )2 + 2ab(X − µX)(Y − µY )]

= a2V (X) + b2V (Y ) + 2abC(X,Y ).

2

5.2. Mer om vantevarden 27

Foljdsats 5.1 Lat X och Y vara tva oberoende (okorrelerade racker) s.v. Dagaller

E(X + Y ) = E(X) + E(Y ) V (X + Y ) = V (X) + V (Y )

E(X − Y ) = E(X)− E(Y ) V (X − Y ) = V (X) + V (Y ).

Detta gar att utvidga till godtyckligt manga variabler:

Sats 5.3 Lat X1, . . . , Xn vara oberoende (okorrelerade racker) s.v. och satt

Y = c1X1 + . . . + cnXn.

Da gallerE(Y ) = c1E(X1) + . . . + cnE(Xn)

ochV (Y ) = c2

1V (X1) + . . . + c2nV (Xn)

Arimetiskt medelvarde

Sats 5.4 Lat X1, X2, . . . , Xn vara oberoende och likafordelade s.v. med vante-varde µ och standardavvikelse σ. Da galler att

E(X) = µ, V (X) =σ2

noch D(X) =

σ√n

.

Uttrycket ”X1, X2, . . . , Xn ar likafordelade” betyder att de stokastiska variab-lernas fordelningar, dvs. att de stokastiska variablernas statistiska egenskaper,ar identiska. Utfallen av variablerna varierar dock.

Sats 5.5 (Tjebysjovs olikhet)

For varje ε > 0 galler

P (|X − µ| > ε) ≤ V (X)

ε2.

(Ersatter vi ε med kσ fas formuleringen i Blom m.fl.)

Bevis. Detta ar den enda riktigt djupa satsen i kursen som vi kan bevisa.

Njut av elegansen i beviset! Bokens bevis via Markovs olikhet ar egentligenannu elegantare!

Vi nojer oss med det kontinuerliga fallet.Vi har

V (X) =

∫ ∞

−∞(x− µ)2fX(x) dx ≥

|x−µ|>ε

(x− µ)2fX(x) dx

28 Forelasning 5

≥ ε2

|x−µ|>ε

fX(x) dx = ε2P (|X − µ| > ε).

2

Sats 5.6 Stora talen lag

For varje ε > 0 galler

P (|X − µ| > ε) → 0 da n →∞.

Bevis. Enl. Tjebysjovs olikhet galler

P (|X − µ| > ε) ≤ V (X)

ε2=

σ2

nε2→∞

da n →∞. 2

Diskutera relationen till relativa frekvensers stabilitet.

Forelasning 6

6.1 Normalfordelningen

Diskutera matfel. Ofta beror matfelen pa att att oberoende fel av sammastorleksordning adderar sig. Erfarenheten visar att matfel fordelar sig enl. figur.

Rita!

Vi ska aterkomma till detta i slutet av forelasningen.

Standardiserad normalfordelning

Definition 6.1 En s.v. Z sages vara standardiserad normalfordelad om denar N(0, 1)-fordelad, dvs. om den har tathetsfunktionen

ϕ(z) =1√2π

e−z2/2.

Dess fordelningsfunktion betecknas med Φ(z), dvs.

Φ(z) =

∫ z

−∞

1√2π

e−x2/2 dx.

Ett problem ar att fordelningsfunktionen inte kan ges pa en analytisk form.Det ar dock latt att numeriskt berakna fordelningsfunktionen och i praktikenanvander man tabeller over Φ(x).

Vi observerar att ϕ(−z) = ϕ(z). Φ(z) ar tabulerad endast for x ≥ 0. Vi hardock

Φ(−z) =

∫ −z

−∞ϕ(x) dx = [y = −x] = −

∫ z

∞ϕ(−y) dy

=

∫ ∞

z

ϕ(y) dy = 1− Φ(z).

Om Z ar N(0, 1)-fordelad, sa kan man visa att

E(Z) = 0 (ty ϕ(−z) = ϕ(z))

V (Z) = 1.

29

30 Forelasning 6

Nar vi kommer till statistikdelen behover vi ofta losa ekvationer av foljandeslag:Bestam z sa att vi for givet α harP (Z ≤ z) = 1− α;P (Z > z) = 1− α;P (−z < Z ≤ z) = 1− α.

For att losa sadana ekvationer infor vi α-kvantilen λα definierad avP (Z > λα) = α eller

α = 1− Φ(λα).

Det ar da bra att observera att

1− α = 1− Φ(λ1−α)

⇔α = Φ(λ1−α)

⇔α = 1− Φ(−λ1−α),

vilket gerλ1−α = −λα.

Allman normalfordelning

Definition 6.2 En s.v. X sages vara N(µ, σ)-fordelad, dar µ reell och σ > 0,om

Z =X − µ

σar N(0, 1)-fordelad.

Sats 6.1 Lat X vara N(µ, σ)-fordelad. Da galler

fX(x) =1

σϕ

(x− µ

σ

)=

1

σ√

2πe−(x−µ)2/2σ2

och

FX(x) = Φ

(x− µ

σ

).

Bevis. Vi har

FX(x) = P (X ≤ x) = P

(X − µ

σ≤ x− µ

σ

)

= P

(Z ≤ x− µ

σ

)= Φ

(x− µ

σ

).

Derivation ger fX(x) = 1σϕ(

x−µσ

). 2

6.1. Normalfordelningen 31

Sats 6.2 Om X ar N(µ, σ)-fordelad sa galler

E(X) = µ och V (X) = σ2.

Bevis. Vi ska nu se hur listig var definition ar!

X = σZ + µ

E(X) = σE(Z) + µ = 0 + µ = µ

V (X) = σ2V (Z) + 0 = σ2.

2

Sats 6.3 Lat X vara N(µ, σ)-fordelad och satt Y = aX + b. Da galler det att

Y ar N(aµ + b, |a|σ)-fordelad.

Bevis. Fran definitionen foljer att X = µ + σZ dar Z ar N(0, 1)-fordelad.Detta ger

Y = aX + b = a(µ + σZ) + b = aµ + b + aσZ

Y − (aµ + b)

aσ= Z.

Om a > 0 foljer satsen. Om a < 0 utnyttjar vi att Z och −Z har sammafordelning. 2

Sats 6.4 Om X ar N(µX , σX)-fordelad, Y ar N(µY , σY )-fordelad och X ochY ar oberoende sa galler att

X + Y ar N

(µX + µY ,

√σ2

X + σ2Y

)-fordelad

och

X − Y ar N

(µX − µY ,

√σ2

X + σ2Y

)-fordelad.

Denna sats tycks inte kunna bevisas pa annat satt an genom faltning.

Sats 6.5 Lat X1, . . . , Xn vara oberoende och N(µ1, σ1), . . . , N(µn, σn). Da galleratt

n∑

k=1

ckXk ar N

n∑

k=1

ckµk,

√√√√n∑

k=1

c2kσ

2k

-fordelad.

Allman regel : Linjarkombinationer av oberoende normalfordelade stokastiskavariabler ar normalfordelade med ratt vantevarde och ratt standardavvikelse.

Foljdsats 6.1 Lat X1, X2, . . . , Xn vara oberoende och N(µ, σ)-fordelade s.v.Da galler att

X ar N

(µ,

σ√n

)-fordelad.

32 Forelasning 6

6.2 Centrala gransvardessatsen

Vi har sett nagra exempel pa att normalfordelningen har trevliga statistiskaegenskaper. Detta skulle vi inte ha sa stor gladje av, om normalfordelningeninte dessutom var vanligt forekommande. Centrala gransvardessatsen CGS,som ar den huvudsakliga motiveringen for normalfordelningen, kan utan vidaresagas vara ett av sannolikhetsteorins och statistikens allra viktigaste resultat.

Sats 6.6 (CGS) Lat X1, X2, . . . vara oberoende och lika fordelade s.v. medvantevarde µ och standardavvikelse σ. Da galler att

P

(∑ni=1 Xi − nµ

σ√

n≤ x

)→ Φ(x) da n →∞.

Ofta uttrycker man slutsatsen i CGS som att∑n

i=1 Xi − nµ

σ√

nar approximativt N(0, 1)-fordelad

eller attn∑

i=1

Xi ar approximativt N(nµ, σ

√n)-fordelad.

En, for statistiken mycket vanlig anvandning av CGS ar foljande:

Foljdsats 6.2 Lat X1, X2, . . . vara oberoende och lika fordelade s.v. med vantevardeµ och standardavvikelse σ. Da galler att

P (a < X ≤ b) ≈ Φ

(b− µ

σ/√

n

)− Φ

(a− µ

σ/√

n

)

om n ar tillrackligt stort.

Det ar tyvarr inte mojligt att ge nagra generella och enkla tumregler om hurstort n maste vara for att normalapproximationen ska vara anvandbar. Dettaberor pa hur ”normalliknande” de enskilda variablerna Xk ar. Om Xkna arnormalfordelade sa ”galler” ju CGS for alla n. En tumregel ar att om Xknaar nagorlunda symmetriskt fordelade sa racker ganska sma n, sag nagot tiotal.Om Xkna ar patagligt skevt fordelade sa behover n var nagot eller i varsta fallnagra hundratal.

Det ar svart att formulera strikt, men det racker i CGS att Xkna ar nagorlundaoberoende och nagorlunda lika fordelade. Med ”nagorlunda lika fordelade”menas framforallt att det inte finns vissa Xk som ar mycket dominerande.Detta innebar att matfel i valgjorda forsok kan anses vara approximativt nor-malfordelade. I mindre valgjorda forsok kan det daremot mycket val finnasnagon dominerande felkalla som inte alls behover vara approximativt nor-malfordelad.

Forelasning 7

7.1 Binomialfordelningen och dess slaktingar

Vi paminner om urnmodellerna. Vi hade en urna med kulor av tva slag: v vitaoch s svarta. Vi drog n kulor ur urnan slumpmassigt.

Satt A = ”Man far k vita kulor i urvalet”.

Dragning utan aterlaggning :

P (A) =

(vk

)(s

n−k

)(

v+sn

) .

Dragning med aterlaggning :

P (A) =

(n

k

)(v

v + s

)k (s

v + s

)n−k

.

Hypergeometrisk fordelning

Antag att vi har N enheter, dar proportionen p, dvs Np stycken, har egenska-pen A. Drag ett slumpmassigt urval om n stycken enheter. Satt

X = antalet enheter i urvalet med egenskapen A.

I termer av urnmodellen for dragning utan aterlaggning galler Np = v ochN(1− p) = s om A = ”vit kula”. Saledes fas

pX(k) = P (X = k) =

(Npk

)(N(1−p)

n−k

)(

Nn

) ,

for 0 ≤ k ≤ Np och 0 ≤ n− k ≤ N(1− p).

Man sager att X ar Hyp(N,n, p)-fordelad.

Man kan visa att

E(X) = np och V (X) =N − n

N − 1np(1− p).

33

34 Forelasning 7

Vi skall aterkomma nagot till detta.

Binomialfordelningen

Antag att vi gor ett forsok dar en handelse A, med sannolikheten p = P (A),kan intraffa. Vi upprepar forsoken n ganger, dar forsoken ar oberoende. Satt

X = antalet ganger som A intraffar i de n forsoken.

Vi sager da att X ar binomialfordelad med parametrarna n och p, eller kortareatt X ar Bin(n, p)-fordelad.

Vi har

pX(k) =

(n

k

)pkqn−k, for k = 0, . . . , n,

dar q = 1− p.

Lat U1, . . . , Un vara s.v. definierade av

Ui =

0 om A∗ intraffar i forsok nummer i,

1 om A intraffar i forsok nummer i.

Lite eftertanke ger att U1, . . . , Un ar oberoende och att

X = U1 + . . . + Un.

DaE(Ui) = 0 · (1− p) + 1 · p = p

och

V (U1) = E(U2i )− E(Ui)

2 = E(Ui)− E(Ui)2 = p− p2 = p(1− p)

sa foljer

E(X) = nE(Ui) = np och V (X) = nV (Ui) = npq.

Diskutera motsv. for den hypergeometriska fordelningen.

Poissonfordelningen

Definition 7.1 En diskret s.v. X sages vara Poissonfordelad med parameterµ, Po(µ)-fordelad, om

pX(k) =µk

k!e−µ, for k = 0, 1 . . . .

Vi paminner om att om X ar Po(µ)-fordelad, sa galler

E(X) = µ och V (X) = µ.

Poissonfordelningen ar den viktigaste diskreta fordelningen, och har t.ex. foljandetrevliga egenskap.

7.2. Approximationer 35

Sats 7.1 Om X och Y vara oberoende Po(µX)- resp. Po(µY )-fordelade s.v.Da galler att X + Y ar Po(µX + µY )-fordelad.

Bevis.

P (X + Y = k) =k∑

i=0

P (X = i)P (Y = k − i) =k∑

i=0

µiX

i!e−µX

µ(k−i)Y

(k − i)!e−µY

= e−(µX+µY )

k∑i=0

µiXµ

(k−i)Y

i!(k − i)!

= e−(µX+µY ) (µX + µY )k

k!

k∑i=0

(k

i

)(µX

µX + µY

)i (µY

µX + µY

)(k−i)

︸ ︷︷ ︸= 1, jmf. Bin-ford.

.

2

7.2 Approximationer

Hyp(N,n, p)

Om n/N ar nagolunda liten, sa verkar det troligt att det inte spelar sa storroll om vi drar med aterlaggning eller ej.

Vi har(

Npk

)(N(1−p)

n−k

)(

Nn

) =Np!

k!(Np− k)!

N(1− p)!

(n− k)![N(1− p)− (n− k)]!

n!(N − n)!

N !

=n!

k!(n− k)!

Np!(N(1− p)!(N − n)!

(Np− k)![N(1− p)− (n− k)]!N !

≈ n!

k!(n− k)!

(Np)k(N(1− p))n−k

Nn=

(n

k

)pkqn−k.

2

Sats 7.2 Om X ar Hyp(N, n, p)-fordelad med n/N ≤ 0.1 sa ar X approxima-tivt Bin(n, p)-fordelad.

Bin(n, p)

Av Xs representation som en summa foljer att CGS kan tillampas.

Sats 7.3 Om X ar Bin(n, p)-fordelad med npq ≥ 10 sa ar X approximativtN(np,

√npq)-fordelad.

36 Forelasning 7

Detta innebar attP (X ≤ k)

P (X < k)

≈ Φ

(k − np√

npq

).

Med halvkorrektion menas att vi anvander foljande approximation:

P (X ≤ k) ≈ Φ

(k + 1

2− np√

npq

),

P (X < k) ≈ Φ

(k − 1

2− np√

npq

).

Trots att halvkorrektionen patagligt kan hoja noggrannheten, tar vi ratt lattpa den.

Av detta foljer att Hyp(N,n, p) ≈ N(np,√

npq) om n/N ≤ 0.1 och npq ≥ 10.Det racker dock att krava N−n

N−1np(1− p) ≥ 10.

Vi inforde ju Poissonfordelningen som en approximation av binomialfordel-ningen. Detta kan vi formalisera till foljande sats.

Sats 7.4 Om X ar Bin(n, p)-fordelad med p ≤ 0.1 sa ar X approximativtPo(np)-fordelad.

I var approximation antog vi aven att n var stor. Detta ar inte nodvandigt,men vart enkla resonemang fungerar inte utan denna extra forutsattning. Mankan visa att om X ar Bin(n, p) och Y ar Po(np) sa galler att

|P (X = k)− P (Y = k)| ≤ np2.

Po(µ)

Om bagga villkoren p ≤ 0.1 och npq ≥ 10 ar uppfyllda kan vi valja om vi villPoissonapproximera eller normalapproximera. Detta ar ingen motsagelse, somfoljande sats visar.

Sats 7.5 Om X ar Po(µ)-fordelad med µ ≥ 15 sa ar X approximativtN(µ,

õ)-fordelad.

7.2. Approximationer 37

Sammanfattning

npq≥10︷︸︸︷≈ N(np,√

npq)

Hyp(N, n, p)

n/N≤0.1︷︸︸︷≈ Bin(n, p)N−nN−1

np(1−p)≥10︷︸︸︷≈p≤0.1︷︸︸︷≈ Po( np︸︷︷︸

)

µ≥15︷︸︸︷≈ N(µ,√

µ)

N(np,√

npq)

38 Forelasning 7

Forelasning 8

8.1 Punktskattning

ExempelPa en laboration vill man bestamma den fysikaliska konstanten µ. Vi gor upp-repade matningar av µ och erhaller foljande matvarden:

x1, x2, . . . , xn

ProblemHur skall vi skatta µ sa bra som mojligt.

ModellVi uppfattar matvardena som utfall av n st. oberoende och lika fordelade s.v.X1, X2, . . . , Xn med E(Xi) = µ och V (Xi) = σ2.

En punktskatting µ∗obs av µ ar en funktion av matvardena: µ∗(x1, . . . , xn).

Nar vill vill analysera en skatting ersatter vi observationerna med de un-derliggande stokastiska variablerna. Vi sager da att µ∗ = µ∗(X1, . . . , Xn) aren stickprovsvariabel. Stickprovsvariabeln ar sjalv en stokastisk variabel, varsfordelning beror av fordelningen for X1, X2, . . . , Xn och darmed av µ.

Om vi inte anvander nagon statistisk teori sa valjer vi antagligen µ∗obs =x = 1

n

∑xi. For motsvarande stickprovsvariabel X galler att E(X) = µ och

V (X) = σ2/n.

AllmantVi har en uppsattning data

x1, x2, . . . , xn

som ses som utfall av s.v.X1, X2, . . . , Xn.

Dessa variabler antages vara oberoende och likafordelade och deras gemensam-ma fordelning beror av en okand parameter θ, t.ex. N(θ, σ), Po(θ), N(θ1, θ2),osv.

En punktskatting θ∗obs av θ ar en funktion θ∗(x1, . . . , xn) och motsvarande stick-provsvariabel θ∗ ar θ∗(X1, . . . , Xn)

39

40 Forelasning 8

Vad menas med en bra skattning?

Definition 8.1

1) En punktskattning θ∗obs av θ ar vantevardesriktig omE(θ∗(X1, . . . , Xn)) = θ.

2) En punktskattning θ∗obs av θ ar konsistent omP (|θ∗(X1, . . . , Xn)− θ| > ε) → 0 da n →∞.

3) Om θ∗obs och θ∗∗obs ar vantevardesriktiga skattningar av θ sa sager man attθ∗obs ar effektivare an θ∗∗obs om V (θ∗(X1, . . . , Xn)) < V (θ∗∗(X1, . . . , Xn)).

Skattning av vantevardet µ

Sats 8.1 Stickprovsmedelvardet x = 1n

∑ni=1 xi som skattning av vantevardet

µ ar

1) Vantevardesriktig;

2) Konsistent;

3) Ej nodvandigtvis effektiv, dvs. den effektivaste mojliga skattningen.

Bevis.

1) E(X) = µ.

2) V (X) = σ2/n och stora talens lag galler.

3) Motexempel: Lat Xi vara U(0, 2µ), dvs,

fX(x) =

12µ

om x ∈ (0, 2µ),

0 annars.

Da galler E(X) = µ och V (X) = µ2

3n.

(Om Y ar U(a, b) sa galler V (Y ) = (b− a)2/12.

Betrakta

µ∗ =n + 1

2nmax1≤i≤n

Xi.

Da galler

E(µ∗) = µ och V (µ∗) =µ2

n(n + 2)≤ µ2

3n.

8.1. Punktskattning 41

For att visa detta satter vi Y = max1≤i≤n Xi. Da fas

FY (x) =

0 om x ≤ 0,xn

(2µ)n om x ∈ (0, 2µ),

1 om x ≤ 0,

eller

fY (x) =

nxn−1

(2µ)n om x ∈ (0, 2µ),

0 annars.

Detta ger

E(Y ) =

∫ 2µ

0

nxn

(2µ)ndx =

n

n + 12µ

E(Y 2) =

∫ 2µ

0

nxn+1

(2µ)ndx =

n

n + 2(2µ)2

V (Y ) =

(n

n + 2− n2

(n + 1)2

)(2µ)2 =

n

(n + 2)(n + 1)2(2µ)2.

Detta ger

E(µ∗) =n + 1

2n· n

n + 1· 2µ = µ

och

V (µ∗) =

(n + 1

2n

)2

V (Y ) =1

4n(n + 2)(2µ)2 =

µ2

n(n + 2).

2

Skattning av σ2

Sats 8.2 Stickprovsvariansen s2 = 1n−1

∑ni=1(xi − x)2 som skattning av σ2 ar

1) Vantevardesriktig;

2) Konsistent;

3) Ej nodvandigtvis effektiv.

1) anvands ofta som motivering for att man dividerar med n− 1, men det aren dalig motivering, eftersom man oftast vill skatta σ. s som skattning av σ ardock ej vantevardesriktig.

Maximum-likelihood-metoden

Vi ska nu studera en systematisk metod att hitta skattningar. Iden ar attskatta θ sa att utfallet blir sa ”troligt” som mojligt.

Antag att Xi har tathetsfunktionen f(x, θ), θ okand.

42 Forelasning 8

Definition 8.2L(θ) = f(x1, θ) · · · · · f(xn, θ)

kallas L-funktionen.

(For diskreta fallet hanvisas till boken.)

Definition 8.3 Det varde θ∗obs for vilket L(θ) antar sitt storsta varde kallasML-skattningen av θ.

For stora stickprov ar denna skattning i allmanhet mycket bra.

ExempelXi ar N(θ, σ), dvs.

f(x, θ) =1

σ√

2πe−

12(

x−θσ )

2

.

Vi observerar x1, . . . , xn. Da fas

L(θ) =1

σn(2π)n/2e−

12

Pn1 (

xi−θ

σ )2

log L(θ) = − log(σn(2π)n/2)− 1

2σ2

n∑1

(xi − θ)2

d log L(θ)

dθ=

1

2σ2

n∑1

2(xi − θ).

d log L(θ)dθ

= 0 ger∑n

1 xi = nθ, dvs. θ∗obs = x.

I detta fall ar θ∗obs effektiv !

Minsta-kvadrat-metoden

Om vi inte kanner fordelningen helt kan inte ML-metoden anvandas. Iblandger den aven svara matematiska problem. Man kan da ga tillvaga pa foljandesatt:

Lat x1, . . . , xn vara ett stickprov fran en fordelning med E(X) = µ(θ) dar µ(θ)ar en kand funktion av en okand parameter θ.

Satt Q(θ) =∑n

i=1(xi − µ(θ))2 och minimera Q(θ) map. θ. Losningen θ∗obs tilldetta problem kallas MK-skattningen av θ.

Forelasning 9

9.1 Intervallskattning

ExempelVi atergar till var fysikaliska konstant µ, dvs. vi uppfattar matvardena somutfall av n st. oberoende och lika fordelade s.v. X1, X2, . . . , Xn med E(Xi) = µoch V (Xi) = σ2.

Oftast ar vi inte nojda med att ange X, utan vi vill ha en uppfattning omprecisionen i skattningen. Visserligen vet vi att

E(X) = µ och D(X) =σ√n

,

men vi vill ha en mera informativ och lattbegriplig beskrivning av precisionenav vart uttalande. Vi leds da till begreppet konfidensintervall.

Definition 9.1 Lat x1, x2, . . . , xn vara utfall av X1, X2, . . . , Xn vars fordelningberor av en okand parameter θ. Intervallet

Iθ = (a1(x1, . . . , xn), a2(x1, . . . , xn))

kallas ett konfidensintervall for θ med konfidensgrad 1− α om

P (a1(X1, . . . , Xn) < θ < a2(X1, . . . , Xn)) = 1− α.

Ett stickprov, konfidensintervall for µ

Normalfordelning

a) σ kant

Vi antar nu att vara matningar kommer fran en normalfordelning, dvs. attX1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade.

Detta innebar attX − µ

σ/√

nar N(0, 1)-fordelad.

43

44 Forelasning 9

Saledes galler att

P

(−λα/2 <

X − µ

σ/√

n< λα/2

)= 1− α.

Rita figur och paminn om att λα/2!

Detta ger

P

(−λα/2 <

X − µ

σ/√

n< λα/2

)= 1− α.

mP

(−λα/2σ/√

n < X − µ < λα/2σ/√

n)

= 1− α

mP

(−λα/2σ/√

n < µ−X < λα/2σ/√

n)

= 1− α

mP

(X − λα/2σ/

√n < µ < X + λα/2σ/

√n)

= 1− α.

Jmf. vi definitionen av konfidensintervall sa inser vi att

Iµ = x± λα/2σ/√

n

har konfidensgrad 1− α. En vanlig konfidensgrad ar 95%. Da ar λ0.025 = 1.96.

b) σ okant

Vi utgar nu franX − µ

S/√

n,

dar

S2 =1

n− 1

n∑i=1

(Xi −X)2.

Man kan berakna fordelningen for denna variabel.

Man sager attX − µ

S/√

n

ar t-fordelad med n− 1 frihetsgrader, eller att den ar t(n− 1)-fordelad.

t-fordelningen finns tabulerad. Fordelning ar symmetrisk, och for stora vardenpa n, lik N(0, 1)-fordelningen. Vi aterkommer till t-fordelningen.

Pa samma satt som i a) fas nu att

Iµ = x± tα/2(n− 1)s/√

n

ar ett konfidensintervall for µ med konfidensgrad 1− α.

9.1. Intervallskattning 45

I fallet med n = 10 galler t0.025(9) = 2.26, vilket kan jamforas med λ0.025 = 1.96.

Ett stickprov, konfidensintervall for σ

Vi ska borja med ett par sannolikhetsteoretiska resultat.

Definition 9.2 Om Z1, . . . , Zn ar oberoende och N(0, 1)-fordelade, sa ar

n∑i=1

Z2i

χ2(n)-fordelad.

Sats 9.1 Om X1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade sa ar

1

σ2

n∑i=1

(Xi −X)2 =(n− 1)S2

σ2

χ2(n− 1)-fordelad.

Detta ar den ”riktiga” motiveringen till att man i s2 dividerar med n− 1.

Vi ar nu i en lite besvarligare situation an for µ, eftersom χ2-fordelningeninte ar symmetrisk. I normal- respektive t-fallet utnyttjade vi att symmetrinmedforde att λ1−α = −λα resp. t1−α(n− 1) = −tα(n− 1).

Lat nu χ2α(n− 1) vara α-kvantilen i χ2(n− 1)-fordelningen. Da galler

P

(χ2

1−α/2(n− 1) <(n− 1)S2

σ2< χ2

α/2(n− 1)

)= 1− α

m

P

(χ2

1−α/2(n− 1)

n− 1<

S2

σ2<

χ2α/2(n− 1)

n− 1

)= 1− α

m

P

(n− 1

χ2α/2(n− 1)

<σ2

S2<

n− 1

χ21−α/2(n− 1)

)= 1− α

m

P

((n− 1)S2

χ2α/2(n− 1)

< σ2 <(n− 1)S2

χ21−α/2(n− 1)

)= 1− α

m

46 Forelasning 9

P

(√(n− 1)S2

χ2α/2(n− 1)

< σ <

√(n− 1)S2

χ21−α/2(n− 1)

)= 1− α.

Detta ger att

Iσ2 =

((n− 1)s2

χ2α/2(n− 1)

,(n− 1)s2

χ21−α/2(n− 1)

)

resp.

Iσ =

(√(n− 1)s2

χ2α/2(n− 1)

,

√(n− 1)s2

χ21−α/2(n− 1)

)

ar konfidensintervall for σ2 resp. σ med konfidensgrad 1− α.

t-fordelningen

Vi atergar nu lite till t-fordelningen.

Definition 9.3 Om X ar N(0, 1)-fordelad, Y ar χ2(f)-fordelad, och X och Yar oberoende, sa ar

X√Y/f

t(f)-fordelad.

Sats 9.2 Om X1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade sa ar X ochS2 oberoende.

Denna sats karakteriserar normalfordelningen! Den ar saledes inte sann fornagon annan fordelning.

Av detta foljer nu att

X − µ

S/√

n=

X − µ

σ/√

n

/√S2

σ2

ar t(n− 1)-fordelad.

Tva stickprov, konfidensintervall for skillnad mellan vantevarden.

Normalfordelning

Modell:X1, X2, . . . , Xn1 ar N(µ1, σ1) (stickprov 1)Y1, Y2, . . . , Yn2 ar N(µ2, σ2) (stickprov 2)

dar alla Xen och Y na ar oberoende.

a) σ1 och σ2 kanda

Vi vill nu skaffa oss ett konfidensintervall for µ1 − µ2. En naturlig skattningav µ1 − µ2 ar X − Y . Eftersom den ar en linjarkombination av oberoende

9.1. Intervallskattning 47

normalfordelade variabler, sa galler att

(X − Y )− (µ1 − µ2)√σ21

n1+

σ22

n2

ar N(0, 1)-fordelad. Av detta leds vi till

Iµ1−µ2 = x− y ± λα/2

√σ2

1

n1

+σ2

2

n2

.

Om σ1 = σ2 = σ reduceras detta till att

(X − Y )− (µ1 − µ2)

σ√

1n1

+ 1n2

ar N(0, 1)-fordelad och

Iµ1−µ2 = x− y ± λα/2σ

√1

n1

+1

n2

.

b) σ1 = σ2 = σ okand

Vi betraktar nu fallet da σ1 = σ2 = σ, men dar σ ar okand. Detta skattas meds dar s2 ar den sammanvagda stickprovsvariansen.

Man kan visa att man skall valja

s2 =(n1 − 1)s2

1 + (n2 − 1)s22

n1 + n2 − 2

och att(X − Y )− (µ1 − µ2)

S√

1n1

+ 1n2

ar t(n1 + n2 − 2)-fordelad.

Vi far

Iµ1−µ2 = x− y ± tα/2(n1 + n2 − 2)s

√1

n1

+1

n2

.

Stickprov i par

ExempelPa ett bryggeri gor man varje dag analyser av alkoholhalten i ol. Dessa ana-lyser utfors av tva kemister A och B. Man vill undersoka om det finns nagonsystematisk skillnad mellan As och Bs matningar. Varje dag, under n dagarlater man A och B, oberoende av varandra, analysera samma prov.

48 Forelasning 9

Vi leds da till foljande modell:

X1, X2, . . . , Xn ar N(µi, σA) (As analyser)Y1, Y2, . . . , Yn ar N(µi + ∆, σB) (Bs analyser)

dar alla Xen och Y na ar oberoende. Vi menar har att Xi ar N(µi, σA)-fordeladoch att Yi ar N(µi + ∆, σB)-fordelad.

Knepet ar nu att bildaZi = Yi −Xi

som ar N(∆, σ)-fordelad, med

σ

(=

√σ2

A + σ2A

).

Vi har nu aterfort problemet till fallet med ett stickprov, och kan ge konfi-densintervall eller genomfora test for ∆ pa samma satt som vi gjorde for µ,dvs.

I∆ = z ± λα/2σ/√

n

om σ kand ochI∆ = z ± tα/2(n− 1)s/

√n

om σ okand, dar

s2 =1

n− 1

n∑i=1

(zi − z)2.

Approximativa konfidensintervall

Ett stickprov, konfidensintervall for µ

Modell: X1, X2, . . . , Xn antages vara oberoende och likafordelade s.v. medE(Xi) = µ och V (Xi) = σ2.

Om n ar nagolunda stort, sa galler enligt CGS att

X − µ

σ/√

nar approximativt N(0, 1)-fordelad,

och helt analogt med normalfordelningsfallet far vi att

Iµ = x± λα/2σ∗obs/

√n

har approximativ konfidensgrad 1− α. Har forutsattes σ∗obs vara en bra skatt-ning av σ, vanligen s.

For fallet med tva stickprov, dar nu σ1 = σ2 ej behover antas, hanvisar vi tillBlom m.fl. 12.4.

9.1. Intervallskattning 49

Binomialfordelning

Antag nu att vi observerar ett utfall x av en s.v. X som ar Bin(n, p)-fordelad,dar p ar okant. En naturlig skattning av p ar

p∗obs =x

n.

Da galler, om np(1 − p) ≥ 10, och det kan vi anta om np∗obs(1 − p∗obs) ≥ 10”med lite rage”, att

p∗ − p√p(1− p)/n

ar approximativt N(0, 1)-fordelad. Har ar en viktig skillnad fran tidigare,namligen att vantevarde och varians inte ar ”fria” parametrar. Det enklas-te, och formodligen det vanligaste, ar att man skattar variansen med hjalp avp∗obs, och saledes leds man till det approximativa konfidensintervallet

Ip = p∗obs ± λα/2

√p∗obs(1− p∗obs)/n .

50 Forelasning 9

Forelasning 10

10.1 Hypotesprovning

Lat oss borja i den allmanna situationen, dvs.:

Vi har en uppsattning data x1, x2, . . . , xn som ses som utfall av s.v.

X1, X2, . . . , Xn.

Dessa variabler antages vara oberoende och likafordelade och deras gemensam-ma fordelning beror av en okand parameter θ.

En hypotes om verkligheten ar i detta sammanhang en mangd av θ-varden.Formaliserat betyder detta att vi vill testa en nollhypotes

H0 : θ ∈ H0

mot ett alternativ (eller en mothypotes)

H1 : θ ∈ H1.

Eftersom detta blir lite abstrakt, sa exemplifierar vi steg for steg med fallet daX1, X2, . . . , Xn ar oberoende och N(µ, σ)-fordelade dar µ och σ ar okanda.

ExempelH0 : µ = µ0

motH1 : µ 6= µ0.

Att testa H0 ar detsamma som att avgora om vara data ar ”forenliga” medH0. Om H0 ej ar sann vill vi forkasta H0 till forman for H1. Vi bildar darforen teststorhet T = T (x1, . . . , xn) och ett kritiskt omrade C. (For ogonblicketbekymrar vi oss inte for hur T och C lampligen bildas.)

Test: Forkasta H0 om T ∈ C.

I praktiken bestams T av situationen och C av signifikansnivan (eller felrisken)α:

signifikansnivan = α ≥ P (H0 forkastas om H0 sann)

51

52 Forelasning 10

= P (T (X1, . . . , Xn) ∈ C om H0 sann).

Med risknivan garderar vi oss saledes mot felet att forkasta H0 da H0 ar sann.Vi bor valja H0 sa att detta ar det allvarligase felet. Det andra mojliga feletar att ej forkasta H0 da H0 ar falsk. Vi bildar styrkefunktionen

h(θ) = P (H0 forkasta) om θ ar det sanna vardet.

For θ ∈ H0 galler saledes att h(θ) ≤ α. Ett test ar ”bra” om h(θ) ar stor daθ ∈ H1.

Vi haller oss tills vidare till exemplet.

Har verkar det rimligt att utga fran

T (X1, . . . , Xn) =X − µ0

s/√

n,

som under H0 ar t(n − 1)-fordelad, och att forkasta H0 om |T (x1, . . . , xn)| arfor stor.

Vi far daα = P (|T (X1, . . . , Xn)| > c om H0 sann),

vilket ger c = tα/2(n− 1).

Vi kan nu binda ihop hypotesprovning med konfidensintervall, genom att kon-statera att testet ar exakt detsamma som foljande:

Bilda ett konfidensintervall Iµ och forkasta H0 om

Iµ 63 µ0.

Detta verkar ju hogst rimligt. Iµ ger ju de ”troliga” vardena pa µ, och om thehypotetiska vardet inte hor dit, sa bor ju H0 forkastas.

Om vi forkastar H0 sager vi att ”µ ar signifikant skilt fran µ0. Ordet signifikantar egentligen inte sa bra, eftersom det ofta tolkas som att skillnaden ar ”viktig”,men det betyder i sjalva verket endast ett ”skillnaden formodligen inte arslumpmassig”.

En god regel, om vi ar intresserade av µs eventuella avvikelse fran µ0, ar attforst gora en hypotesprovning. Om µ ar signifikant skilt fran µ0, kan vi ta dettasom ”alibi” for att diskutera storleken pa avvikelsen. Detta gors lampligengenom att vi betraktar Iµ. Pa detta satt minskar vi risken for att gora en ”storsak” av rent slumpmassig skillnad.

10.2. χ2-test 53

Ensidiga test

Vi betraktar nu foljande situation:

H0 : µ = µ0

motH1 : µ > µ0 (resp. µ < µ0).

Lat oss anta att stort varde pa µ ar en onskad egenskap. Det kan vara naturligtatt vi gor en atgard, t.ex. koper nagon ny utrustning, som bor oka vardet paµ. Det ar naturligt att vi endast vill kopa denna nya utrustning om vi arnagolunda sakra pa att den verkligen ger ett hogre varde pa µ an µ0

Det ar da naturligt att testa

H0 : µ = µ0

motH1 : µ > µ0.

Testet blir da att vi forkastar H0 om T (x1, . . . , xn) ar for stor, eller mera precistom

T > tα(n− 1) eller om x > µ0 + tα(n− 1)s/√

n.

Tolkningen ar att vi kraver, for att forkasta H0, att x ar tillrackligt mycketstorre an µ0 for att det inte ska vara troligt att skillnaden ar slumpmassig.

Det ar egentligen inte en statistisk fraga hur man skall valja H1. Ofta kan detvara enklare att titta pa testet, for att overtyga sig att man ”garderar” sig at”ratt hall”. Viktigt ar dock att man bestammer sig innan man har studeratdata, for annars blir signifikansnivan fel.

Grundregeln ar dock att det vi vill pasta skall sattas som H1, eftersom vi barakan dra tva slutsatser av ett test:

”H0 forkastas ej”, vilket inte betyder att vi visat att den ar sann;

”H0 forkastas”.

Givetvis skulle vi mycket val kunna vilja pasta att µ = µ0, och da skulle viju vilja testa H0 : µ 6= µ0 mot H1 : µ = µ0. Detta gar inte, eftersom ingaobservationer i varlden skulle kunna fa oss att forkasta detta H0.

Den som gor ett test, ”vill” darfor ofta att H0 ska forkastas. Det ar nog dettasom gor att begreppet signifikant misstolkas.

10.2 χ2-test

χ2-testet ar ett sa kallat ”goodness of fit”-test.

54 Forelasning 10

Vi borjar med den enklaste situationen:

Ett forsok kan utfalla pa r olika satt: A1, A2, . . . , Ar. Lat x1, x2, . . . , xr varaantalet ganger som alternativen A1, A2, . . . , Ar forkommer i n forsok.

Lat p1, p2, . . . , pr vara givna sannolikheter, dvs∑r

i=1 pi = 1. Vi vill testa

H0 : P (Ai) = pi for i = 1, . . . , r

motH1 : ej alla P (Ai) = pi.

For att gora detta bildar vi

Qobs =r∑

i=1

(xi − npi)2

npi

.

Man kan visa att Q ar approximativt χ2(r− 1)-fordelad under H0. (Vi tillateross har att slarva lite med s.v. och dess utfall.)

For att gora resultatet troligt, betraktar vi r = 2. Da galler, med X = X1 ochp = p1 att

Q =(X1 − np1)

2

np1

+(X2 − np2)

2

np2

=(X − np)2

np+

(n−X − n(1− p))2

n(1− p)

=(X − np)2

np+

(X − np))2

n(1− p)=

(X − np)2

np(1− p).

Eftersom X ar Bin(n, p) sa galler att X−np√np(1−p)

ar appr. N(0, 1). Saledes foljer

att (X−np)2

np(1−p)ar appr. χ2(1).

Vi gor nu foljande test:

Forkasta H0 om Qobs > χ2α(r − 1).

Ofta vill vi lata sannolikheterna p1, p2, . . . , pr bero av en okand parameterθ = (θ1, . . . , θs), och testa hypotesen

H0 : P (Ai) = pi(θ), for i = 1, . . . , r,

och for nagot varde pa θ.

Skattar vi θ med ML-metoden, och bildar

Qobs =r∑

i=1

(xi − npi(θ∗obs))

2

npi(θ∗obs),

sa ar Q approximativt χ2(r − s− 1)-fordelad under H0.

Detta resultat kallas ibland for stora χ2-satsen.

10.2. χ2-test 55

Grundregeln ar att antalet frihetsgrader fas av

antalet fria kvadratsummor− antalet skattade parametrar.

En vanlig tillampning ar att vi vill testa om ett stickprov kommer fran en vissfordelning, eller en viss klass av fordelningar. Man klassindelar da observatio-nerna, t.ex. enl foljande:

A1 = [g1, g2), A2 = [g2, g3), . . . , Ar = [gr, gr+1),

dar man kan ha g1 = −∞ och/eller gr+1 = ∞.

Fordelen med χ2-testet ar att man kan skatta okanda parametrar, nackdelenar att klassindelningen ger viss subjektivitet.

En vanlig tumregel ar att krava att alla npi eller npi(θ∗obs) ar storre an 5.

Homogenitetstest

Vi atergar nu till exemplet i borjan, med ett forsok som kan utfalla pa rolika satt: A1, A2, . . . , Ar. Antag nu att vi har s forsoksserier om n1, . . . , ns

forsok vardera. Lat xij vara antalet ganger som alternativet Aj forkommer iite forsoksserien.

Serie Antal observationer av Antal forsokA1 A2 . . . Ar

1 x11 x12 . . . x1r n1

2 x21 x22 . . . x2r n2...

......

s xs1 xs2 . . . xsr ns

Vi anser att serierna ar homogena om hypotesen

H0 : P (Ai) = pi, for i = 1, . . . , r i alla serierna.

For att testa H0 bildar vi

Qobs =s∑

i=1

r∑j=1

(xij − nip∗j)

2

nip∗j,

dar

p∗j = (p∗j)obs =

∑si=1 xij∑si=1 ni

.

Man kan visa att Q ar approximativt χ2((r − 1)(s− 1))-fordelad under H0.

56 Forelasning 10

Frihetsgraderna fas pa foljande satt:

antalet fria kvadratsummor− antalet skattade parametrar

= s · (r − 1)− (r − 1) = (r − 1)(s− 1).

Oberoendetest

Vi tar nu ett stickprov om n enheter, dar varje enhet klassifiseras efter tvaegenskaper, A och B. Vi kan skriva detta i en kontingenstabell, lik den tabellvi hade i hogenitetstestet.

Egenskap A1 A2 . . . Ar Total

B1 x11 x12 . . . x1r x1·B2 x21 x22 . . . x2r x2·...

......

Bs xs1 xs2 . . . xsr xs·

Total x·1 x·2 . . . x·r n

Vi vill nu testa hypotesen

H0 : P (Aj ∩Bi) = P (Aj)P (Bi), for alla i och j.

For att testa H0 bildar vi

Q =s∑

i=1

r∑j=1

(xij − np∗i· p∗·j)

2

np∗i· p∗·j

,

darp∗i· = (p∗i·)obs =

xi·n

och p∗·j = (p∗·j)obs =x·jn

.

Man kan aven har visa att Q ar approximativt χ2((r−1)(s−1))-fordelad underH0.

Frihetsgraderna fas pa foljande satt:

antalet fria kvadratsummor− antalet skattade parametrar

= (sr − 1)− [(r − 1) + (s− 1)] = sr − r − s + 1 = (r − 1)(s− 1).

OBSERVERA! Aven om homogenitetstestet och kontingenstabellen numerisktoch statistiskt ar lika, sa ar det olika test.

Forelasning 11

11.1 Regressionsanalys

ExempelVi vill undersoka hur en termometer mater temperatur. Vi provar darfor ter-mometern i vatskor med olika temperaturer x1, . . . , xn. Dessa temperatureranser vi helt kanda. Motsvarande matvarden y1, . . . , yn antar vi ar ungefaren linjar funktion av den verkliga temperaturen: yk ≈ α + βxk. Som vanligtuppfattas matvardena y1, . . . , yn som utfall av s.v. Y1, . . . , Yn.

Modell:Yk = α + βxk + εk,

dar ε1, . . . , εn ar oberoende och εk ar N(0, σ)-fordelad. Observera att σ forutsattsatt ej bero av x, vilket ofta ar det kritiska antagandet.

Det ar vanligt att modellen skrivs pa formen

Yk = α′ + β(xk − x) + εk,

dvs. α ersatts med α′ − βx.

Vi skattar parametrarna α och β med Minsta-Kvadratmetoden, dvs. vi mini-merar

Q(α, β) =n∑

i=1

(yi − α− βxi)2

m.a.p. α och β. De varden α∗obs och β∗obs som ger minimum kallas MK-skattningarnaav α och β.

Vi far nu:

∂Q

∂α= −2

n∑i=1

(yi − α− βxi) = −2n(y − α− βx)

∂Q

∂β= −2

n∑i=1

xi(yi − α− βxi).

Satter vi derivatorna = 0, sa fas av forsta ekvationen

α = y − βx,

57

58 Forelasning 11

vilket insatt i andra ekv. ger

0 =n∑

i=1

xi(yi − y − β(xi − x)) =n∑

i=1

(xi − x)(yi − y − β(xi − x)).

Satter vi ihop detta sa far vi

α∗obs = y − β∗obsx och β∗obs =

∑ni=1(xi − x)(yi − y)∑n

i=1(xi − x)2.

σ2 skattas med

s2 =Q0

n− 2,

dar

Q0 = Q(α∗obs, β∗obs) =

n∑i=1

(yi − α∗obs − β∗obsxi)2.

Linjeny = α∗obs + β∗obsx.

kallas den skattade regressionslinjen.

Eftersom bade α∗ och β∗ ar linjara funktioner i Y -variablerna, kom ihag attxen ar givna tal, sa ar de normalfordelade.

Sats 11.1 Vi har

E(α∗) = α V (α∗) = σ2

(1

n+

x2

∑ni=1(xi − x)2

)

E(β∗) = β V (β∗) =σ2

∑ni=1(xi − x)2

.

Skattningarna α∗ och β∗ ar normalfordelade.

Vidare galler att, har betyder Q0 stickprovsvariabeln Q(α∗, β∗),

Q0

σ2=

(n− 2)S2

σ2

ar χ2(n− 2)-fordelad och att S2 ar oberoende av α∗ och β∗.

Detta gor att vi kan konstruera konfidensintervall och test som forut, badeda σ ar kant och okant. For att inte behova skriva alla intervall tva ganger sabetraktar vi fallet da σ ar okand. Eftersom α nu forekommer som en parameter,sa ger vi konfidensintervall med konfidensgrad 95%. Metoden ar definiera ettθ och sedan bilda

Iθ = θ∗obs ± t0.025(n− 2)d(θ∗),

dar d(θ∗) ar skattningen av D(θ∗).

11.1. Regressionsanalys 59

θ = α + βx = α′

Vi har V (θ∗) = V (Y − β∗x + β∗x) = V (Y ) = σ2

n, vilket ger

Iα+βx = y ± t0.025(n− 2)s

√1

n.

Man kan visa att Y och β∗ ar oberoende, vilket ar skalet till att modellen oftaskrivs pa formen med α′.

θ = β

Vi har V (β∗) = σ2Pni=1(xi−x)2

, vilket ger

Iβ = β∗obs ± t0.025(n− 2)s√∑n

i=1(xi − x)2.

θ = α + βx0 = α′ + β(x0 − x)

Vi har V (α∗ + β∗x0) = V (Y + β∗(x0 − x)) = V (Y ) + (x0 − x)2V (β∗) =σ2

n+ (x0−x)2σ2Pn

i=1(xi−x)2, vilket ger

Iα+β(x0−x) = α∗obs + β∗obs(x0 − x)± t0.025(n− 2)s

√1

n+

(x0 − x)2

∑ni=1(xi − x)2

.