24
SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN DEL AV CIVILINGENJÖRSPROGRAMMET I INDUSTRIELL EKONOMI VID LITH, VT 2016 Senast reviderad: 2016-06-01 Författare : Viktor Cheng

SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

  • Upload
    others

  • View
    27

  • Download
    0

Embed Size (px)

Citation preview

Page 1: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

SAMMANFATTNING TAMS65

Matematisk statistik, fortsättningskurs

LÄST SOM EN DEL AV CIVILINGENJÖRSPROGRAMMET I

INDUSTRIELL EKONOMI VID LITH, VT 2016

Senast reviderad: 2016-06-01 Författare: Viktor Cheng

Page 2: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 2 av 24

Innehållsförteckning

Introduktion till statistikteori .......................................................................................................................... 4

Modellering ..................................................................................................................................................... 4

Lägesmått för stickprov................................................................................................................................... 4

Spridningsmått för stickprov ........................................................................................................................... 4

Standardiserad normalfördelning ..................................................................................................................... 4

Regler för normalfördelning ............................................................................................................................ 5

Egenskaper hos normalfördelade stokastiska variabler .................................................................................... 5

Väntevärde, varians och standardavvikelse för 𝑿 (oberoende) ......................................................................... 5

Räkneregler för väntevärde och varians för oberoende s.v. .............................................................................. 5

Räkneregler för s.v. ......................................................................................................................................... 5

Punktskattningar .............................................................................................................................................. 6

Väntevärdesriktighet (v.v.r) ............................................................................................................................. 6

Konsistent skattning........................................................................................................................................ 6

Effektivitet ...................................................................................................................................................... 6

Skattning av väntevärde och varians ............................................................................................................... 7

Skattning av 𝝁 ................................................................................................................................................. 7

Skattning av 𝝈𝟐............................................................................................................................................... 7

Momentmetoden (MM) ................................................................................................................................... 8

Minsta-kvadrat-metoden (MK) ....................................................................................................................... 8

Maximum-likelihood-metoden (ML) ............................................................................................................. 9

ML-skattningar vid normalfördelning .............................................................................................................. 9

Exempel på medelfel för en skattning ............................................................................................................ 9

Konfidensintervall........................................................................................................................................... 10

Konstruktion av konfidensintervall ............................................................................................................... 10

Ensidigt konfidensintervall, simultan konfidensgrad ...................................................................................... 10

Konfidensintervall för 𝝁................................................................................................................................ 11

Konfidensintervall för 𝝈 eller 𝝈𝟐 .................................................................................................................. 12

Modellering av parvisa skillnader ................................................................................................................... 13

Konfidensintervall vid två stickprov .............................................................................................................. 13

Jämförelse av varianser .................................................................................................................................. 14

Normalapproximation.................................................................................................................................... 15

Binomialfördelning – konfidensintervall för 𝒑............................................................................................... 15

Binomialfördelning – konfidensintervall för 𝒑𝟏 − 𝒑𝟐................................................................................... 16

Normalapproximation via centrala gränsvärdessatsen.................................................................................... 17

Exempel – Användning av CGS................................................................................................................ 17

Hypergeometrisk fördelning – konfidensintervall för 𝒑 ................................................................................. 18

Page 3: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 3 av 24

Hypotesprövning ............................................................................................................................................ 19

En- och tvåsidiga test .................................................................................................................................... 19

Slutsatser från konfidensmetoden.................................................................................................................. 20

Hypotesprövning utan normalapproximation ................................................................................................ 20

Jämförelse mellan 𝑪-metoden och 𝒑-metoden .............................................................................................. 20

Hypotesprövning med normalapproximation ................................................................................................ 21

Normalapproximation - allmänt .................................................................................................................... 21

Hypotesprövning vid ett stickprov – 𝝈 känd ................................................................................................. 22

Hypotesprövning vid ett stickprov – 𝝈 okänd ............................................................................................... 22

Hypotesprövning vid ett stickprov – 𝑯𝟎:𝝈𝟐 = 𝝈𝟎𝟐.................................................................................... 22

Hypotesprövning vid flera stickprov – 𝝁𝒊 ..................................................................................................... 23

Hypotesprövning vid flera stickprov – 𝝈𝒊 ..................................................................................................... 23

Stokastiska vektorer........................................................................................................................................ 24

Flerdimensionell normalfördelning............................................................................................................... 24

Kovariansmatris ............................................................................................................................................ 24

Regressionsanalys .......................................................................................................................................... 24

Page 4: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 4 av 24

Introduktion till statistikteori

Definition Beteckning Betydelse

Population 𝑁 Samtliga möjliga observationer

Stickprov 𝑛 Utvalt antal ur population

Observation 𝑥 𝑥 är ett givet tal, när stickprovet har tagits.

Parameter 𝑝 𝑝 är en okänd parameter som ska skattas

Punktskattning 𝑝∗ Ett tal som är en skattning av 𝑝

Intervallskattning

Konfidensintervall 𝐼𝑝

Ett intervall som med en viss given säkerhet (%) innehåller det okända värdet 𝑝, t.ex. 𝐼𝑝 = (𝑎∓ 𝑏) = [𝑎 − 𝑏, 𝑎 + 𝑏]

Hypotesprövning

Signifikanstest

Ställ upp hypotes att 𝑝 < 𝑝0 , där 0 ≤ 𝑝0 ≤ 1 är ett givet tal. Pröva hypotes mha stickprovet, dvs. om stickprovets utseende stämmer överens med hypotesen eller om hypotesen ska förkastas.

Slumpmässigt stickprov

Ett slumpmässigt stickprov 𝑥1,… , 𝑥𝑛 utgörs av observationer av

oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛

Modellering

Verklighet Modell

Mätvärden 𝑥1,… ,𝑥𝑛 Oberoende s.v. 𝑋1,… , 𝑋𝑛

𝑥1,… , 𝑥𝑛 är observationer av dessa s.v.

Okänd konstant 𝜇 Konstanten 𝜇 är väntevärdet för 𝑋1,… , 𝑋𝑛

Lägesmått för stickprov

Medelvärde 𝑥̅ =1

𝑛∑𝑥𝑖

𝑛

𝑖=1

=𝑥1+𝑥2+⋯+𝑥𝑛

𝑛

Spridningsmått för stickprov

Varians 𝑠2 =1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

Standardavvikelse 𝑠 = √1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

Standardiserad normalfördelning

Låt Φ(𝑦) vara (den fyrkantiga) fördelningsfunktionen för 𝑌~𝑁(0,1)

Låt 𝑋 vara en s.v. med väntevärde 𝜇 och standardavvikelse 𝜎, dvs. 𝑋~𝑁(𝜇,𝜎)

Då kallas 𝑌 =𝛸−𝜇

𝜎 en standardiserad s.v. och 𝑌~𝑁(0,1) ⟹

𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃 (𝑎 − 𝜇

𝜎<𝑋 − 𝜇

𝜎≤𝑏 − 𝜇

𝜎) = 𝑃 (

𝑎 − 𝜇

𝜎< 𝑌 ≤

𝑏 − 𝜇

𝜎) = Φ(

𝑏 − 𝜇

𝜎)− Φ(

𝑎 − 𝜇

𝜎)

Page 5: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 5 av 24

Regler för normalfördelning

Antag att 𝑎 > 0, 𝑏 > 0 och 𝛸~𝑁(0,1). Då gäller:

Regel

𝑃(𝛸 ≤ −𝑎) = = Φ(−𝑎) = 1− Φ(𝑎)

𝑃(𝛸 > 𝑎) = = 1 −𝑃(𝛸 ≤ 𝑎) = 1 −Φ(𝑎)

𝑃(−𝑎 < 𝛸 ≤ 𝑏) = = Φ(𝑏) −Φ(−𝑎)

= Φ(𝑏) − (1 −Φ(𝑎)) = Φ(𝑏) +Φ(𝑎) − 1

Egenskaper hos normalfördelade stokastiska variabler

Förutsättningar Resultat

𝑋~𝑁(𝜇, 𝜎) 𝑌 = 𝑎𝑋 + 𝑏

𝑌~𝑁(𝑎 ∙ 𝜇 + 𝑏, |𝑎|𝜎)

𝑋~𝑁(𝜇1,𝜎1) 𝑌~𝑁(𝜇2 ,𝜎2)

𝑋 och 𝑌 oberoende

(𝛸 ± 𝑌)~𝑁 (𝜇1 ± 𝜇2,√𝜎12 +𝜎2

2)

𝑋1,… , 𝑋𝑛 är oberoende

𝑋1~𝑁(𝜇1,𝜎1), … , 𝑋𝑛~𝑁(𝜇𝑛,𝜎𝑛) (∑𝑎𝑖𝛸𝑖 +𝑏

𝑛

1

) ~𝑁(∑𝑎𝑖𝜇𝑖 +𝑏

𝑛

1

, √∑𝑎𝑖2𝜎𝑖

2

𝑛

1

)

Väntevärde, varians och standardavvikelse för �̅� (oberoende)

Förutsättningar Resultat

𝑋1,… , 𝑋𝑛 har alla samma väntevärde 𝜇 𝐸[𝑋] = 𝜇

𝑋1,… , 𝑋𝑛 har alla samma varians 𝜎2 𝑉(�̅�) =

𝜎2

𝑛

𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝑋1,… , 𝑋𝑛 har alla samma standardavvikelse 𝜎 𝐷(𝑋) =𝜎

√𝑛

Räkneregler för väntevärde och varians för oberoende s.v.

Väntevärde 𝐸(𝑎𝑋 + 𝑏𝑌 +𝐶) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 𝐸(𝑌)+ 𝐶

Varians 𝑉(𝑎𝑋 + 𝑏𝑌 + 𝐶) = 𝑎2𝑉(𝑋) + 𝑏2𝑉(𝑌)

Räkneregler för s.v.

Diskret sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝑋)] = ∑𝑔(𝑘) ∙ 𝑝𝛸(𝑘)

𝑘

Kontinuerlig sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝛸)] = ∫ 𝑔(𝑥) ∙ 𝑓𝛸(𝑥) 𝑑𝑥∞

−∞

Varians 𝑉(𝑋) = 𝐸[𝑋2] − (𝐸[𝑋])2

Page 6: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 6 av 24

Punktskattningar

Beteckning Betydelse Exempel

𝜃𝑜𝑏𝑠∗

Punktskattning av okänd parameter 𝜃

Är ett utfall av den s.v. 𝜃∗ (dvs. ett tal)

𝜃𝑜𝑏𝑠∗ är en funktion av mätdata 𝑥1, 𝑥2,… , 𝑥𝑛

𝜃𝑜𝑏𝑠∗ =

𝑥

1000= 0.35

𝜃∗ Stickprovsvariabel

Är en s.v. som beror av de s.v. 𝑋1, 𝑋2, … , 𝑋𝑛 𝜃∗ =

𝑋

1000

𝐸(𝜃∗) Väntevärdet för fördelningen av 𝜃∗ 𝐸(𝜃∗) = 𝐸 (𝑋

1000)

𝑉(𝜃∗) Variansen för fördelningen av 𝜃∗ 𝑉(𝜃∗) = 𝑉 (𝑋

1000) =

𝜃(1 − 𝜃)

1000

𝐷(𝜃∗) Standardavvikelsen för fördelningen av 𝑝∗ 𝐷(𝑝∗) = 𝐷 (𝑋

1000) = √

𝜃(1 − 𝜃)

1000

𝑑(𝜃∗)

Medelfelet för 𝜃𝑜𝑏𝑠∗

𝑑(𝜃∗) = 𝐷(𝜃𝑜𝑏𝑠∗ )

Numerisk skattning av osäkerheten i skattningen 𝜃𝑜𝑏𝑠∗

𝑑(𝜃∗) = √𝜃𝑜𝑏𝑠∗ (1 − 𝜃𝑜𝑏𝑠

∗ )

1000=

= √0.35(1 − 0.35)

1000≈ 0.015

Väntevärdesriktighet (v.v.r)

En punktskattning 𝜃𝑜𝑏𝑠∗ är väntevärdesriktig om:

Dess tillhörande stickprovsvariabel 𝜃∗ har väntevärde 𝜃 𝐸(𝜃∗) = 𝜃 för alla värden som 𝜃∗ kan anta

”Det förväntade utfallet av stickprovsvariabeln θ∗ är det sanna värdet på θ”

Konsistent skattning

En punktskattning 𝜃𝑜𝑏𝑠∗ är konsistent om:

𝑃(| 𝜃𝑛∗ − 𝜃| > 𝜀) → 0 då stickprovsstorleken 𝑛 → ∞

Alternativt:

För varje fixt 𝜃 som 𝜃∗ kan anta och

för varje givet 𝜀 > 0

𝐸(𝜃∗) = 𝜃 Väntevärdesriktighet

𝑉(𝜃𝑛∗) → 0 då stickprovsstorleken 𝑛 →∞ Minskad varians (avvikelse från det sanna värdet)

”Ju fler observationer, desto mindre blir felet”

Effektivitet

En skattning 𝜃1∗ sägs vara en mer effektiv skattning än 𝜃2

∗ om:

𝜃1,𝑜𝑏𝑠∗ och 𝜃2,𝑜𝑏𝑠

∗ är väntevärdesriktiga skattningar För alla 𝜃 som 𝜃∗ kan anta

𝜃1∗ och 𝜃2

∗ uppfyller 𝑉(𝜃1∗) < 𝑉(𝜃2

∗) För alla 𝜃 som 𝜃∗ kan anta

”Mindre varians ⇒ bättre/mer effektiv skattning”

Page 7: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 7 av 24

Skattning av väntevärde och varians

Okänd parameter är antingen väntevärde 𝜇 eller varians 𝜎2 för den fördelning som stickprovet kommer ifrån

Skattning av 𝝁

Steg Beräkning Beskrivning

Punktskattning 𝜇𝑜𝑏𝑠∗ =

1

𝑛∑𝑥𝑖

𝑛

𝑖=1

= �̅� Använd stickprovsmedelvärdet som punktskattning

Stickprovsvariabel 𝜇∗ =1

𝑛∑𝑋𝑖

𝑛

𝑖=1

= 𝑋 Betrakta 𝜇𝑜𝑏𝑠

∗ = �̅� som en

observation av en s.v. 𝜇∗ = 𝑋

Betrakta de s.v. 𝑋𝑖 som oberoende

och likafördelade med väntevärde

𝜇 och standardavvikelse 𝜎

𝐸(𝜇∗) = 𝐸 (1

𝑛∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛𝐸 (∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛∙ 𝑛𝜇 = 𝜇

𝑉(𝜇∗) = 𝑉 (1

𝑛∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛2𝑉 (∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛2∙ 𝑛𝜎2 =

𝜎2

𝑛

Väntevärde 𝐸(𝜇∗) = 𝜇 Väntevärdesriktig

Varians 𝑉(𝜇∗) =𝜎2

𝑛

För stora 𝑛 ligger skattningen

troligen nära det rätta värdet 𝜇

Sats 11.1: Stickprovsmedelvärdet 𝑀∗ = 𝑋 är en väntevärdesriktig och konsistent skattning av 𝜇.

Skattning av 𝝈𝟐

Steg Beräkning Beskrivning

Punktskattning (𝜎2)𝑜𝑏𝑠∗ =

1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

= 𝑠2 Använd stickprovsvariansen som punktskattning

Stickprovsvariabel (𝜎2)∗ =1

𝑛 − 1∑(𝑋𝑖 −𝑋)

2

𝑛

𝑖=1

= 𝑆2 Betrakta (𝜎 2)𝑜𝑏𝑠

∗ = 𝑠2 som en

observation av en s.v. (𝜎2)∗ = 𝑆 2

Betrakta de s.v. 𝑋𝑖 som oberoende och likafördelade med väntevärde

𝜇 och standardavvikelse 𝜎

𝐸(𝑆2) = 𝐸 (1

𝑛− 1∑(𝑋𝑖− 𝑋)

2

𝑛

𝑖=1

) = 𝜎2

Väntevärde 𝐸((𝜎2)∗) = 𝜎2 Väntevärdesriktig

Sats 11.2: Stickprovsvariansen 𝑠2 är en väntevärdesriktig skattning av 𝜎2.

OBS: Skattningen 𝜎𝑜𝑏𝑠∗ = 𝑠 = √

1

𝑛−1∑ (𝑥𝑖 − �̅�)

2𝑛𝑖=1 är inte väntevärdesriktig!

Page 8: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 8 av 24

Momentmetoden (MM)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

Täthets- eller sannolikhetsfunktion som beror av 𝜃

Ta fram 𝐸(𝑋)

𝐸(𝑋) = 𝜇(𝜃) ⇒ 𝜇(𝜃𝑜𝑏𝑠

∗ ) = �̅�

𝜃𝑜𝑏𝑠∗ är MM-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠

∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�

Anmärkningar

Funkar alltid att skatta med MM-metoden!

Dock inte nödvändigtvis alltid en bra skattning

Förstamoment: 𝜇1 = 𝐸(𝑋) =1

𝑛∑ 𝑥𝑖𝑛1 = �̅�

Andramoment: 𝜇2 = 𝐸(𝑋2) =1

𝑛∑ 𝑥𝑖

2𝑛1

Minsta-kvadrat-metoden (MK)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

𝐸(𝑋𝑖) = 𝜇(𝜃) 𝑉(𝑋𝑖) = 𝜎

2

Bilda 𝑄(𝜇(𝜃)) = 𝑄(𝜃) 𝑄(𝜃) =∑(𝑥𝑖 −𝜇(𝜃))2

𝑛

𝑖=1

Söker minsta fel/avvikelse

⇒ minimera 𝑄(𝜃)

⇒𝑑𝑄

𝑑𝜃= 0

⇒∑−2(𝑥𝑖 − 𝜇(𝜃))

𝑛

𝑖=1

= 0 ⇔∑(𝑥𝑖 − 𝜇(𝜃))

𝑛

𝑖=1

= 0 ⇔

⇔ ∑𝑥𝑖

𝑛

𝑖=1

− 𝑛 ∙ 𝜇(𝜃) = 0 ⇔ 𝜇(𝜃) =1

𝑛∑𝑥𝑖

𝑛

𝑖=1

= �̅�

𝜃𝑜𝑏𝑠∗ är MK-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠

∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�

Anmärkningar Minimum ty funktionen 𝑄(𝜃) är strikt konvex

Page 9: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 9 av 24

Maximum-likelihood-metoden (ML)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

Täthetsfunktion 𝑓(𝑥;𝜃) eller sannolikhetsfunktion 𝑝(𝑥;𝜃)

Bilda likelihoodfunktionen 𝐿(𝜃) 𝐿(𝜃) =

{

∏𝑝(𝑥𝑖;𝜃)

𝑛

𝑖=1

= 𝑝(𝑥1;𝜃) ∙ … ∙ 𝑝(𝑥𝑛;𝜃) (diskret)

∏𝑓(𝑥𝑖;𝜃)

𝑛

𝑖=1

= 𝑓(𝑥1;𝜃) ∙ … ∙ 𝑓(𝑥𝑛;𝜃) (kontinuerlig)

Maximera 𝐿(𝜃) Ofta lättare att maximera ln 𝐿(𝜃) ty summa istället för produkter

Detta bevarar den optimala punkten 𝜃𝑜𝑏𝑠∗

Kalla 𝑙(𝜃) = ln 𝐿(𝜃)

𝑑𝑙

𝑑𝜃= 0

Betrakta 𝜃 som variabel och 𝑥𝑖 som konstant

Lös med avseende på 𝜃

𝜃𝑜𝑏𝑠∗ är ML-skattningen av 𝜃 𝐿(𝜃) antar sitt största värde i 𝜃𝑜𝑏𝑠

Kontrollera maximum Säkerställ att 𝜃𝑜𝑏𝑠∗ verkligen är ett maximum mha.

𝑑2𝑙

𝑑𝜃2< 0

Anmärkningar I allmänhet: 𝜃∗ är konsistent och har goda asymptotiska egenskaper

ML-skattningar vid normalfördelning

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝁 𝝈 Resultat

Okänd Känd 𝜇∗ = �̅�

Känd Okänd (𝜎2)∗ =1

𝑛∑(𝑥𝑖− 𝜇)

2

𝑛

𝑖=1

Okänd Okänd

{

𝜕𝑙

𝜕𝜇= 0

𝜕𝑙

𝜕𝜎= 0

⇒ {

𝜇∗ = �̅�

(𝜎2)∗ =1

𝑛∑(𝑥𝑖 − �̅�)

2

𝑛

𝑖=1

Exempel på medelfel för en skattning

𝑋1,… , 𝑋𝑛 är oberoende s.v

𝑋𝑖~𝑁(𝜇, 𝜎)

𝜇, 𝜎 är okända

Vi vet att en skattning av 𝜇 är 𝜇∗ = �̅�. Vi vill veta medelfelet för denna skattning.

En skattning av standardavvikelsen 𝐷(𝜃∗) kallas medelfelet för 𝜃∗ och betecknas 𝑑 = 𝑑(𝜃∗)

Vår skattning har standardavvikelsen 𝐷(𝑀∗) = 𝐷(𝑋) =𝜎

√𝑛, vilken beror på 𝜎 (som är okänd!)

Därför skattar vi även variansen 𝜎2 med stickprovsvariansen 𝑠2 och medelfelet blir: 𝑑(𝑀∗) = 𝑑(𝑋) =𝑠

√𝑛

Vill veta medelfel för skattning = standardavvikelse för

skattning. Svårt att ta fram standardavvikelse direkt – kan

bero på okänd parameter (ofta 𝜎). Därför:

Ta fram eller skatta variansen 𝜎2 för skattningen. Använd

𝐷(𝑋) = √𝑉(𝑋) på framtagen varians, så fås medelfelet

Page 10: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 10 av 24

Konfidensintervall

Intervall 𝐼𝜃1−𝛼 = (𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑

∗ , 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ ) där:

o 𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎1(𝑥1,… , 𝑥𝑛)

o 𝜃𝑜𝑏𝑠 , 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎2(𝑥1,… , 𝑥𝑛)

o 𝛼 är sannolikheten för fel

Och sådant att

o 𝑃(𝜃𝑜𝑏𝑠, 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ < 𝜃 < 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑

∗ ) = 1− 𝛼

Kallas ett konfidensintervall för 𝜃 med konfidensgrad 1 − 𝛼

Konstruktion av konfidensintervall

Steg Exempel

Bestäm en lämplig punktskattning 𝜃𝑜𝑏𝑠∗ 𝜃𝑜𝑏𝑠

∗ = �̅�

Ta fram fördelning för motsvarande s.v. 𝜃∗ 𝜃∗ = 𝑋~𝑁 (𝜃,𝜎

√𝑛)

Konstruera en hjälpvariabel som innehåller 𝜃 men inga andra okända parametrar

(Hjälpvariabeln ska ha en känd fördelning)

𝑍 =𝑋 − 𝜃

𝜎/√𝑛 ~𝑁(0,1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

Beräkna gränserna (𝑎 etc.) mha. tabell

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95 ⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975

⇔ Φ(𝑎) = 0.975

⇒ 𝑎 = 1.96

Skriv om intervallet till ett villkor på 𝜃 (isolera 𝜃)

På formen 𝑃(𝑎1(𝑥1,… , 𝑥𝑛) < 𝜃 < 𝑎2(𝑥1,… , 𝑥𝑛))

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)

⇔ 𝑃(−𝑎 ≤𝑋 − 𝜃

𝜎/√𝑛≤ 𝑎)

⇔ 𝑃(𝑋 − 𝑎 ∙𝜎

√𝑛≤ 𝜃 ≤ 𝑋 + 𝑎 ∙

𝜎

√𝑛)

Sätt in observationer och beräkna 𝐼𝜃1−𝛼

𝐼𝜃1−𝛼 = (𝑎1(𝑥1,… , 𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))

⇔ 𝐼𝜃1−𝛼 = (�̅� ∓ 1.96

𝜎

√𝑛)

Ensidigt konfidensintervall, simultan konfidensgrad

Page 11: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 11 av 24

χ2-fördelning

Förutsättningar Resultat

𝑋~𝜒2(𝑓) 𝐸(𝑋) = 𝑓

𝑋~𝜒2(𝑓1) 𝑌~𝜒2(𝑓2)

𝑋 och 𝑌 oberoende

𝑋 + 𝑌~𝜒2(𝑓1 +𝑓2)

𝑋1,… , 𝑋𝑛 oberoende

𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)

1

𝜎2∑(𝑋𝑖− 𝜇)

2

𝑛

𝑖=1

~𝜒2(𝑛)

(𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝑋 och 𝑆2 är oberoende s.v.

t-fördelning

Förutsättningar Resultat

𝑋~𝑡(𝑓) 𝑡(𝑓)-fördelning konvergerar mot

𝑁(0,1)-fördelning då 𝑓 → ∞

Gossets sats

𝑋~𝑁(0,1) 𝑌~𝜒2(𝑓)

𝑋 och 𝑌 oberoende

𝑋

√𝑌/𝑓 ~𝑡(𝑓)

𝑋1,… , 𝑋𝑛 oberoende

𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)

𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1)

(𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

Gossets sats ger nu

𝑋 − 𝜇

𝑆/√𝑛= ⋯ =

(𝑋 − 𝜇)/(𝜎/√𝑛)

√(𝑛 − 1)𝑆2

𝜎2/(𝑛− 1)

~𝑡(𝑛− 1)

Konfidensintervall för 𝝁

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝈 känd / okänd 𝜎 känd 𝜎 okänd

Hjälpvariabel 𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1)

𝑋 − 𝜇

𝑆/√𝑛~𝑡(𝑛 − 1)

Page 12: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 12 av 24

Konfidensintervall för 𝝈 eller 𝝈𝟐

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝁 känt / okänt 𝜇 känt 𝜇 okänt

Hjälpvariabel 1

𝜎2∑(𝑋𝑖 −𝜇)

2

𝑛

𝑖=1

~𝜒2(𝑛) (𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

Vid stickprov från två normalfördelningar där 𝜎1 = 𝜎2 = 𝜎 men 𝜎 är okänd:

𝑠2 =(𝑛1 −1)𝑠1

2 + (𝑛2 −1)𝑠22

(𝑛1 − 1) + (𝑛2 −1)

𝑠 kallas ”pooled standard deviation”

𝑠2 är den bästa skattningen av 𝜎2

Om man har två (eller flera stickprov) från normalfördelningar med samma 𝜎, använder man den sammanvägda

𝜎2-skattningen för samtliga stickprov även om man t.ex. bara ska konstruera 𝐼µ1

Parvisa mätningar

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

Steg Exempel

𝑥𝑖 mätvärden

𝑦𝑖 mätvärden

𝑋𝑖~𝑁(𝜇𝑖 ,𝜎1)

𝑌𝑖~𝑁(𝜇𝑖+∆,𝜎2)

Bilda differenser 𝑑𝑖

T.ex. före vs. efter

𝑑𝑖 = 𝑦𝑖 − 𝑥𝑖

𝐷𝑖 = 𝑌𝑖− 𝑋𝑖~𝑁(∆,𝜎)

Skatta ∆ med ∆∗ ∆∗= 𝑑 ̅

Skatta 𝜎2 med 𝑠2 𝑠2 =1

𝑛 − 1∑(𝑑𝑖−𝑑̅)

2𝑛

𝑖=1

Hjälpvariabel

(𝜎 okänd) 𝑍 =

�̅� − ∆

𝑆/√𝑛~𝑡(𝑛 − 1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

Beräkna gränserna (𝑎 etc.) mha. tabell 𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975

Skriv om intervallet till ett villkor på ∆ (isolera ∆)

På formen 𝑃(𝑎1(𝑑1,… , 𝑑𝑛) ≤ ∆≤ 𝑎2(𝑑1, … , 𝑑𝑛))

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)

⇔ 𝑃(−𝑎 ≤𝐷 − ∆

𝑆/√𝑛≤ 𝑎)

⇔ 𝑃(�̅� − 𝑎 ∙𝑆

√𝑛≤ ∆≤ �̅� + 𝑎 ∙

𝑆

√𝑛)

Sätt in observationer och beräkna 𝐼∆1−𝛼

𝑠 = √𝑠2 , där 𝑠, 𝑠2 är obs. av 𝑆 respektive 𝑆2

𝐼∆1−𝛼 = (𝑎1(𝑥1,… ,𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))

⇔ 𝐼∆1−𝛼 = (𝑑̅ ∓ 2.23

𝑠

√𝑛)

Dra slutsatser om ∆ (och därigenom 𝜇1 och 𝜇2) utifrån 𝐼∆ 𝐼∆ = (4.9, 15.6), dvs. med stor sannolikhet

gäller att ∆ > 0 ⇒ 𝜇𝑖 < 𝜇𝑖 +∆ ⇔ 𝜇1 < 𝜇2

Page 13: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 13 av 24

Modellering av parvisa skillnader

Givet att mätserierna är lika långa och man vill undersöka om det finns en systematisk skillnad

Om mätningarna hänger ihop parvis

o ⇒ bilda differenser

o Minskar variansen för den skattningsvariabel som beskriver den systematiska skillnaden

Om mätserierna är helt frikopplade från varandra (dvs. oberoende)

o ⇒ bilda 𝐼𝜇1−𝜇2

Konfidensintervall vid två stickprov

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇1,𝜎1)

𝑦1, … , 𝑦𝑛 är observationer av oberoende s.v. 𝑌1,… , 𝑌𝑛 , där 𝑌𝑖~𝑁(𝜇2, 𝜎2)

Båda stickprov är helt frikopplade från varandra (dvs. oberoende)

Vill undersöka om 𝜇1 = 𝜇2 eller 𝜇1 ≠ 𝜇2 ⇒ konstruera konfidensintervall för 𝜇1 − 𝜇2

𝝈𝟏 och 𝝈𝟐 𝝈𝟏 = 𝝈𝟐 eller

𝝈𝟏 ≠ 𝝈𝟐? Hjälpvariabel Övrigt

Kända 𝜎1 ≠ 𝜎2

𝑋 −𝑌 − (𝜇1 − 𝜇2)

√𝜎12

𝑛1+𝜎22

𝑛2

~𝑁(0,1)

Vanlig linjärkombination

Okända 𝜎1 = 𝜎2 = 𝜎

(𝑛1 +𝑛2 − 2)𝑆2

𝜎2~ χ2(𝑛1 +𝑛2 − 2)

OBS: För 𝐼𝜎 och 𝐼𝜎2

Via sammanvägd 𝜎2-skattning

Okända 𝜎1 = 𝜎2 = 𝜎

𝑋 − 𝑌 − (𝜇1 −𝜇2)

𝑆√1𝑛1+1𝑛2

~𝑡(𝑛1 +𝑛2 − 2)

Frihetsgrader från ovan, för 𝜎

Okända 𝜎1 = 𝜎2 = 𝜎

𝑐1𝑋 − 𝑐2�̅� − (𝑐1𝜇1 − 𝑐2𝜇2)

𝑆√𝑐12

𝑛1+𝑐22

𝑛2

~𝑡(𝑛1 + 𝑛2 − 2)

OBS: För 𝐼𝑐1𝜇1+𝑐2𝜇2

Generalisering av ovan

Okända 𝜎1 ≠ 𝜎2

𝑋 −𝑌 − (𝜇1− 𝜇2)

√𝑆12

𝑛1+𝑆22

𝑛2

≈ 𝑡(𝑣) 𝑣 =(𝑆12

𝑛1+𝑆22

𝑛2)2

(𝑆12/𝑛1)

2

𝑛1 −1+(𝑆22/𝑛2)

2 𝑛2−1

Kallas Welch-Aspins metod

Page 14: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 14 av 24

F-fördelning

Förutsättningar Resultat

𝑌1 och 𝑌2 oberoende

𝑌1~𝜒2(𝑟1)

𝑌2~𝜒2(𝑟2)

𝑍 =𝑌1/𝑟1𝑌2/𝑟2

~ 𝐹(𝑟1, 𝑟2)

Jämförelse av varianser

𝜎12 och 𝜎2

2 okända

𝜎12 och 𝜎2

2 är inte nödvändigtvis lika (detta ska undersökas)

Steg Exempel

Ta fram variansskattningar

(𝑛1 −1)𝑆12

𝜎12

~ 𝜒2(𝑛1 −1)

(𝑛2 −1)𝑆22

𝜎22

~ 𝜒2(𝑛2 − 1)

Använd sats om F-fördelning 𝑍 =𝑌1/(𝑛1 −1)

𝑌2/(𝑛2 −1) ~ 𝐹(𝑛1 −1, 𝑛2 − 1)

Hjälpvariabeln blir därmed 𝑆12/𝜎1

2

𝑆22/𝜎2

2 ~ 𝐹(𝑛1 − 1, 𝑛2 −1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(𝑎 < 𝑍 < 𝑏) = 0.95

Beräkna gränserna (𝑎, 𝑏 etc.) mha. tabell 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

Skriv om intervallet till ett villkor på 𝜎1/𝜎2 (isolera 𝜎1/𝜎2)

På formen 𝑃(𝑎1(𝑠1,… , 𝑥𝑛) < 𝜎1/𝜎2 < 𝑎2(𝑠1, … , 𝑥𝑛))

𝑃(−𝑎 < 𝑍 < 𝑎)

⇔ 𝑃(𝑎 <𝑆12/𝜎1

2

𝑆22/𝜎2

2< 𝑏)

⇔ 𝑃(𝑎 ∙𝜎12

𝜎22≤𝜎12

𝜎22≤ 𝑏 ∙

𝜎12

𝜎22)

Sätt in observationer och beräkna 𝐼𝜎1 /𝜎21−𝛼

𝐼𝜎1/𝜎21−𝛼

= (𝑎1(𝑠1,… , 𝑥𝑛),𝑎2(𝑠1, … , 𝑥𝑛))

⇔ 𝐼𝜎1 /𝜎21−𝛼 = (𝑎 ∙

𝑠12

𝑠22, 𝑏 ∙

𝑠12

𝑠22)

Dra slutsatser om 𝜎1

𝜎2 (och därigenom 𝜎1och 𝜎2) utifrån 𝐼𝜎1/𝜎2

𝐼𝜎1 /𝜎2 =(0.09, 1.91)

OBS: 1 ∈ 𝐼𝜎1 /𝜎2 , dvs. går inte att utesluta att 𝜎1

𝜎2= 1 ⇔ 𝜎1 kan vara lika med 𝜎2

Page 15: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 15 av 24

Normalapproximation

Vid observationer från andra fördelningar än normalfördelning

Skattningsvariabel 𝜃∗ ≈ 𝑁(𝜃, 𝐷)

Hjälpvariabel:

{

𝜃∗ − 𝜃

𝐷≈ 𝑁(0,1), 𝐷 känd

𝜃∗ − 𝜃

𝐷∗≈ 𝑁(0,1), 𝐷 okänd

Binomialfördelning – konfidensintervall för 𝒑

Steg Exempel

Ta fram s.v. och observation 𝑥 = 37 är en observation från 𝑋~𝐵𝑖𝑛(1015,𝑝)

Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗

𝑝∗ =𝑋

𝑛

𝑝𝑜𝑏𝑠∗ =

𝑥

𝑛=

37

1015= 0.036

Vill ta fram hjälpvariabel

Börja med att hitta en fördelning för 𝑋

Använd normalapproximation ty 1015 ej

med i binomialtabell

𝑋~𝐵𝑖𝑛(1015,𝑝) ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))

eftersom 𝑛 ∙ 𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ ) > 10

Kan nu ta fram (approximativ) fördelning för 𝑝∗

𝐸(𝑝∗) = 𝐸 (𝑋

𝑛) =

1

𝑛𝐸(𝑋) =

1

𝑛∙ 𝑛𝑝 = 𝑝

𝑉(𝑝∗) = 𝑉 (𝑋

𝑛) =

1

𝑛2𝑉(𝑋) =

1

𝑛2∙ 𝑛𝑝(1 − 𝑝) =

𝑝(1 − 𝑝)

𝑛

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝,√

𝑝(1 − 𝑝)

𝑛)

Standardisera 𝑝∗ så fås en hjälpvariabel för 𝑝 𝑝∗ ≈ 𝑁(𝑝,√𝑝(1 − 𝑝)

𝑛) ⇔

𝑝∗ −𝑝

√𝑝(1 − 𝑝)𝑛

≈ 𝑁(0,1)

Okända parametrar i nämnare på

hjälpvariabel, vilket blir krångligt

Bilda ny hjälpvariabel:

𝑍 =𝑝∗ −𝑝

√𝑝∗(1− 𝑝∗)𝑛

≈ 𝑁(0,1)

eftersom 𝑝∗ är en konsistent skattning av 𝑝

Stäng in hjälpvariabeln i ett intervall med

sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑝∗(1 − 𝑝∗)𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√

𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ )

𝑛)

Page 16: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 16 av 24

Binomialfördelning – konfidensintervall för 𝒑𝟏− 𝒑𝟐

Steg Exempel

Punktskattning 𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠

∗ =𝑥1

𝑛1−

𝑥2

𝑛2

Ta fram motsvarande s.v. 𝑝1∗ och 𝑝2

∗ är ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))

eftersom 𝑛𝑖 ∙ 𝑝𝑖,𝑜𝑏𝑠∗ (1 − 𝑝𝑖,𝑜𝑏𝑠

∗ ) > 10

Då gäller att 𝑝1∗ −𝑝2

∗ ≈ 𝑁(𝜇, 𝜎)

Sök 𝜇 𝐸(𝑝1

∗− 𝑝2∗) = 𝐸 (

𝑋1𝑛1−𝑋2𝑛2) =

𝐸(𝑋1)

𝑛1−𝐸(𝑋2)

𝑛2

=𝑛1𝑝1𝑛1

−𝑛2𝑝2𝑛2

= 𝑝1 − 𝑝2

Sök 𝜎

𝑉(𝑝1∗ − 𝑝2

∗) = 𝑉 (𝑋1𝑛1−𝑋2𝑛2) =

𝑉(𝑋1)

𝑛12

−𝑉(𝑋2)

𝑛22

=𝑛1𝑝1(1 − 𝑝1)

𝑛12

−𝑛2𝑝2(1 − 𝑝2)

𝑛22

=𝑝1(1 − 𝑝1)

𝑛1−𝑝2(1 − 𝑝2)

𝑛2

Sammanfattningsvis 𝑝1∗ −𝑝2

∗ ≈ 𝑁(𝑝1 − 𝑝2, √𝑝1(1 − 𝑝1)

𝑛1−𝑝2(1 − 𝑝2)

𝑛2)

Standardisering ger

𝑍 =𝑝1∗− 𝑝2

∗ − (𝑝1 − 𝑝2)

√𝑝1∗(1− 𝑝1

∗)𝑛1

−𝑝2∗(1 − 𝑝2

∗)𝑛2

≈ 𝑁(0,1)

eftersom 𝑝𝑖∗ är konsistenta skattningar av 𝑝𝑖

Stäng in hjälpvariabeln i ett

intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna

mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑝∗(1 − 𝑝∗)𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝1−𝑝2 = (𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠

∗ ∓ 1.96√𝑝1∗(1 − 𝑝1

∗)

𝑛1−𝑝2∗(1 − 𝑝2

∗)

𝑛2)

Dra slutsatser om 𝑝1 − 𝑝2 utifrån 𝐼𝑝1−𝑝2

𝐼𝜎1 /𝜎2 = (−0.0414,0.0014)

OBS: Om 0 ∈ 𝐼𝑝1−𝑝2, dvs. går inte att utesluta att 𝑝1 − 𝑝2 = 0

⇔ 𝑝2 kan vara lika med 𝑝1

Page 17: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 17 av 24

Normalapproximation via centrala gränsvärdessatsen

𝑥1,… , 𝑥𝑛 är observationer av oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛

𝑋1,… , 𝑋𝑛 är inte normalfördelade men har 𝐸(𝑋𝑖) = 𝜇 och 𝑉(𝑋𝑖) = 𝜎2

Steg Exempel

Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�

Ta fram motsvarande s.v. 𝜇∗ = 𝑋 =1

𝑛∑ 𝑋𝑖𝑛𝑖=1

Enligt CGS 𝑋 ≈ 𝑁 (𝜇,𝜎

√𝑛) om 𝑛 ≥ 30

Hjälpvariabel

𝑋 − 𝜇

𝜎/√𝑛≈ 𝑁(0,1) om 𝜎 är känd

Annars ersätts 𝜎 med lämplig skattningsvariabel 𝜎 ∗

Exempelvis 𝜎 ∗ = 𝑆 men inte alltid (beror på fördelning för 𝑋𝑖)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝜇 och beräkna gränserna mha. tabell

Ersätt med observationer

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃(−𝑎 <𝑋 − 𝜇

𝜎 ∗/√𝑛< 𝑎) = 0.95

⇔ 𝐼𝜇 = (�̅� ∓ 𝑎 ∙𝜎∗

√𝑛)

Exempel – Användning av CGS

Steg Exempel

𝑥1,… , 𝑥𝑛1 obs. från 𝑋𝑖~𝐸𝑥𝑝(𝜇1)

𝑦1, … , 𝑦𝑛2 obs. från 𝑌𝑖~𝐸𝑥𝑝(𝜇2)

Punktskattningar 𝜇1,𝑜𝑏𝑠∗ = �̅� och 𝜇2,𝑜𝑏𝑠

∗ = �̅�

Ta fram motsvarande s.v. 𝜇1∗ = 𝑋 och 𝜇2

∗ = 𝑌

Enligt CGS 𝑋 ≈ 𝑁 (𝜇1,𝜇1

√𝑛1) och �̅� ≈ 𝑁 (𝜇2,

𝜇2

√𝑛2) ty 𝑛𝑖 ≥ 30

Hjälpvariabel

𝑋 −𝑌 − (𝜇1− 𝜇2)

√𝜇1∗

𝑛1+𝜇2∗

𝑛2

≈ 𝑁(0,1) ty kända standardavvikelser

Kan ej isolera 𝜇1 −𝜇2 ty kvadrat i nämnaren

Approximera mha.

𝜇1∗ = 𝑋 och 𝜇2

∗ = 𝑌 (OK eftersom de är konsistenta

skattningar av 𝜇1 respektive 𝜇2)

Stäng in hjälpvariabeln

Isolera 𝜇1 − 𝜇2 och beräkna gränserna mha. tabell

𝑋 − 𝑌 − (𝜇1 −𝜇2)

√𝑋2

𝑛1+𝑌2

𝑛2

≈ 𝑁(0,1)

⇔⋯⇔ 𝐼𝜇1−𝜇2 = (𝜇1 − 𝜇2 ∓ 𝑎 ∙ √𝑋2

𝑛1+𝑌2

𝑛2)

Ersätt med observationer från punktskattningar

Detta ger intervallet:

⇔ 𝐼𝜇1−𝜇2 = (�̅� − �̅� ∓ 1.96 ∙ √�̅�2

𝑛1+�̅�2

𝑛2)

Page 18: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 18 av 24

Hypergeometrisk fördelning – konfidensintervall för 𝒑

Steg Exempel

Ta fram s.v. och observation 𝑥 är en observation från 𝑋~𝐻𝑦𝑝(𝑁,𝑛, 𝑝)

Ta fram approximation (via tabell) 𝑋~𝐻𝑦𝑝(𝑁. 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛

𝑁− 1𝑛𝑝(1− 𝑝))

Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗

𝑝∗ =𝑋

𝑛

𝑝𝑜𝑏𝑠∗ =

𝑥

𝑛

Vill ta fram hjälpvariabel

Börja med att hitta en fördelning

för 𝑋

Använd normalapproximation

𝑋~𝐻𝑦𝑝(𝑁, 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛

𝑁− 1𝑛𝑝(1− 𝑝))

eftersom 𝑁−𝑛

𝑁−1𝑛𝑝(1 − 𝑝) ≥ 10

Kan nu ta fram (approximativ) fördelning

för 𝑝∗

𝐸(𝑝∗) = 𝐸 (𝑋

𝑛) =

1

𝑛𝐸(𝑋) =

1

𝑛∙ 𝑛𝑝 = 𝑝

𝑉(𝑝∗) = 𝑉 (𝑋

𝑛) =

1

𝑛2𝑉(𝑋) =

1

𝑛2∙𝑁 − 𝑛

𝑁 − 1𝑛𝑝(1 − 𝑝)

=𝑁 − 𝑛

𝑁 − 1∙𝑝(1 − 𝑝)

𝑛

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝,√

𝑁 − 𝑛

𝑁 − 1∙𝑝(1 − 𝑝)

𝑛)

Standardisera 𝑝∗ så fås en hjälpvariabel

för 𝑝 𝑝∗ ≈ 𝑁 (𝑝, √

𝑁 − 𝑛

𝑁 −1∙𝑝(1 − 𝑝)

𝑛) ⇔

𝑝∗ − 𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝(1 − 𝑝)

𝑛

≈ 𝑁(0,1)

Okända parametrar i nämnare på

hjälpvariabel, vilket blir krångligt

Bilda ny hjälpvariabel:

𝑍 =𝑝∗ −𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝∗(1 − 𝑝∗)

𝑛

≈ 𝑁(0,1)

eftersom 𝑝∗ är en konsistent skattning av 𝑝

Stäng in hjälpvariabeln i ett

intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna

mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝∗(1− 𝑝∗)

𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√

𝑁 − 𝑛

𝑁 − 1∙𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ )

𝑛)

Page 19: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 19 av 24

Hypotesprövning

Observationer 𝑥1,… , 𝑥𝑛 av oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛 (ibland är 𝑛 = 1)

Beteckning Betydelse Exempel

𝐻0

Nollhypotes

Påstående om att parametern 𝜃 har ett bestämt värde 𝜃0

I regel det man tror är falskt

𝐻𝑜: 𝜃 = 𝜃0

𝐻1

Mothypotes

Påstående om att parametern 𝜃 har ett annat värde än 𝜃0

I regel det man vill visa

𝐻1: 𝜃 > 𝜃0 eller 𝜃 < 𝜃0

𝑡(𝑥1,… , 𝑥𝑛) Teststorhet (TS) – observation från s.v.

”Teststorhetens s.v. då 𝐻0 är sann” 𝑧 =

�̅� − 𝜇0

𝜎/√𝑛 𝑑å 𝐻0 är sann

𝑇(𝑥1,… , 𝑥𝑛) Teststorhetens s.v. 𝑍 =𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann

𝐶 = [𝑎,𝑏]

Kritiskt område (C)

𝐻0 förkastas om 𝑡(𝑥1,… , 𝑥𝑛) ∈ 𝐶

𝐻0 förkastas ej om 𝑡(𝑥1,… , 𝑥𝑛) ∉ 𝐶

𝐶 = 𝐼𝜃 = [𝑎,∞[

𝛼

Signifikansnivå

𝛼 = 𝑃(𝐻0 förkastas om 𝐻0 är sann) ⇔

𝛼 = 𝑃(𝑡(𝑋1, … , 𝑋𝑛) ∈ 𝐶 om 𝐻0 är sann)

𝛼 = 5%

Styrka för ett värde 𝜃1 (i 𝐻1)

𝑃(𝐻0 förkastas om 𝜃1 ärdet sanna värdet) ⇔

𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃1 är detsanna värdet)

Styrka = 81%

ℎ(𝜃)

Styrkefunktion

𝑃(𝐻0 förkastas om 𝜃 ärdet sanna värdet) ⇔

𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃 ärdet sanna värdet)

Styrkefunktionen ska vara stor för 𝑝-värden som tillhör mothypotes

ℎ(𝜃) = ∑(10

𝑘) 𝜃𝑘(1− 𝜃)10−𝑘

10

𝑘=6

Fel av typ I Att förkasta 𝐻0 då den är sann

Signifikansnivå 𝛼 = risk för fel av typ I

Fel av typ II Att inte förkasta 𝐻0 då den är falsk

P-värde

P är sannolikheten (då 𝐻0 är sann) att få ett minst lika extremt värde på TS som det man har observerat.

Lågt P-värde tyder på stor avvikelse från 𝐻0

𝐻0 förkastas ⇔ 𝑃 < 𝛼

En- och tvåsidiga test

Fall Kriterium Metod

𝐻1: 𝜃 > 𝜃0

eller 𝜃 < 𝜃0

𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) > 𝑎

respektive 𝑡(𝑋1,… , 𝑋𝑛) < 𝑎

Nedåt/uppåt begränsat konfidensintervall för 𝜃

𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃

Konfidensgrad = 1 − 𝛼

𝐻1: 𝜃 ≠ 𝜃0 𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1

eller 𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2

𝛼

2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1 𝑜𝑚 𝜃 = 𝜃0)

𝛼

2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2 𝑜𝑚 𝜃 = 𝜃0)

Gör tvåsidigt konfidensintervall för 𝜃

𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃

Page 20: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 20 av 24

Slutsatser från konfidensmetoden

Teststorhet Beslut Betydelse

𝑡 ∈ 𝐶 𝐻0 förkastas (till förmån för 𝐻1)

”Långt borta”, ”Osannolikt”

Har funnit en signifikant avvikelse från 𝐻0

Avvikelsen är på nivån 𝛼

Med felrisk ≤ 𝛼 så gäller 𝐻1

𝑡 ∉ 𝐶 𝐻0 förkastas ej

Inte tillräckligt ”långt borta” eller ”osannolikt”

Ingen signifikant avvikelse från 𝐻0

Sett till nivån 𝛼

𝐻0 kan vara sann (eller falsk)

Hypotesprövning utan normalapproximation

Steg Exempel

Observationer

Hypoteser

Signifikansnivå

𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)

𝐻0: 𝑝 = 0.3, 𝐻1: 𝑝 > 0.3

𝛼 = 5%

Ta fram observation av 𝑝 𝑝𝑜𝑏𝑠∗ =

𝑥

10=7

10= 0.7

Välj teststorhet 𝑡(𝑋): 𝑥

Ställ upp uttryck för att se om 𝑡(𝑋) > 𝑎 (⇒ förkasta 𝐻0)

𝑃(𝑋 ≥ 𝑎 om 𝐻0 är sann) ≤ 0.05

𝑃(𝑋 ≥ 𝑎 om 𝑝 = 0.3) ≤ 0.05

Beräkna tröskelvärdet 𝑎 𝐵𝑖𝑛(10,0.3) ger

𝑃(𝑋 ≥ 6) = 𝑃(𝑋 = 10) + ⋯+ 𝑃(𝑋 = 6) = 0.0473 ≤ 0.05

Jämför tröskelvärde med teststorhet

Tolka resultat

𝑥 = 7 > 6 = 𝑎 ⇒ 𝐻0 förkastas

Med felrisk 4.73% ≤ 5% kan vi påstå att 𝐻1:𝑝 > 0.3 gäller

Jämförelse mellan 𝑪-metoden och 𝒑-metoden

𝑪-metoden 𝒑-metoden

Anta att 𝐻0 är sann:

Detta leder till en given fördelning för teststorheten 𝑋

Anta att vi får resultatet (observationen) 𝑥

Är sannolikheten att vi fick detta resultat tillräckligt liten?

Beräkna 𝛼: 𝑃(𝑋 ≥ 𝑎) = 𝛼 eller 𝑃(𝑋 ≤ 𝑎) = 𝛼

(där vi söker 𝑎 så att sannolikheten blir 𝛼)

Beräkna 𝑝-värdet:

𝑝 = 𝑃(𝑋 ≤ 𝑥) eller 𝑝 = 𝑃(𝑋 ≥ 𝑥)

Om 𝒙 ≤ 𝒂 eller 𝒙 ≥ 𝒂:

Resultatet är osannolikt under 𝐻0

Detta är signifikant ⇒ 𝐻0 kan förkastas

Om 𝒑 ≤ 𝜶 eller 𝒑 ≥ 𝜶 :

Resultatet är osannolikt under 𝐻0

Detta är signifikant ⇒ 𝐻0 kan förkastas

Annars:

Resultatet är ej tillräckligt osannolikt under 𝐻0

Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas

Annars:

Resultatet är ej tillräckligt osannolikt under 𝐻0

Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas

Page 21: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 21 av 24

Hypotesprövning med normalapproximation

Steg Exempel

Observationer

Hypoteser

Signifikansnivå

𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)

𝐻0: 𝑝 = 𝑝0, 𝐻1: 𝑝 ≠ 𝑝0

𝛼 = 5%

Ta fram fördelning för 𝑋 (under 𝐻0)

𝑋~𝐵𝑖𝑛(𝑛, 𝑝0) ≈ 𝑁 (𝑛𝑝0 , √𝑛𝑝0(1 − 𝑝0))

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝0,√

𝑝0(1− 𝑝0)

𝑛)

Bilda hjälpvariabel 𝑍

Välj teststorhet 𝑧

𝑍 =𝑝∗ − 𝑝

0

√𝑝0(1 − 𝑝0)/𝑛≈ 𝑁(0,1), då 𝐻0 är sann

𝑡: 𝑧 =𝑝𝑜𝑏𝑠∗ −𝑝

0

√𝑝0(1 − 𝑝0)/𝑛

Ställ upp uttryck för att se om |𝑝∗| stor (⇒ förkasta 𝐻0)

|𝑝∗| stor ⇒ |𝑧| stor ⇒ testa 𝑧

𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼 = 0.05

𝑃(|𝑍| > 𝑎 om 𝑝 = 𝑝0) ≤ 0.05

Beräkna tröskelvärdet 𝑎

𝑁(0,1) ger

𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.05 ⇒

𝑎 = 1.96

Jämför tröskelvärde med teststorhet

Tolka resultat

𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas

Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller

Normalapproximation - allmänt

En eller flera stickprov ger en punktskattning 𝜃𝑜𝑏𝑠∗

Tillhörande s.v. 𝜃∗ ≈ 𝑁(𝜃, 𝐷)

Vill pröva 𝐻0: 𝜃 = 𝜃0

Bilda hjälpvariabel och teststorhet:

o Teststorheten är i princip hjälpvariabeln för 𝐼𝜃 fast med villkoret att 𝐻0 är sant

𝑍 = {

𝜃∗ − 𝜃

𝐷≈ 𝑁(0,1), 𝐷 känd

𝜃∗ −𝜃

𝐷∗≈ 𝑁(0,1), 𝐷 okänd

𝑧 = {

𝜃𝑜𝑏𝑠∗ −𝜃

𝐷≈ 𝑁(0,1), om 𝐷 känd då 𝐻0 är sann

𝜃𝑜𝑏𝑠∗ − 𝜃

𝑑≈ 𝑁(0,1), om 𝐷 okänd

där 𝑑 är en skattning av 𝐷 som gäller då 𝐻0 är sann

Ensidigt eller tvåsidigt test beror på hur mothypotesen ser ut

Page 22: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 22 av 24

Hypotesprövning vid ett stickprov – 𝝈 känd

Steg Exempel

Observationer

S.v.

𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛

𝑋𝑖 = 𝜇 + 𝜀𝑖 och 𝜀𝑖~𝑁(0,𝜎)

Hypoteser 𝐻0: 𝜇 = 𝜇0 mot 𝐻1: 𝜇 ≠ 𝜇0

Signifikansnivå 𝛼

Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�

Tillhörande s.v.

𝜇∗ = 𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝜇∗ = 𝑋~𝑁 (𝜇0,𝜎

√𝑛) då 𝐻0 är sann (ty H0 ⇒ 𝜇 = 𝜇0)

Bilda hjälpvariabel 𝑍

Bilda därefter teststorhet 𝑧

(𝑍 under villkoret att 𝐻0 är sant)

𝑍 =𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann

𝑧 =�̅� − 𝜇0

𝜎/√𝑛 observation från 𝑍~𝑁(0,1) om 𝐻0 är sann

Ställ upp uttryck för att se om 𝜇𝑜𝑏𝑠∗ avviker

⇔ |𝜇𝑜𝑏𝑠∗ | stor ⇔ |�̅�| stor ⇒ |𝑧| stor

⇒ testa 𝑧

𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼

Tvåsidigt med 𝛼

2 på vardera sida pga. 𝐻1: 𝜇 ≠ 𝜇0

Beräkna tröskelvärdet 𝑎 𝑁(0,1) ger 𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) =𝛼

2 ⇒ 𝑎 = 𝜆𝛼/2

Jämför tröskelvärde med teststorhet 𝑧

Tolka resultat

Om 𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas

Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller

Ekvivalent: risken att teststorhet av slump hamnar i kritiska

området |𝑍|> 𝑎 är lika med 𝛼

Hypotesprövning vid ett stickprov – 𝝈 okänd

Bilda hjälpvariabel 𝑍

Bilda därefter teststorhet 𝑧

(𝑍 under villkoret att 𝐻0 är sant)

𝑇 =𝑋 − 𝜇

𝑆/√𝑛~𝑡(𝑛 − 1) då 𝐻0 är sann

𝑡 =�̅� − 𝜇0

𝑠/√𝑛 observation från 𝑇~𝑡(𝑛− 1) om 𝐻0 är sann

Hypotesprövning vid ett stickprov – 𝑯𝟎 :𝝈𝟐 = 𝝈𝟎

𝟐

Bilda hjälpvariabel 𝑆2

Bilda därefter teststorhet 𝑠2

𝑆2 =1

𝑛 − 1∑(𝑋𝑖− �̅�)

2𝑛

𝑖=1

𝑠2 =1

𝑛 − 1∑(𝑥𝑖− �̅�)2𝑛

𝑖=1

Antag att 𝐻1: 𝜎2 > 𝜎0

2

Förkasta 𝐻0 då 𝑠2 > 𝑐

Bestäm 𝑐 mha. följande:

{

𝛼 = 𝑃(𝑆2 > 𝑐 om 𝐻0 är sann)

(𝑛 − 1)𝑆2

𝜎02 ~𝜒2(𝑛− 1) om 𝐻0 är sann

𝛼 = 𝑃((𝑛 − 1)𝑆2

𝜎02 >

(𝑛 − 1)c

𝜎02 om 𝐻0 är sann)

Page 23: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 23 av 24

Hypotesprövning vid flera stickprov – 𝝁𝒊

Steg Exempel

Observationer

S.v.

𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋𝑖~𝑁(𝜇1,𝜎1)

𝑦1, … , 𝑦𝑛 från oberoende och likafördelade s.v. 𝑌𝑖~𝑁(𝜇2, 𝜎2)

Hypoteser 𝐻0: 𝜇1 = 𝜇2 ⇔ 𝜇1 −𝜇2 = 0

𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2

Konfidensintervall-metoden

Konstruera konfidensintervall för 𝜇1 − 𝜇2

Förkasta 𝐻0 om 0 ∉ 𝐼𝜇1−𝜇2

{𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2𝐻1: 𝜇1 ≠ 𝜇2

⇒ {Ensidigt intervall

Tvåsidigt intervall

Vid flera stickprov ⇒ jämför konfidensintervall

Teststorhet-metoden

Teststorhet: 𝑇 =𝑋 − 𝑌

𝑆√1𝑛1+1𝑛2

~𝑡(𝑛1 + 𝑛2 −2) under 𝐻0

Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)

Hypotesprövning vid flera stickprov – 𝝈𝒊

Steg Exempel

Hypoteser 𝐻0: 𝜎12 = 𝜎1

2 = 𝜎2 (alternativt 𝜎1 = 𝜎2 = 𝜎)

𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2

Bilda hjälpvariabel 𝑉

Bilda därefter teststorhet 𝑣

(𝑉 under villkoret att 𝐻0 är sant)

𝑉 =

(𝑛1−1)𝑆12

𝜎12 /(𝑛1 − 1)

(𝑛2 −1)𝑆22

𝜎12 /(𝑛2 − 1)

~𝐹(𝑛1− 1,𝑛2 −1) då 𝐻0 är sann

𝑣 =𝑠12

𝑠22 obs. från 𝑉~𝐹(𝑛1− 1, 𝑛2− 1) om 𝐻0 är sann

Ensidigt eller tvåsidigt test {𝐻1: 𝜎1

2 > 𝜎22 eller 𝐻1: 𝜎1

2 < 𝜎22

𝐻1: 𝜎12 ≠ 𝜎1

2 ⇒ {

Ensidigt intervall

Tvåsidigt intervall

Jämför tröskelvärde 𝑐 med teststorhet Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)

Page 24: SAMMANFATTNING TAMS65 Matematisk statistik, …studieboken.iportalen.se/images/6/61/Sammanfattning... · SAMMANFATTNING TAMS65 Matematisk statistik, fortsättningskurs LÄST SOM EN

Sida 24 av 24

Stokastiska vektorer

Väntevärde Varians

𝐸[𝑋+ 𝑌] = 𝐸[𝑋] + 𝐸[𝑌] 𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 2 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑉(𝑌)

𝐸[𝑎𝑋 + 𝑏𝑌 + 𝑐] = 𝑎 ∙ 𝐸[𝑋] + 𝑏 ∙ 𝐸[𝑌] + 𝑐 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌)

𝐸[𝑋 ∙ 𝑌] = 𝐸[𝑋] ∙ 𝐸[𝑌] om Χ och Y är

oberoende

𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) om Χ och Y är oberoende

Kovarians Korrelation

𝐶𝑜𝑣(𝛸, 𝑌) = 𝐸[𝛸 ∙ 𝑌] − 𝐸[𝛸] ∙ 𝐸[𝑌] 𝜌(𝛸, 𝑌) =𝐶𝑜𝑣(𝛸, 𝑌)

𝐷(𝑋) ∙ 𝐷(𝑌)=

𝐶𝑜𝑣(𝛸, 𝑌)

√𝑉(𝛸) ∙ 𝑉(𝑌)

𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉(𝑋) Mått på linjärt beroende mellan 𝛸 och 𝑌

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌,𝑋) −1 ≤ 𝜌 ≤ 1 gäller alltid!

𝐶𝑜𝑣(𝑎𝑋,𝑏𝑌) = 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) Tänk ”𝑋 är −100% respektive 100% beroende av 𝑌”

𝐶𝑜𝑣(𝑋, 𝑌) = 0 om Χ och Y är oberoende 𝛸 och 𝑌 är oberoende ⟹ 𝐶𝑜𝑣(𝑋,𝑌) = 0 ⟹

𝛸 och 𝑌 är okorrelerade ⟹ 𝜌(𝛸, 𝑌) = 0

Flerdimensionell normalfördelning

Kovariansmatris

Tänk 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌) o Fast generaliserat till tre eller fler dimensioner i form av X, Y, Z,…

Därav matrisform

𝑪𝑿 = (𝐶(𝑋, 𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)

𝐶(𝑌, 𝑋) 𝐶(𝑌,𝑌) 𝐶(𝑌, 𝑍)

𝐶(𝑍, 𝑋) 𝐶(𝑍, 𝑌) 𝐶(𝑍, 𝑍)) = (

𝑉(𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)

𝐶(𝑌, 𝑋) 𝑉(𝑌) 𝐶(𝑌, 𝑍)

𝐶(𝑍, 𝑋) 𝐶(𝑍,𝑌) 𝑉(𝑍))

Notera symmetri pga. 𝐶(𝑋, 𝑌) = 𝐶(𝑌,𝑋) samt att 𝐶(𝑋, 𝑋) = 𝑉(𝑋)

Regressionsanalys

Sats: Komponenterna i en normalfördelad vektor är oberoende ⇔ kovariansmatrisen är en diagonalmatris.

Följdsats: Två simultant normalfördelade s.v. X, Y är oberoende ⇔ X, Y är okorrelerade, 𝜌(𝛸, 𝑌) = 0

Sats: Om 𝒀 = 𝑨𝑿+ 𝑩 där 𝑿 har flerdimensionell normalfördelning ⇒ 𝒀 är normalfördelad

”En linjärkombination av oberoende normalvariabler, som är komponenter i en normalfördelad vektor, är

normalfördelad ”