SAMMANFATTNING TAMS65 Matematisk statistik,...

Preview:

Citation preview

SAMMANFATTNING TAMS65

Matematisk statistik, fortsättningskurs

LÄST SOM EN DEL AV CIVILINGENJÖRSPROGRAMMET I

INDUSTRIELL EKONOMI VID LITH, VT 2016

Senast reviderad: 2016-06-01 Författare: Viktor Cheng

Sida 2 av 24

Innehållsförteckning

Introduktion till statistikteori .......................................................................................................................... 4

Modellering ..................................................................................................................................................... 4

Lägesmått för stickprov................................................................................................................................... 4

Spridningsmått för stickprov ........................................................................................................................... 4

Standardiserad normalfördelning ..................................................................................................................... 4

Regler för normalfördelning ............................................................................................................................ 5

Egenskaper hos normalfördelade stokastiska variabler .................................................................................... 5

Väntevärde, varians och standardavvikelse för 𝑿 (oberoende) ......................................................................... 5

Räkneregler för väntevärde och varians för oberoende s.v. .............................................................................. 5

Räkneregler för s.v. ......................................................................................................................................... 5

Punktskattningar .............................................................................................................................................. 6

Väntevärdesriktighet (v.v.r) ............................................................................................................................. 6

Konsistent skattning........................................................................................................................................ 6

Effektivitet ...................................................................................................................................................... 6

Skattning av väntevärde och varians ............................................................................................................... 7

Skattning av 𝝁 ................................................................................................................................................. 7

Skattning av 𝝈𝟐............................................................................................................................................... 7

Momentmetoden (MM) ................................................................................................................................... 8

Minsta-kvadrat-metoden (MK) ....................................................................................................................... 8

Maximum-likelihood-metoden (ML) ............................................................................................................. 9

ML-skattningar vid normalfördelning .............................................................................................................. 9

Exempel på medelfel för en skattning ............................................................................................................ 9

Konfidensintervall........................................................................................................................................... 10

Konstruktion av konfidensintervall ............................................................................................................... 10

Ensidigt konfidensintervall, simultan konfidensgrad ...................................................................................... 10

Konfidensintervall för 𝝁................................................................................................................................ 11

Konfidensintervall för 𝝈 eller 𝝈𝟐 .................................................................................................................. 12

Modellering av parvisa skillnader ................................................................................................................... 13

Konfidensintervall vid två stickprov .............................................................................................................. 13

Jämförelse av varianser .................................................................................................................................. 14

Normalapproximation.................................................................................................................................... 15

Binomialfördelning – konfidensintervall för 𝒑............................................................................................... 15

Binomialfördelning – konfidensintervall för 𝒑𝟏 − 𝒑𝟐................................................................................... 16

Normalapproximation via centrala gränsvärdessatsen.................................................................................... 17

Exempel – Användning av CGS................................................................................................................ 17

Hypergeometrisk fördelning – konfidensintervall för 𝒑 ................................................................................. 18

Sida 3 av 24

Hypotesprövning ............................................................................................................................................ 19

En- och tvåsidiga test .................................................................................................................................... 19

Slutsatser från konfidensmetoden.................................................................................................................. 20

Hypotesprövning utan normalapproximation ................................................................................................ 20

Jämförelse mellan 𝑪-metoden och 𝒑-metoden .............................................................................................. 20

Hypotesprövning med normalapproximation ................................................................................................ 21

Normalapproximation - allmänt .................................................................................................................... 21

Hypotesprövning vid ett stickprov – 𝝈 känd ................................................................................................. 22

Hypotesprövning vid ett stickprov – 𝝈 okänd ............................................................................................... 22

Hypotesprövning vid ett stickprov – 𝑯𝟎:𝝈𝟐 = 𝝈𝟎𝟐.................................................................................... 22

Hypotesprövning vid flera stickprov – 𝝁𝒊 ..................................................................................................... 23

Hypotesprövning vid flera stickprov – 𝝈𝒊 ..................................................................................................... 23

Stokastiska vektorer........................................................................................................................................ 24

Flerdimensionell normalfördelning............................................................................................................... 24

Kovariansmatris ............................................................................................................................................ 24

Regressionsanalys .......................................................................................................................................... 24

Sida 4 av 24

Introduktion till statistikteori

Definition Beteckning Betydelse

Population 𝑁 Samtliga möjliga observationer

Stickprov 𝑛 Utvalt antal ur population

Observation 𝑥 𝑥 är ett givet tal, när stickprovet har tagits.

Parameter 𝑝 𝑝 är en okänd parameter som ska skattas

Punktskattning 𝑝∗ Ett tal som är en skattning av 𝑝

Intervallskattning

Konfidensintervall 𝐼𝑝

Ett intervall som med en viss given säkerhet (%) innehåller det okända värdet 𝑝, t.ex. 𝐼𝑝 = (𝑎∓ 𝑏) = [𝑎 − 𝑏, 𝑎 + 𝑏]

Hypotesprövning

Signifikanstest

Ställ upp hypotes att 𝑝 < 𝑝0 , där 0 ≤ 𝑝0 ≤ 1 är ett givet tal. Pröva hypotes mha stickprovet, dvs. om stickprovets utseende stämmer överens med hypotesen eller om hypotesen ska förkastas.

Slumpmässigt stickprov

Ett slumpmässigt stickprov 𝑥1,… , 𝑥𝑛 utgörs av observationer av

oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛

Modellering

Verklighet Modell

Mätvärden 𝑥1,… ,𝑥𝑛 Oberoende s.v. 𝑋1,… , 𝑋𝑛

𝑥1,… , 𝑥𝑛 är observationer av dessa s.v.

Okänd konstant 𝜇 Konstanten 𝜇 är väntevärdet för 𝑋1,… , 𝑋𝑛

Lägesmått för stickprov

Medelvärde 𝑥̅ =1

𝑛∑𝑥𝑖

𝑛

𝑖=1

=𝑥1+𝑥2+⋯+𝑥𝑛

𝑛

Spridningsmått för stickprov

Varians 𝑠2 =1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

Standardavvikelse 𝑠 = √1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

Standardiserad normalfördelning

Låt Φ(𝑦) vara (den fyrkantiga) fördelningsfunktionen för 𝑌~𝑁(0,1)

Låt 𝑋 vara en s.v. med väntevärde 𝜇 och standardavvikelse 𝜎, dvs. 𝑋~𝑁(𝜇,𝜎)

Då kallas 𝑌 =𝛸−𝜇

𝜎 en standardiserad s.v. och 𝑌~𝑁(0,1) ⟹

𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃 (𝑎 − 𝜇

𝜎<𝑋 − 𝜇

𝜎≤𝑏 − 𝜇

𝜎) = 𝑃 (

𝑎 − 𝜇

𝜎< 𝑌 ≤

𝑏 − 𝜇

𝜎) = Φ(

𝑏 − 𝜇

𝜎)− Φ(

𝑎 − 𝜇

𝜎)

Sida 5 av 24

Regler för normalfördelning

Antag att 𝑎 > 0, 𝑏 > 0 och 𝛸~𝑁(0,1). Då gäller:

Regel

𝑃(𝛸 ≤ −𝑎) = = Φ(−𝑎) = 1− Φ(𝑎)

𝑃(𝛸 > 𝑎) = = 1 −𝑃(𝛸 ≤ 𝑎) = 1 −Φ(𝑎)

𝑃(−𝑎 < 𝛸 ≤ 𝑏) = = Φ(𝑏) −Φ(−𝑎)

= Φ(𝑏) − (1 −Φ(𝑎)) = Φ(𝑏) +Φ(𝑎) − 1

Egenskaper hos normalfördelade stokastiska variabler

Förutsättningar Resultat

𝑋~𝑁(𝜇, 𝜎) 𝑌 = 𝑎𝑋 + 𝑏

𝑌~𝑁(𝑎 ∙ 𝜇 + 𝑏, |𝑎|𝜎)

𝑋~𝑁(𝜇1,𝜎1) 𝑌~𝑁(𝜇2 ,𝜎2)

𝑋 och 𝑌 oberoende

(𝛸 ± 𝑌)~𝑁 (𝜇1 ± 𝜇2,√𝜎12 +𝜎2

2)

𝑋1,… , 𝑋𝑛 är oberoende

𝑋1~𝑁(𝜇1,𝜎1), … , 𝑋𝑛~𝑁(𝜇𝑛,𝜎𝑛) (∑𝑎𝑖𝛸𝑖 +𝑏

𝑛

1

) ~𝑁(∑𝑎𝑖𝜇𝑖 +𝑏

𝑛

1

, √∑𝑎𝑖2𝜎𝑖

2

𝑛

1

)

Väntevärde, varians och standardavvikelse för �̅� (oberoende)

Förutsättningar Resultat

𝑋1,… , 𝑋𝑛 har alla samma väntevärde 𝜇 𝐸[𝑋] = 𝜇

𝑋1,… , 𝑋𝑛 har alla samma varians 𝜎2 𝑉(�̅�) =

𝜎2

𝑛

𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝑋1,… , 𝑋𝑛 har alla samma standardavvikelse 𝜎 𝐷(𝑋) =𝜎

√𝑛

Räkneregler för väntevärde och varians för oberoende s.v.

Väntevärde 𝐸(𝑎𝑋 + 𝑏𝑌 +𝐶) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 𝐸(𝑌)+ 𝐶

Varians 𝑉(𝑎𝑋 + 𝑏𝑌 + 𝐶) = 𝑎2𝑉(𝑋) + 𝑏2𝑉(𝑌)

Räkneregler för s.v.

Diskret sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝑋)] = ∑𝑔(𝑘) ∙ 𝑝𝛸(𝑘)

𝑘

Kontinuerlig sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝛸)] = ∫ 𝑔(𝑥) ∙ 𝑓𝛸(𝑥) 𝑑𝑥∞

−∞

Varians 𝑉(𝑋) = 𝐸[𝑋2] − (𝐸[𝑋])2

Sida 6 av 24

Punktskattningar

Beteckning Betydelse Exempel

𝜃𝑜𝑏𝑠∗

Punktskattning av okänd parameter 𝜃

Är ett utfall av den s.v. 𝜃∗ (dvs. ett tal)

𝜃𝑜𝑏𝑠∗ är en funktion av mätdata 𝑥1, 𝑥2,… , 𝑥𝑛

𝜃𝑜𝑏𝑠∗ =

𝑥

1000= 0.35

𝜃∗ Stickprovsvariabel

Är en s.v. som beror av de s.v. 𝑋1, 𝑋2, … , 𝑋𝑛 𝜃∗ =

𝑋

1000

𝐸(𝜃∗) Väntevärdet för fördelningen av 𝜃∗ 𝐸(𝜃∗) = 𝐸 (𝑋

1000)

𝑉(𝜃∗) Variansen för fördelningen av 𝜃∗ 𝑉(𝜃∗) = 𝑉 (𝑋

1000) =

𝜃(1 − 𝜃)

1000

𝐷(𝜃∗) Standardavvikelsen för fördelningen av 𝑝∗ 𝐷(𝑝∗) = 𝐷 (𝑋

1000) = √

𝜃(1 − 𝜃)

1000

𝑑(𝜃∗)

Medelfelet för 𝜃𝑜𝑏𝑠∗

𝑑(𝜃∗) = 𝐷(𝜃𝑜𝑏𝑠∗ )

Numerisk skattning av osäkerheten i skattningen 𝜃𝑜𝑏𝑠∗

𝑑(𝜃∗) = √𝜃𝑜𝑏𝑠∗ (1 − 𝜃𝑜𝑏𝑠

∗ )

1000=

= √0.35(1 − 0.35)

1000≈ 0.015

Väntevärdesriktighet (v.v.r)

En punktskattning 𝜃𝑜𝑏𝑠∗ är väntevärdesriktig om:

Dess tillhörande stickprovsvariabel 𝜃∗ har väntevärde 𝜃 𝐸(𝜃∗) = 𝜃 för alla värden som 𝜃∗ kan anta

”Det förväntade utfallet av stickprovsvariabeln θ∗ är det sanna värdet på θ”

Konsistent skattning

En punktskattning 𝜃𝑜𝑏𝑠∗ är konsistent om:

𝑃(| 𝜃𝑛∗ − 𝜃| > 𝜀) → 0 då stickprovsstorleken 𝑛 → ∞

Alternativt:

För varje fixt 𝜃 som 𝜃∗ kan anta och

för varje givet 𝜀 > 0

𝐸(𝜃∗) = 𝜃 Väntevärdesriktighet

𝑉(𝜃𝑛∗) → 0 då stickprovsstorleken 𝑛 →∞ Minskad varians (avvikelse från det sanna värdet)

”Ju fler observationer, desto mindre blir felet”

Effektivitet

En skattning 𝜃1∗ sägs vara en mer effektiv skattning än 𝜃2

∗ om:

𝜃1,𝑜𝑏𝑠∗ och 𝜃2,𝑜𝑏𝑠

∗ är väntevärdesriktiga skattningar För alla 𝜃 som 𝜃∗ kan anta

𝜃1∗ och 𝜃2

∗ uppfyller 𝑉(𝜃1∗) < 𝑉(𝜃2

∗) För alla 𝜃 som 𝜃∗ kan anta

”Mindre varians ⇒ bättre/mer effektiv skattning”

Sida 7 av 24

Skattning av väntevärde och varians

Okänd parameter är antingen väntevärde 𝜇 eller varians 𝜎2 för den fördelning som stickprovet kommer ifrån

Skattning av 𝝁

Steg Beräkning Beskrivning

Punktskattning 𝜇𝑜𝑏𝑠∗ =

1

𝑛∑𝑥𝑖

𝑛

𝑖=1

= �̅� Använd stickprovsmedelvärdet som punktskattning

Stickprovsvariabel 𝜇∗ =1

𝑛∑𝑋𝑖

𝑛

𝑖=1

= 𝑋 Betrakta 𝜇𝑜𝑏𝑠

∗ = �̅� som en

observation av en s.v. 𝜇∗ = 𝑋

Betrakta de s.v. 𝑋𝑖 som oberoende

och likafördelade med väntevärde

𝜇 och standardavvikelse 𝜎

𝐸(𝜇∗) = 𝐸 (1

𝑛∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛𝐸 (∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛∙ 𝑛𝜇 = 𝜇

𝑉(𝜇∗) = 𝑉 (1

𝑛∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛2𝑉 (∑𝑋𝑖

𝑛

𝑖=1

) =1

𝑛2∙ 𝑛𝜎2 =

𝜎2

𝑛

Väntevärde 𝐸(𝜇∗) = 𝜇 Väntevärdesriktig

Varians 𝑉(𝜇∗) =𝜎2

𝑛

För stora 𝑛 ligger skattningen

troligen nära det rätta värdet 𝜇

Sats 11.1: Stickprovsmedelvärdet 𝑀∗ = 𝑋 är en väntevärdesriktig och konsistent skattning av 𝜇.

Skattning av 𝝈𝟐

Steg Beräkning Beskrivning

Punktskattning (𝜎2)𝑜𝑏𝑠∗ =

1

𝑛 − 1∑(𝑥𝑖− �̅�)

2

𝑛

𝑖=1

= 𝑠2 Använd stickprovsvariansen som punktskattning

Stickprovsvariabel (𝜎2)∗ =1

𝑛 − 1∑(𝑋𝑖 −𝑋)

2

𝑛

𝑖=1

= 𝑆2 Betrakta (𝜎 2)𝑜𝑏𝑠

∗ = 𝑠2 som en

observation av en s.v. (𝜎2)∗ = 𝑆 2

Betrakta de s.v. 𝑋𝑖 som oberoende och likafördelade med väntevärde

𝜇 och standardavvikelse 𝜎

𝐸(𝑆2) = 𝐸 (1

𝑛− 1∑(𝑋𝑖− 𝑋)

2

𝑛

𝑖=1

) = 𝜎2

Väntevärde 𝐸((𝜎2)∗) = 𝜎2 Väntevärdesriktig

Sats 11.2: Stickprovsvariansen 𝑠2 är en väntevärdesriktig skattning av 𝜎2.

OBS: Skattningen 𝜎𝑜𝑏𝑠∗ = 𝑠 = √

1

𝑛−1∑ (𝑥𝑖 − �̅�)

2𝑛𝑖=1 är inte väntevärdesriktig!

Sida 8 av 24

Momentmetoden (MM)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

Täthets- eller sannolikhetsfunktion som beror av 𝜃

Ta fram 𝐸(𝑋)

𝐸(𝑋) = 𝜇(𝜃) ⇒ 𝜇(𝜃𝑜𝑏𝑠

∗ ) = �̅�

𝜃𝑜𝑏𝑠∗ är MM-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠

∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�

Anmärkningar

Funkar alltid att skatta med MM-metoden!

Dock inte nödvändigtvis alltid en bra skattning

Förstamoment: 𝜇1 = 𝐸(𝑋) =1

𝑛∑ 𝑥𝑖𝑛1 = �̅�

Andramoment: 𝜇2 = 𝐸(𝑋2) =1

𝑛∑ 𝑥𝑖

2𝑛1

Minsta-kvadrat-metoden (MK)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

𝐸(𝑋𝑖) = 𝜇(𝜃) 𝑉(𝑋𝑖) = 𝜎

2

Bilda 𝑄(𝜇(𝜃)) = 𝑄(𝜃) 𝑄(𝜃) =∑(𝑥𝑖 −𝜇(𝜃))2

𝑛

𝑖=1

Söker minsta fel/avvikelse

⇒ minimera 𝑄(𝜃)

⇒𝑑𝑄

𝑑𝜃= 0

⇒∑−2(𝑥𝑖 − 𝜇(𝜃))

𝑛

𝑖=1

= 0 ⇔∑(𝑥𝑖 − 𝜇(𝜃))

𝑛

𝑖=1

= 0 ⇔

⇔ ∑𝑥𝑖

𝑛

𝑖=1

− 𝑛 ∙ 𝜇(𝜃) = 0 ⇔ 𝜇(𝜃) =1

𝑛∑𝑥𝑖

𝑛

𝑖=1

= �̅�

𝜃𝑜𝑏𝑠∗ är MK-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠

∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�

Anmärkningar Minimum ty funktionen 𝑄(𝜃) är strikt konvex

Sida 9 av 24

Maximum-likelihood-metoden (ML)

Steg Beskrivning

Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛

Täthetsfunktion 𝑓(𝑥;𝜃) eller sannolikhetsfunktion 𝑝(𝑥;𝜃)

Bilda likelihoodfunktionen 𝐿(𝜃) 𝐿(𝜃) =

{

∏𝑝(𝑥𝑖;𝜃)

𝑛

𝑖=1

= 𝑝(𝑥1;𝜃) ∙ … ∙ 𝑝(𝑥𝑛;𝜃) (diskret)

∏𝑓(𝑥𝑖;𝜃)

𝑛

𝑖=1

= 𝑓(𝑥1;𝜃) ∙ … ∙ 𝑓(𝑥𝑛;𝜃) (kontinuerlig)

Maximera 𝐿(𝜃) Ofta lättare att maximera ln 𝐿(𝜃) ty summa istället för produkter

Detta bevarar den optimala punkten 𝜃𝑜𝑏𝑠∗

Kalla 𝑙(𝜃) = ln 𝐿(𝜃)

𝑑𝑙

𝑑𝜃= 0

Betrakta 𝜃 som variabel och 𝑥𝑖 som konstant

Lös med avseende på 𝜃

𝜃𝑜𝑏𝑠∗ är ML-skattningen av 𝜃 𝐿(𝜃) antar sitt största värde i 𝜃𝑜𝑏𝑠

Kontrollera maximum Säkerställ att 𝜃𝑜𝑏𝑠∗ verkligen är ett maximum mha.

𝑑2𝑙

𝑑𝜃2< 0

Anmärkningar I allmänhet: 𝜃∗ är konsistent och har goda asymptotiska egenskaper

ML-skattningar vid normalfördelning

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝁 𝝈 Resultat

Okänd Känd 𝜇∗ = �̅�

Känd Okänd (𝜎2)∗ =1

𝑛∑(𝑥𝑖− 𝜇)

2

𝑛

𝑖=1

Okänd Okänd

{

𝜕𝑙

𝜕𝜇= 0

𝜕𝑙

𝜕𝜎= 0

⇒ {

𝜇∗ = �̅�

(𝜎2)∗ =1

𝑛∑(𝑥𝑖 − �̅�)

2

𝑛

𝑖=1

Exempel på medelfel för en skattning

𝑋1,… , 𝑋𝑛 är oberoende s.v

𝑋𝑖~𝑁(𝜇, 𝜎)

𝜇, 𝜎 är okända

Vi vet att en skattning av 𝜇 är 𝜇∗ = �̅�. Vi vill veta medelfelet för denna skattning.

En skattning av standardavvikelsen 𝐷(𝜃∗) kallas medelfelet för 𝜃∗ och betecknas 𝑑 = 𝑑(𝜃∗)

Vår skattning har standardavvikelsen 𝐷(𝑀∗) = 𝐷(𝑋) =𝜎

√𝑛, vilken beror på 𝜎 (som är okänd!)

Därför skattar vi även variansen 𝜎2 med stickprovsvariansen 𝑠2 och medelfelet blir: 𝑑(𝑀∗) = 𝑑(𝑋) =𝑠

√𝑛

Vill veta medelfel för skattning = standardavvikelse för

skattning. Svårt att ta fram standardavvikelse direkt – kan

bero på okänd parameter (ofta 𝜎). Därför:

Ta fram eller skatta variansen 𝜎2 för skattningen. Använd

𝐷(𝑋) = √𝑉(𝑋) på framtagen varians, så fås medelfelet

Sida 10 av 24

Konfidensintervall

Intervall 𝐼𝜃1−𝛼 = (𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑

∗ , 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ ) där:

o 𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎1(𝑥1,… , 𝑥𝑛)

o 𝜃𝑜𝑏𝑠 , 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎2(𝑥1,… , 𝑥𝑛)

o 𝛼 är sannolikheten för fel

Och sådant att

o 𝑃(𝜃𝑜𝑏𝑠, 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ < 𝜃 < 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑

∗ ) = 1− 𝛼

Kallas ett konfidensintervall för 𝜃 med konfidensgrad 1 − 𝛼

Konstruktion av konfidensintervall

Steg Exempel

Bestäm en lämplig punktskattning 𝜃𝑜𝑏𝑠∗ 𝜃𝑜𝑏𝑠

∗ = �̅�

Ta fram fördelning för motsvarande s.v. 𝜃∗ 𝜃∗ = 𝑋~𝑁 (𝜃,𝜎

√𝑛)

Konstruera en hjälpvariabel som innehåller 𝜃 men inga andra okända parametrar

(Hjälpvariabeln ska ha en känd fördelning)

𝑍 =𝑋 − 𝜃

𝜎/√𝑛 ~𝑁(0,1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

Beräkna gränserna (𝑎 etc.) mha. tabell

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95 ⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975

⇔ Φ(𝑎) = 0.975

⇒ 𝑎 = 1.96

Skriv om intervallet till ett villkor på 𝜃 (isolera 𝜃)

På formen 𝑃(𝑎1(𝑥1,… , 𝑥𝑛) < 𝜃 < 𝑎2(𝑥1,… , 𝑥𝑛))

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)

⇔ 𝑃(−𝑎 ≤𝑋 − 𝜃

𝜎/√𝑛≤ 𝑎)

⇔ 𝑃(𝑋 − 𝑎 ∙𝜎

√𝑛≤ 𝜃 ≤ 𝑋 + 𝑎 ∙

𝜎

√𝑛)

Sätt in observationer och beräkna 𝐼𝜃1−𝛼

𝐼𝜃1−𝛼 = (𝑎1(𝑥1,… , 𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))

⇔ 𝐼𝜃1−𝛼 = (�̅� ∓ 1.96

𝜎

√𝑛)

Ensidigt konfidensintervall, simultan konfidensgrad

Sida 11 av 24

χ2-fördelning

Förutsättningar Resultat

𝑋~𝜒2(𝑓) 𝐸(𝑋) = 𝑓

𝑋~𝜒2(𝑓1) 𝑌~𝜒2(𝑓2)

𝑋 och 𝑌 oberoende

𝑋 + 𝑌~𝜒2(𝑓1 +𝑓2)

𝑋1,… , 𝑋𝑛 oberoende

𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)

1

𝜎2∑(𝑋𝑖− 𝜇)

2

𝑛

𝑖=1

~𝜒2(𝑛)

(𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝑋 och 𝑆2 är oberoende s.v.

t-fördelning

Förutsättningar Resultat

𝑋~𝑡(𝑓) 𝑡(𝑓)-fördelning konvergerar mot

𝑁(0,1)-fördelning då 𝑓 → ∞

Gossets sats

𝑋~𝑁(0,1) 𝑌~𝜒2(𝑓)

𝑋 och 𝑌 oberoende

𝑋

√𝑌/𝑓 ~𝑡(𝑓)

𝑋1,… , 𝑋𝑛 oberoende

𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)

𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1)

(𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

Gossets sats ger nu

𝑋 − 𝜇

𝑆/√𝑛= ⋯ =

(𝑋 − 𝜇)/(𝜎/√𝑛)

√(𝑛 − 1)𝑆2

𝜎2/(𝑛− 1)

~𝑡(𝑛− 1)

Konfidensintervall för 𝝁

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝈 känd / okänd 𝜎 känd 𝜎 okänd

Hjälpvariabel 𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1)

𝑋 − 𝜇

𝑆/√𝑛~𝑡(𝑛 − 1)

Sida 12 av 24

Konfidensintervall för 𝝈 eller 𝝈𝟐

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

𝝁 känt / okänt 𝜇 känt 𝜇 okänt

Hjälpvariabel 1

𝜎2∑(𝑋𝑖 −𝜇)

2

𝑛

𝑖=1

~𝜒2(𝑛) (𝑛 − 1)𝑆2

𝜎2~𝜒2(𝑛 − 1)

Vid stickprov från två normalfördelningar där 𝜎1 = 𝜎2 = 𝜎 men 𝜎 är okänd:

𝑠2 =(𝑛1 −1)𝑠1

2 + (𝑛2 −1)𝑠22

(𝑛1 − 1) + (𝑛2 −1)

𝑠 kallas ”pooled standard deviation”

𝑠2 är den bästa skattningen av 𝜎2

Om man har två (eller flera stickprov) från normalfördelningar med samma 𝜎, använder man den sammanvägda

𝜎2-skattningen för samtliga stickprov även om man t.ex. bara ska konstruera 𝐼µ1

Parvisa mätningar

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)

Steg Exempel

𝑥𝑖 mätvärden

𝑦𝑖 mätvärden

𝑋𝑖~𝑁(𝜇𝑖 ,𝜎1)

𝑌𝑖~𝑁(𝜇𝑖+∆,𝜎2)

Bilda differenser 𝑑𝑖

T.ex. före vs. efter

𝑑𝑖 = 𝑦𝑖 − 𝑥𝑖

𝐷𝑖 = 𝑌𝑖− 𝑋𝑖~𝑁(∆,𝜎)

Skatta ∆ med ∆∗ ∆∗= 𝑑 ̅

Skatta 𝜎2 med 𝑠2 𝑠2 =1

𝑛 − 1∑(𝑑𝑖−𝑑̅)

2𝑛

𝑖=1

Hjälpvariabel

(𝜎 okänd) 𝑍 =

�̅� − ∆

𝑆/√𝑛~𝑡(𝑛 − 1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

Beräkna gränserna (𝑎 etc.) mha. tabell 𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95

⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975

Skriv om intervallet till ett villkor på ∆ (isolera ∆)

På formen 𝑃(𝑎1(𝑑1,… , 𝑑𝑛) ≤ ∆≤ 𝑎2(𝑑1, … , 𝑑𝑛))

𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)

⇔ 𝑃(−𝑎 ≤𝐷 − ∆

𝑆/√𝑛≤ 𝑎)

⇔ 𝑃(�̅� − 𝑎 ∙𝑆

√𝑛≤ ∆≤ �̅� + 𝑎 ∙

𝑆

√𝑛)

Sätt in observationer och beräkna 𝐼∆1−𝛼

𝑠 = √𝑠2 , där 𝑠, 𝑠2 är obs. av 𝑆 respektive 𝑆2

𝐼∆1−𝛼 = (𝑎1(𝑥1,… ,𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))

⇔ 𝐼∆1−𝛼 = (𝑑̅ ∓ 2.23

𝑠

√𝑛)

Dra slutsatser om ∆ (och därigenom 𝜇1 och 𝜇2) utifrån 𝐼∆ 𝐼∆ = (4.9, 15.6), dvs. med stor sannolikhet

gäller att ∆ > 0 ⇒ 𝜇𝑖 < 𝜇𝑖 +∆ ⇔ 𝜇1 < 𝜇2

Sida 13 av 24

Modellering av parvisa skillnader

Givet att mätserierna är lika långa och man vill undersöka om det finns en systematisk skillnad

Om mätningarna hänger ihop parvis

o ⇒ bilda differenser

o Minskar variansen för den skattningsvariabel som beskriver den systematiska skillnaden

Om mätserierna är helt frikopplade från varandra (dvs. oberoende)

o ⇒ bilda 𝐼𝜇1−𝜇2

Konfidensintervall vid två stickprov

𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇1,𝜎1)

𝑦1, … , 𝑦𝑛 är observationer av oberoende s.v. 𝑌1,… , 𝑌𝑛 , där 𝑌𝑖~𝑁(𝜇2, 𝜎2)

Båda stickprov är helt frikopplade från varandra (dvs. oberoende)

Vill undersöka om 𝜇1 = 𝜇2 eller 𝜇1 ≠ 𝜇2 ⇒ konstruera konfidensintervall för 𝜇1 − 𝜇2

𝝈𝟏 och 𝝈𝟐 𝝈𝟏 = 𝝈𝟐 eller

𝝈𝟏 ≠ 𝝈𝟐? Hjälpvariabel Övrigt

Kända 𝜎1 ≠ 𝜎2

𝑋 −𝑌 − (𝜇1 − 𝜇2)

√𝜎12

𝑛1+𝜎22

𝑛2

~𝑁(0,1)

Vanlig linjärkombination

Okända 𝜎1 = 𝜎2 = 𝜎

(𝑛1 +𝑛2 − 2)𝑆2

𝜎2~ χ2(𝑛1 +𝑛2 − 2)

OBS: För 𝐼𝜎 och 𝐼𝜎2

Via sammanvägd 𝜎2-skattning

Okända 𝜎1 = 𝜎2 = 𝜎

𝑋 − 𝑌 − (𝜇1 −𝜇2)

𝑆√1𝑛1+1𝑛2

~𝑡(𝑛1 +𝑛2 − 2)

Frihetsgrader från ovan, för 𝜎

Okända 𝜎1 = 𝜎2 = 𝜎

𝑐1𝑋 − 𝑐2�̅� − (𝑐1𝜇1 − 𝑐2𝜇2)

𝑆√𝑐12

𝑛1+𝑐22

𝑛2

~𝑡(𝑛1 + 𝑛2 − 2)

OBS: För 𝐼𝑐1𝜇1+𝑐2𝜇2

Generalisering av ovan

Okända 𝜎1 ≠ 𝜎2

𝑋 −𝑌 − (𝜇1− 𝜇2)

√𝑆12

𝑛1+𝑆22

𝑛2

≈ 𝑡(𝑣) 𝑣 =(𝑆12

𝑛1+𝑆22

𝑛2)2

(𝑆12/𝑛1)

2

𝑛1 −1+(𝑆22/𝑛2)

2 𝑛2−1

Kallas Welch-Aspins metod

Sida 14 av 24

F-fördelning

Förutsättningar Resultat

𝑌1 och 𝑌2 oberoende

𝑌1~𝜒2(𝑟1)

𝑌2~𝜒2(𝑟2)

𝑍 =𝑌1/𝑟1𝑌2/𝑟2

~ 𝐹(𝑟1, 𝑟2)

Jämförelse av varianser

𝜎12 och 𝜎2

2 okända

𝜎12 och 𝜎2

2 är inte nödvändigtvis lika (detta ska undersökas)

Steg Exempel

Ta fram variansskattningar

(𝑛1 −1)𝑆12

𝜎12

~ 𝜒2(𝑛1 −1)

(𝑛2 −1)𝑆22

𝜎22

~ 𝜒2(𝑛2 − 1)

Använd sats om F-fördelning 𝑍 =𝑌1/(𝑛1 −1)

𝑌2/(𝑛2 −1) ~ 𝐹(𝑛1 −1, 𝑛2 − 1)

Hjälpvariabeln blir därmed 𝑆12/𝜎1

2

𝑆22/𝜎2

2 ~ 𝐹(𝑛1 − 1, 𝑛2 −1)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

𝑃(𝑎 < 𝑍 < 𝑏) = 0.95

Beräkna gränserna (𝑎, 𝑏 etc.) mha. tabell 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

Skriv om intervallet till ett villkor på 𝜎1/𝜎2 (isolera 𝜎1/𝜎2)

På formen 𝑃(𝑎1(𝑠1,… , 𝑥𝑛) < 𝜎1/𝜎2 < 𝑎2(𝑠1, … , 𝑥𝑛))

𝑃(−𝑎 < 𝑍 < 𝑎)

⇔ 𝑃(𝑎 <𝑆12/𝜎1

2

𝑆22/𝜎2

2< 𝑏)

⇔ 𝑃(𝑎 ∙𝜎12

𝜎22≤𝜎12

𝜎22≤ 𝑏 ∙

𝜎12

𝜎22)

Sätt in observationer och beräkna 𝐼𝜎1 /𝜎21−𝛼

𝐼𝜎1/𝜎21−𝛼

= (𝑎1(𝑠1,… , 𝑥𝑛),𝑎2(𝑠1, … , 𝑥𝑛))

⇔ 𝐼𝜎1 /𝜎21−𝛼 = (𝑎 ∙

𝑠12

𝑠22, 𝑏 ∙

𝑠12

𝑠22)

Dra slutsatser om 𝜎1

𝜎2 (och därigenom 𝜎1och 𝜎2) utifrån 𝐼𝜎1/𝜎2

𝐼𝜎1 /𝜎2 =(0.09, 1.91)

OBS: 1 ∈ 𝐼𝜎1 /𝜎2 , dvs. går inte att utesluta att 𝜎1

𝜎2= 1 ⇔ 𝜎1 kan vara lika med 𝜎2

Sida 15 av 24

Normalapproximation

Vid observationer från andra fördelningar än normalfördelning

Skattningsvariabel 𝜃∗ ≈ 𝑁(𝜃, 𝐷)

Hjälpvariabel:

{

𝜃∗ − 𝜃

𝐷≈ 𝑁(0,1), 𝐷 känd

𝜃∗ − 𝜃

𝐷∗≈ 𝑁(0,1), 𝐷 okänd

Binomialfördelning – konfidensintervall för 𝒑

Steg Exempel

Ta fram s.v. och observation 𝑥 = 37 är en observation från 𝑋~𝐵𝑖𝑛(1015,𝑝)

Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗

𝑝∗ =𝑋

𝑛

𝑝𝑜𝑏𝑠∗ =

𝑥

𝑛=

37

1015= 0.036

Vill ta fram hjälpvariabel

Börja med att hitta en fördelning för 𝑋

Använd normalapproximation ty 1015 ej

med i binomialtabell

𝑋~𝐵𝑖𝑛(1015,𝑝) ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))

eftersom 𝑛 ∙ 𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ ) > 10

Kan nu ta fram (approximativ) fördelning för 𝑝∗

𝐸(𝑝∗) = 𝐸 (𝑋

𝑛) =

1

𝑛𝐸(𝑋) =

1

𝑛∙ 𝑛𝑝 = 𝑝

𝑉(𝑝∗) = 𝑉 (𝑋

𝑛) =

1

𝑛2𝑉(𝑋) =

1

𝑛2∙ 𝑛𝑝(1 − 𝑝) =

𝑝(1 − 𝑝)

𝑛

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝,√

𝑝(1 − 𝑝)

𝑛)

Standardisera 𝑝∗ så fås en hjälpvariabel för 𝑝 𝑝∗ ≈ 𝑁(𝑝,√𝑝(1 − 𝑝)

𝑛) ⇔

𝑝∗ −𝑝

√𝑝(1 − 𝑝)𝑛

≈ 𝑁(0,1)

Okända parametrar i nämnare på

hjälpvariabel, vilket blir krångligt

Bilda ny hjälpvariabel:

𝑍 =𝑝∗ −𝑝

√𝑝∗(1− 𝑝∗)𝑛

≈ 𝑁(0,1)

eftersom 𝑝∗ är en konsistent skattning av 𝑝

Stäng in hjälpvariabeln i ett intervall med

sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑝∗(1 − 𝑝∗)𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√

𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ )

𝑛)

Sida 16 av 24

Binomialfördelning – konfidensintervall för 𝒑𝟏− 𝒑𝟐

Steg Exempel

Punktskattning 𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠

∗ =𝑥1

𝑛1−

𝑥2

𝑛2

Ta fram motsvarande s.v. 𝑝1∗ och 𝑝2

∗ är ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))

eftersom 𝑛𝑖 ∙ 𝑝𝑖,𝑜𝑏𝑠∗ (1 − 𝑝𝑖,𝑜𝑏𝑠

∗ ) > 10

Då gäller att 𝑝1∗ −𝑝2

∗ ≈ 𝑁(𝜇, 𝜎)

Sök 𝜇 𝐸(𝑝1

∗− 𝑝2∗) = 𝐸 (

𝑋1𝑛1−𝑋2𝑛2) =

𝐸(𝑋1)

𝑛1−𝐸(𝑋2)

𝑛2

=𝑛1𝑝1𝑛1

−𝑛2𝑝2𝑛2

= 𝑝1 − 𝑝2

Sök 𝜎

𝑉(𝑝1∗ − 𝑝2

∗) = 𝑉 (𝑋1𝑛1−𝑋2𝑛2) =

𝑉(𝑋1)

𝑛12

−𝑉(𝑋2)

𝑛22

=𝑛1𝑝1(1 − 𝑝1)

𝑛12

−𝑛2𝑝2(1 − 𝑝2)

𝑛22

=𝑝1(1 − 𝑝1)

𝑛1−𝑝2(1 − 𝑝2)

𝑛2

Sammanfattningsvis 𝑝1∗ −𝑝2

∗ ≈ 𝑁(𝑝1 − 𝑝2, √𝑝1(1 − 𝑝1)

𝑛1−𝑝2(1 − 𝑝2)

𝑛2)

Standardisering ger

𝑍 =𝑝1∗− 𝑝2

∗ − (𝑝1 − 𝑝2)

√𝑝1∗(1− 𝑝1

∗)𝑛1

−𝑝2∗(1 − 𝑝2

∗)𝑛2

≈ 𝑁(0,1)

eftersom 𝑝𝑖∗ är konsistenta skattningar av 𝑝𝑖

Stäng in hjälpvariabeln i ett

intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna

mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑝∗(1 − 𝑝∗)𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝1−𝑝2 = (𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠

∗ ∓ 1.96√𝑝1∗(1 − 𝑝1

∗)

𝑛1−𝑝2∗(1 − 𝑝2

∗)

𝑛2)

Dra slutsatser om 𝑝1 − 𝑝2 utifrån 𝐼𝑝1−𝑝2

𝐼𝜎1 /𝜎2 = (−0.0414,0.0014)

OBS: Om 0 ∈ 𝐼𝑝1−𝑝2, dvs. går inte att utesluta att 𝑝1 − 𝑝2 = 0

⇔ 𝑝2 kan vara lika med 𝑝1

Sida 17 av 24

Normalapproximation via centrala gränsvärdessatsen

𝑥1,… , 𝑥𝑛 är observationer av oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛

𝑋1,… , 𝑋𝑛 är inte normalfördelade men har 𝐸(𝑋𝑖) = 𝜇 och 𝑉(𝑋𝑖) = 𝜎2

Steg Exempel

Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�

Ta fram motsvarande s.v. 𝜇∗ = 𝑋 =1

𝑛∑ 𝑋𝑖𝑛𝑖=1

Enligt CGS 𝑋 ≈ 𝑁 (𝜇,𝜎

√𝑛) om 𝑛 ≥ 30

Hjälpvariabel

𝑋 − 𝜇

𝜎/√𝑛≈ 𝑁(0,1) om 𝜎 är känd

Annars ersätts 𝜎 med lämplig skattningsvariabel 𝜎 ∗

Exempelvis 𝜎 ∗ = 𝑆 men inte alltid (beror på fördelning för 𝑋𝑖)

Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝜇 och beräkna gränserna mha. tabell

Ersätt med observationer

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃(−𝑎 <𝑋 − 𝜇

𝜎 ∗/√𝑛< 𝑎) = 0.95

⇔ 𝐼𝜇 = (�̅� ∓ 𝑎 ∙𝜎∗

√𝑛)

Exempel – Användning av CGS

Steg Exempel

𝑥1,… , 𝑥𝑛1 obs. från 𝑋𝑖~𝐸𝑥𝑝(𝜇1)

𝑦1, … , 𝑦𝑛2 obs. från 𝑌𝑖~𝐸𝑥𝑝(𝜇2)

Punktskattningar 𝜇1,𝑜𝑏𝑠∗ = �̅� och 𝜇2,𝑜𝑏𝑠

∗ = �̅�

Ta fram motsvarande s.v. 𝜇1∗ = 𝑋 och 𝜇2

∗ = 𝑌

Enligt CGS 𝑋 ≈ 𝑁 (𝜇1,𝜇1

√𝑛1) och �̅� ≈ 𝑁 (𝜇2,

𝜇2

√𝑛2) ty 𝑛𝑖 ≥ 30

Hjälpvariabel

𝑋 −𝑌 − (𝜇1− 𝜇2)

√𝜇1∗

𝑛1+𝜇2∗

𝑛2

≈ 𝑁(0,1) ty kända standardavvikelser

Kan ej isolera 𝜇1 −𝜇2 ty kvadrat i nämnaren

Approximera mha.

𝜇1∗ = 𝑋 och 𝜇2

∗ = 𝑌 (OK eftersom de är konsistenta

skattningar av 𝜇1 respektive 𝜇2)

Stäng in hjälpvariabeln

Isolera 𝜇1 − 𝜇2 och beräkna gränserna mha. tabell

𝑋 − 𝑌 − (𝜇1 −𝜇2)

√𝑋2

𝑛1+𝑌2

𝑛2

≈ 𝑁(0,1)

⇔⋯⇔ 𝐼𝜇1−𝜇2 = (𝜇1 − 𝜇2 ∓ 𝑎 ∙ √𝑋2

𝑛1+𝑌2

𝑛2)

Ersätt med observationer från punktskattningar

Detta ger intervallet:

⇔ 𝐼𝜇1−𝜇2 = (�̅� − �̅� ∓ 1.96 ∙ √�̅�2

𝑛1+�̅�2

𝑛2)

Sida 18 av 24

Hypergeometrisk fördelning – konfidensintervall för 𝒑

Steg Exempel

Ta fram s.v. och observation 𝑥 är en observation från 𝑋~𝐻𝑦𝑝(𝑁,𝑛, 𝑝)

Ta fram approximation (via tabell) 𝑋~𝐻𝑦𝑝(𝑁. 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛

𝑁− 1𝑛𝑝(1− 𝑝))

Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗

𝑝∗ =𝑋

𝑛

𝑝𝑜𝑏𝑠∗ =

𝑥

𝑛

Vill ta fram hjälpvariabel

Börja med att hitta en fördelning

för 𝑋

Använd normalapproximation

𝑋~𝐻𝑦𝑝(𝑁, 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛

𝑁− 1𝑛𝑝(1− 𝑝))

eftersom 𝑁−𝑛

𝑁−1𝑛𝑝(1 − 𝑝) ≥ 10

Kan nu ta fram (approximativ) fördelning

för 𝑝∗

𝐸(𝑝∗) = 𝐸 (𝑋

𝑛) =

1

𝑛𝐸(𝑋) =

1

𝑛∙ 𝑛𝑝 = 𝑝

𝑉(𝑝∗) = 𝑉 (𝑋

𝑛) =

1

𝑛2𝑉(𝑋) =

1

𝑛2∙𝑁 − 𝑛

𝑁 − 1𝑛𝑝(1 − 𝑝)

=𝑁 − 𝑛

𝑁 − 1∙𝑝(1 − 𝑝)

𝑛

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝,√

𝑁 − 𝑛

𝑁 − 1∙𝑝(1 − 𝑝)

𝑛)

Standardisera 𝑝∗ så fås en hjälpvariabel

för 𝑝 𝑝∗ ≈ 𝑁 (𝑝, √

𝑁 − 𝑛

𝑁 −1∙𝑝(1 − 𝑝)

𝑛) ⇔

𝑝∗ − 𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝(1 − 𝑝)

𝑛

≈ 𝑁(0,1)

Okända parametrar i nämnare på

hjälpvariabel, vilket blir krångligt

Bilda ny hjälpvariabel:

𝑍 =𝑝∗ −𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝∗(1 − 𝑝∗)

𝑛

≈ 𝑁(0,1)

eftersom 𝑝∗ är en konsistent skattning av 𝑝

Stäng in hjälpvariabeln i ett

intervall med sannolikhetsmassa 1 − 𝛼

Isolera 𝑝 och beräkna gränserna

mha. tabell

Ersätt med observationer

Detta ger intervallet:

𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95

⇔ 𝑃

(

−𝑎 <𝑝∗ − 𝑝

√𝑁 − 𝑛𝑁 − 1

∙𝑝∗(1− 𝑝∗)

𝑛

< 𝑎

)

= 0.95

⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√

𝑁 − 𝑛

𝑁 − 1∙𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠

∗ )

𝑛)

Sida 19 av 24

Hypotesprövning

Observationer 𝑥1,… , 𝑥𝑛 av oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛 (ibland är 𝑛 = 1)

Beteckning Betydelse Exempel

𝐻0

Nollhypotes

Påstående om att parametern 𝜃 har ett bestämt värde 𝜃0

I regel det man tror är falskt

𝐻𝑜: 𝜃 = 𝜃0

𝐻1

Mothypotes

Påstående om att parametern 𝜃 har ett annat värde än 𝜃0

I regel det man vill visa

𝐻1: 𝜃 > 𝜃0 eller 𝜃 < 𝜃0

𝑡(𝑥1,… , 𝑥𝑛) Teststorhet (TS) – observation från s.v.

”Teststorhetens s.v. då 𝐻0 är sann” 𝑧 =

�̅� − 𝜇0

𝜎/√𝑛 𝑑å 𝐻0 är sann

𝑇(𝑥1,… , 𝑥𝑛) Teststorhetens s.v. 𝑍 =𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann

𝐶 = [𝑎,𝑏]

Kritiskt område (C)

𝐻0 förkastas om 𝑡(𝑥1,… , 𝑥𝑛) ∈ 𝐶

𝐻0 förkastas ej om 𝑡(𝑥1,… , 𝑥𝑛) ∉ 𝐶

𝐶 = 𝐼𝜃 = [𝑎,∞[

𝛼

Signifikansnivå

𝛼 = 𝑃(𝐻0 förkastas om 𝐻0 är sann) ⇔

𝛼 = 𝑃(𝑡(𝑋1, … , 𝑋𝑛) ∈ 𝐶 om 𝐻0 är sann)

𝛼 = 5%

Styrka för ett värde 𝜃1 (i 𝐻1)

𝑃(𝐻0 förkastas om 𝜃1 ärdet sanna värdet) ⇔

𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃1 är detsanna värdet)

Styrka = 81%

ℎ(𝜃)

Styrkefunktion

𝑃(𝐻0 förkastas om 𝜃 ärdet sanna värdet) ⇔

𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃 ärdet sanna värdet)

Styrkefunktionen ska vara stor för 𝑝-värden som tillhör mothypotes

ℎ(𝜃) = ∑(10

𝑘) 𝜃𝑘(1− 𝜃)10−𝑘

10

𝑘=6

Fel av typ I Att förkasta 𝐻0 då den är sann

Signifikansnivå 𝛼 = risk för fel av typ I

Fel av typ II Att inte förkasta 𝐻0 då den är falsk

P-värde

P är sannolikheten (då 𝐻0 är sann) att få ett minst lika extremt värde på TS som det man har observerat.

Lågt P-värde tyder på stor avvikelse från 𝐻0

𝐻0 förkastas ⇔ 𝑃 < 𝛼

En- och tvåsidiga test

Fall Kriterium Metod

𝐻1: 𝜃 > 𝜃0

eller 𝜃 < 𝜃0

𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) > 𝑎

respektive 𝑡(𝑋1,… , 𝑋𝑛) < 𝑎

Nedåt/uppåt begränsat konfidensintervall för 𝜃

𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃

Konfidensgrad = 1 − 𝛼

𝐻1: 𝜃 ≠ 𝜃0 𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1

eller 𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2

𝛼

2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1 𝑜𝑚 𝜃 = 𝜃0)

𝛼

2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2 𝑜𝑚 𝜃 = 𝜃0)

Gör tvåsidigt konfidensintervall för 𝜃

𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃

Sida 20 av 24

Slutsatser från konfidensmetoden

Teststorhet Beslut Betydelse

𝑡 ∈ 𝐶 𝐻0 förkastas (till förmån för 𝐻1)

”Långt borta”, ”Osannolikt”

Har funnit en signifikant avvikelse från 𝐻0

Avvikelsen är på nivån 𝛼

Med felrisk ≤ 𝛼 så gäller 𝐻1

𝑡 ∉ 𝐶 𝐻0 förkastas ej

Inte tillräckligt ”långt borta” eller ”osannolikt”

Ingen signifikant avvikelse från 𝐻0

Sett till nivån 𝛼

𝐻0 kan vara sann (eller falsk)

Hypotesprövning utan normalapproximation

Steg Exempel

Observationer

Hypoteser

Signifikansnivå

𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)

𝐻0: 𝑝 = 0.3, 𝐻1: 𝑝 > 0.3

𝛼 = 5%

Ta fram observation av 𝑝 𝑝𝑜𝑏𝑠∗ =

𝑥

10=7

10= 0.7

Välj teststorhet 𝑡(𝑋): 𝑥

Ställ upp uttryck för att se om 𝑡(𝑋) > 𝑎 (⇒ förkasta 𝐻0)

𝑃(𝑋 ≥ 𝑎 om 𝐻0 är sann) ≤ 0.05

𝑃(𝑋 ≥ 𝑎 om 𝑝 = 0.3) ≤ 0.05

Beräkna tröskelvärdet 𝑎 𝐵𝑖𝑛(10,0.3) ger

𝑃(𝑋 ≥ 6) = 𝑃(𝑋 = 10) + ⋯+ 𝑃(𝑋 = 6) = 0.0473 ≤ 0.05

Jämför tröskelvärde med teststorhet

Tolka resultat

𝑥 = 7 > 6 = 𝑎 ⇒ 𝐻0 förkastas

Med felrisk 4.73% ≤ 5% kan vi påstå att 𝐻1:𝑝 > 0.3 gäller

Jämförelse mellan 𝑪-metoden och 𝒑-metoden

𝑪-metoden 𝒑-metoden

Anta att 𝐻0 är sann:

Detta leder till en given fördelning för teststorheten 𝑋

Anta att vi får resultatet (observationen) 𝑥

Är sannolikheten att vi fick detta resultat tillräckligt liten?

Beräkna 𝛼: 𝑃(𝑋 ≥ 𝑎) = 𝛼 eller 𝑃(𝑋 ≤ 𝑎) = 𝛼

(där vi söker 𝑎 så att sannolikheten blir 𝛼)

Beräkna 𝑝-värdet:

𝑝 = 𝑃(𝑋 ≤ 𝑥) eller 𝑝 = 𝑃(𝑋 ≥ 𝑥)

Om 𝒙 ≤ 𝒂 eller 𝒙 ≥ 𝒂:

Resultatet är osannolikt under 𝐻0

Detta är signifikant ⇒ 𝐻0 kan förkastas

Om 𝒑 ≤ 𝜶 eller 𝒑 ≥ 𝜶 :

Resultatet är osannolikt under 𝐻0

Detta är signifikant ⇒ 𝐻0 kan förkastas

Annars:

Resultatet är ej tillräckligt osannolikt under 𝐻0

Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas

Annars:

Resultatet är ej tillräckligt osannolikt under 𝐻0

Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas

Sida 21 av 24

Hypotesprövning med normalapproximation

Steg Exempel

Observationer

Hypoteser

Signifikansnivå

𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)

𝐻0: 𝑝 = 𝑝0, 𝐻1: 𝑝 ≠ 𝑝0

𝛼 = 5%

Ta fram fördelning för 𝑋 (under 𝐻0)

𝑋~𝐵𝑖𝑛(𝑛, 𝑝0) ≈ 𝑁 (𝑛𝑝0 , √𝑛𝑝0(1 − 𝑝0))

⇒ 𝑝∗ =𝑋

𝑛≈ 𝑁(𝑝0,√

𝑝0(1− 𝑝0)

𝑛)

Bilda hjälpvariabel 𝑍

Välj teststorhet 𝑧

𝑍 =𝑝∗ − 𝑝

0

√𝑝0(1 − 𝑝0)/𝑛≈ 𝑁(0,1), då 𝐻0 är sann

𝑡: 𝑧 =𝑝𝑜𝑏𝑠∗ −𝑝

0

√𝑝0(1 − 𝑝0)/𝑛

Ställ upp uttryck för att se om |𝑝∗| stor (⇒ förkasta 𝐻0)

|𝑝∗| stor ⇒ |𝑧| stor ⇒ testa 𝑧

𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼 = 0.05

𝑃(|𝑍| > 𝑎 om 𝑝 = 𝑝0) ≤ 0.05

Beräkna tröskelvärdet 𝑎

𝑁(0,1) ger

𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.05 ⇒

𝑎 = 1.96

Jämför tröskelvärde med teststorhet

Tolka resultat

𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas

Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller

Normalapproximation - allmänt

En eller flera stickprov ger en punktskattning 𝜃𝑜𝑏𝑠∗

Tillhörande s.v. 𝜃∗ ≈ 𝑁(𝜃, 𝐷)

Vill pröva 𝐻0: 𝜃 = 𝜃0

Bilda hjälpvariabel och teststorhet:

o Teststorheten är i princip hjälpvariabeln för 𝐼𝜃 fast med villkoret att 𝐻0 är sant

𝑍 = {

𝜃∗ − 𝜃

𝐷≈ 𝑁(0,1), 𝐷 känd

𝜃∗ −𝜃

𝐷∗≈ 𝑁(0,1), 𝐷 okänd

𝑧 = {

𝜃𝑜𝑏𝑠∗ −𝜃

𝐷≈ 𝑁(0,1), om 𝐷 känd då 𝐻0 är sann

𝜃𝑜𝑏𝑠∗ − 𝜃

𝑑≈ 𝑁(0,1), om 𝐷 okänd

där 𝑑 är en skattning av 𝐷 som gäller då 𝐻0 är sann

Ensidigt eller tvåsidigt test beror på hur mothypotesen ser ut

Sida 22 av 24

Hypotesprövning vid ett stickprov – 𝝈 känd

Steg Exempel

Observationer

S.v.

𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛

𝑋𝑖 = 𝜇 + 𝜀𝑖 och 𝜀𝑖~𝑁(0,𝜎)

Hypoteser 𝐻0: 𝜇 = 𝜇0 mot 𝐻1: 𝜇 ≠ 𝜇0

Signifikansnivå 𝛼

Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�

Tillhörande s.v.

𝜇∗ = 𝑋~𝑁 (𝜇,𝜎

√𝑛)

𝜇∗ = 𝑋~𝑁 (𝜇0,𝜎

√𝑛) då 𝐻0 är sann (ty H0 ⇒ 𝜇 = 𝜇0)

Bilda hjälpvariabel 𝑍

Bilda därefter teststorhet 𝑧

(𝑍 under villkoret att 𝐻0 är sant)

𝑍 =𝑋 − 𝜇

𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann

𝑧 =�̅� − 𝜇0

𝜎/√𝑛 observation från 𝑍~𝑁(0,1) om 𝐻0 är sann

Ställ upp uttryck för att se om 𝜇𝑜𝑏𝑠∗ avviker

⇔ |𝜇𝑜𝑏𝑠∗ | stor ⇔ |�̅�| stor ⇒ |𝑧| stor

⇒ testa 𝑧

𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼

Tvåsidigt med 𝛼

2 på vardera sida pga. 𝐻1: 𝜇 ≠ 𝜇0

Beräkna tröskelvärdet 𝑎 𝑁(0,1) ger 𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) =𝛼

2 ⇒ 𝑎 = 𝜆𝛼/2

Jämför tröskelvärde med teststorhet 𝑧

Tolka resultat

Om 𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas

Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller

Ekvivalent: risken att teststorhet av slump hamnar i kritiska

området |𝑍|> 𝑎 är lika med 𝛼

Hypotesprövning vid ett stickprov – 𝝈 okänd

Bilda hjälpvariabel 𝑍

Bilda därefter teststorhet 𝑧

(𝑍 under villkoret att 𝐻0 är sant)

𝑇 =𝑋 − 𝜇

𝑆/√𝑛~𝑡(𝑛 − 1) då 𝐻0 är sann

𝑡 =�̅� − 𝜇0

𝑠/√𝑛 observation från 𝑇~𝑡(𝑛− 1) om 𝐻0 är sann

Hypotesprövning vid ett stickprov – 𝑯𝟎 :𝝈𝟐 = 𝝈𝟎

𝟐

Bilda hjälpvariabel 𝑆2

Bilda därefter teststorhet 𝑠2

𝑆2 =1

𝑛 − 1∑(𝑋𝑖− �̅�)

2𝑛

𝑖=1

𝑠2 =1

𝑛 − 1∑(𝑥𝑖− �̅�)2𝑛

𝑖=1

Antag att 𝐻1: 𝜎2 > 𝜎0

2

Förkasta 𝐻0 då 𝑠2 > 𝑐

Bestäm 𝑐 mha. följande:

{

𝛼 = 𝑃(𝑆2 > 𝑐 om 𝐻0 är sann)

(𝑛 − 1)𝑆2

𝜎02 ~𝜒2(𝑛− 1) om 𝐻0 är sann

𝛼 = 𝑃((𝑛 − 1)𝑆2

𝜎02 >

(𝑛 − 1)c

𝜎02 om 𝐻0 är sann)

Sida 23 av 24

Hypotesprövning vid flera stickprov – 𝝁𝒊

Steg Exempel

Observationer

S.v.

𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋𝑖~𝑁(𝜇1,𝜎1)

𝑦1, … , 𝑦𝑛 från oberoende och likafördelade s.v. 𝑌𝑖~𝑁(𝜇2, 𝜎2)

Hypoteser 𝐻0: 𝜇1 = 𝜇2 ⇔ 𝜇1 −𝜇2 = 0

𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2

Konfidensintervall-metoden

Konstruera konfidensintervall för 𝜇1 − 𝜇2

Förkasta 𝐻0 om 0 ∉ 𝐼𝜇1−𝜇2

{𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2𝐻1: 𝜇1 ≠ 𝜇2

⇒ {Ensidigt intervall

Tvåsidigt intervall

Vid flera stickprov ⇒ jämför konfidensintervall

Teststorhet-metoden

Teststorhet: 𝑇 =𝑋 − 𝑌

𝑆√1𝑛1+1𝑛2

~𝑡(𝑛1 + 𝑛2 −2) under 𝐻0

Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)

Hypotesprövning vid flera stickprov – 𝝈𝒊

Steg Exempel

Hypoteser 𝐻0: 𝜎12 = 𝜎1

2 = 𝜎2 (alternativt 𝜎1 = 𝜎2 = 𝜎)

𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2

Bilda hjälpvariabel 𝑉

Bilda därefter teststorhet 𝑣

(𝑉 under villkoret att 𝐻0 är sant)

𝑉 =

(𝑛1−1)𝑆12

𝜎12 /(𝑛1 − 1)

(𝑛2 −1)𝑆22

𝜎12 /(𝑛2 − 1)

~𝐹(𝑛1− 1,𝑛2 −1) då 𝐻0 är sann

𝑣 =𝑠12

𝑠22 obs. från 𝑉~𝐹(𝑛1− 1, 𝑛2− 1) om 𝐻0 är sann

Ensidigt eller tvåsidigt test {𝐻1: 𝜎1

2 > 𝜎22 eller 𝐻1: 𝜎1

2 < 𝜎22

𝐻1: 𝜎12 ≠ 𝜎1

2 ⇒ {

Ensidigt intervall

Tvåsidigt intervall

Jämför tröskelvärde 𝑐 med teststorhet Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)

Sida 24 av 24

Stokastiska vektorer

Väntevärde Varians

𝐸[𝑋+ 𝑌] = 𝐸[𝑋] + 𝐸[𝑌] 𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 2 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑉(𝑌)

𝐸[𝑎𝑋 + 𝑏𝑌 + 𝑐] = 𝑎 ∙ 𝐸[𝑋] + 𝑏 ∙ 𝐸[𝑌] + 𝑐 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌)

𝐸[𝑋 ∙ 𝑌] = 𝐸[𝑋] ∙ 𝐸[𝑌] om Χ och Y är

oberoende

𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) om Χ och Y är oberoende

Kovarians Korrelation

𝐶𝑜𝑣(𝛸, 𝑌) = 𝐸[𝛸 ∙ 𝑌] − 𝐸[𝛸] ∙ 𝐸[𝑌] 𝜌(𝛸, 𝑌) =𝐶𝑜𝑣(𝛸, 𝑌)

𝐷(𝑋) ∙ 𝐷(𝑌)=

𝐶𝑜𝑣(𝛸, 𝑌)

√𝑉(𝛸) ∙ 𝑉(𝑌)

𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉(𝑋) Mått på linjärt beroende mellan 𝛸 och 𝑌

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌,𝑋) −1 ≤ 𝜌 ≤ 1 gäller alltid!

𝐶𝑜𝑣(𝑎𝑋,𝑏𝑌) = 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) Tänk ”𝑋 är −100% respektive 100% beroende av 𝑌”

𝐶𝑜𝑣(𝑋, 𝑌) = 0 om Χ och Y är oberoende 𝛸 och 𝑌 är oberoende ⟹ 𝐶𝑜𝑣(𝑋,𝑌) = 0 ⟹

𝛸 och 𝑌 är okorrelerade ⟹ 𝜌(𝛸, 𝑌) = 0

Flerdimensionell normalfördelning

Kovariansmatris

Tänk 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌) o Fast generaliserat till tre eller fler dimensioner i form av X, Y, Z,…

Därav matrisform

𝑪𝑿 = (𝐶(𝑋, 𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)

𝐶(𝑌, 𝑋) 𝐶(𝑌,𝑌) 𝐶(𝑌, 𝑍)

𝐶(𝑍, 𝑋) 𝐶(𝑍, 𝑌) 𝐶(𝑍, 𝑍)) = (

𝑉(𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)

𝐶(𝑌, 𝑋) 𝑉(𝑌) 𝐶(𝑌, 𝑍)

𝐶(𝑍, 𝑋) 𝐶(𝑍,𝑌) 𝑉(𝑍))

Notera symmetri pga. 𝐶(𝑋, 𝑌) = 𝐶(𝑌,𝑋) samt att 𝐶(𝑋, 𝑋) = 𝑉(𝑋)

Regressionsanalys

Sats: Komponenterna i en normalfördelad vektor är oberoende ⇔ kovariansmatrisen är en diagonalmatris.

Följdsats: Två simultant normalfördelade s.v. X, Y är oberoende ⇔ X, Y är okorrelerade, 𝜌(𝛸, 𝑌) = 0

Sats: Om 𝒀 = 𝑨𝑿+ 𝑩 där 𝑿 har flerdimensionell normalfördelning ⇒ 𝒀 är normalfördelad

”En linjärkombination av oberoende normalvariabler, som är komponenter i en normalfördelad vektor, är

normalfördelad ”

Recommended