22
Marekas Molis MKM įrodymas PRF : Y i =β 0 +β 1 X i + u i (Population Regression Function) E ( Y | X i ) =f ( X i ) =β 0 +β 1 X i Y i =E ( Y | X i ) +u i Kur E(Y|X)- sisteminė dalis, u-atsitiktinė, nesisteminė dalis E ( Y i | X i ) =E [ E ( Y | X i ) ] +E ( u i | X i ) =E ( Y | X i ) + E ( u i | X i ) E ( Y i | X i ) =E ( Y | X i ) →E ( u i | X i ) =0 SRF : Y i = ^ β 0 + ^ β 1 X i + ^ u i (Sample Regression Function) ^ Y i = ^ β 0 + ^ β 1 X i Į ver čių apskaičiavimas ( min ) u 2 = ( Y¿¿ i^ β 0 ^ β 1 X i ) 2 ¿ ∂RSS ^ β 0 =−2 ( Y¿¿ i^ β 0 ^ β 1 X i ) =0 ¿ Y i n ^ β 0 ^ β 1 X i =0: n ^ β 0 = Y i n ^ β 1 X i n ^ β 0 = Y^ β 1 X ∂RSS ^ β 1 =−2 X i ( Y ¿¿ i^ β 0 ^ β 1 X i ) =0 ¿ ( X i Y i ^ β 0 X i ^ β 1 X i 2 ) =0 X i Y i ^ β 0 X i = ^ β 1 X i 2 ^ β 1 X i 2 = X i Y i [ Y i n ^ β 1 X i n ] X i ^ β 1 [ X i 2 ( X i ) 2 n ] = Y i X i Y i X i n 1

VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

MKM įrodymas

PRF :Y i=β0+β1 X i+u i (Population Regression Function)

E (Y|X i)= f ( X i )=β0+β1 X i

Y i=E (Y|X i )+ui

Kur E(Y|X)- sisteminė dalis, u-atsitiktinė, nesisteminė dalis

E (Y i|X i )=E [ E (Y|X i ) ]+E (ui|X i )=E (Y|X i )+E (u i|X i )

E (Y i|X i )=E (Y|X i ) → E (ui|X i )=0

SRF :Y i= β0+ β1 X i+ui (Sample Regression Function)

Y i= β0+ β1 X i

Į ver čių apskaičiavimas

(min )∑ u2=∑ (Y ¿¿ i− β0− β1 X i)2¿

∂ RSS∂ β0

=−2∑ (Y ¿¿ i− β0− β1 X i)❑=0¿

∑Y i−n β0−β1∑ X i=0∨:n

β0=∑Y i

n− β1

∑ X i

n

β0=Y − β1 X

∂ RSS∂ β1

=−2∑ X i(Y ¿¿ i− β0− β1 X i)❑=0 ¿ ∑ ( X i Y i− β0 X i− β1 X i

2 )=0

∑ X iY i− β0∑ X i=β1∑ X i2 β1∑ X i

2=∑ X i Y i−[∑Y i

n− β1

∑ X i

n ]∑ X i

β1[∑ X i2−

(∑ X i )2

n ]=∑Y i X i−∑Y i∑ X i

n

β1=∑ Y i X i−

∑ Y i∑ X i

n

∑ X i2−

(∑ X i )2

n

=n∑ Y i X i−∑Y i∑ X i

n∑ X i2−(∑ X i )

2 =n∑ Y i X i−n2 Y X

n∑ X i2−n2 X2 =

∑ Y i X i−n Y X

∑ X i2−n X2 =

∑ ( X i−X ) (Y i−Y )∑ ( X i−X )2

1

Page 2: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Nes: ∑ ( X i−X ) ( Y i−Y )=∑ X i Y i−Y∑ X i−X∑ Y i+n X Y=∑ X iY i−nY i X−n X i Y +n X Y=∑ X iY i−n X Y

∑ ( X i−X )2=∑ ( X i2−2 X i X−X2 )=∑ X i

2−2 X ∑ X i+n X2=∑ X i2−2∑ X i

n ∑ X i+n X2=∑ X i2−2 n X2+n X2=∑ X i

2−n X2

Įverčių savybės

1. Išreikšti per žinomus dydžius, todėl lengva apskaičiuoti.

2. Taškiniai įverčiai.

3. Regresijos tiesė pereina per imčių X ir Y vidurkius, nes:

β0=Y − β1 X , Y= β0+ β1 X

4. Įvertinto Y vidurkis lygus tikram Y vidurkiui.

Y i= β0+ β1 X i=(Y− β1 X )+ β1 X i

Susumuojame ir padaliname iš n:

∑ Y i=(∑Y − β1∑ X )+ β1∑ X i /:n

Y=Y− β1 X+ β1 X=Y → Y=Y

5. Paklaidų vidurkis lygus 0.

−2∑ (Y ¿¿i− β0− β1 X i)=0 →−2∑ u i=0→∑ ui

n=0→ ui=0¿

Naudojantis šia savybe, SRF galime išreikšti kita forma.

Y i= β0+ β1 X i+ ui→∑Y i=n β0+ β1∑ X i+∑ ui (daliname visąreiškinį iš n )→ Y= β0+ β1 X

Atimame gautą reikškinį iš SRF lygties

Y i−Y =β0− β0+ β1 ( X i−X )+ ui→ y i= β1 x i+ui (deviation form)

6. Paklaidos nekoreliuoja su Yi

cov (ui , Y i )=∑ (ui−u )( Y i−Y )=∑ y i ui= β1∑ x i ui=¿ β1∑ x i ( y i− β1 xi )=¿ β1∑ x i y i− β12∑ x i

2=¿ β12∑ x i

2− β12∑ x i

2=0¿¿¿

(Paai š kinimas : ui= y i− β1 xi , y i= β1 x i , β1=∑ x i y i

∑ x i2 )

2

Page 3: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

∂∑ ( y i− β1 xi )2

∂ β1

=−2∑ x i ( y i− β1 x i )=−2∑ x iui=−2∑ ( X i−X ) ( ui−u )=0

cov ( X i , ui )=0

Įverčių tiesiškumas

β1=∑ xi y i

∑ x i2 =

∑ xi (Y i−Y )∑ x i

2 =∑ x i Y i

∑ x i2 −

Y ∑ x i

∑ xi2 =∑ x i Y i

∑ x i2 , nes∑ x i=¿0¿

Tarkime, kad i∈ {1,2 }

∑i=1

2

xi Y i

∑i=1

2

xi2

=x1 Y 1+x2 Y 2

x12+ x2

2 =x1Y 1

x12+x2

2 +x2Y 2

x12+x2

2 =∑i=1

2 x iY i

∑i=1

2

x i2

Taigi,

β1=∑ xi y i

∑ x i2 =∑ x i Y i

∑ xi2 =∑ k iY i , kai k i=

x i

∑ x i2

β1=k1 Y 1+k2 Y 2+…+k nY n tiesinė funkcija tenkinanti ne tik tiesinės funkcijos adityvumo, bet ir

homogeniškumo savybes. β1 yra svertinis Y vidurkis. Esant pakartotiniam emimui ki yra fiksuotos, nes Xi yra fiksuoti (nestochastiški).

β0 įverčio tiesiškumas

β0=Y − β1 X=∑ Y i

n−X [∑ k i Y i ]⏞

β1

=∑ [Y i( 1n−X k i)]

ki savybės:

1.∑ k i=0 ,nes∑ x i=0

2.∑ k i2=¿ 1

∑ x i2 , nes∑ k i

2=¿ ∑ x i2

∑ xi2∑ x i

2 =1

∑ x i2 ¿¿

3.∑ k i xi=∑x i

2

∑ xi2 =1=∑ k1 X1=1

3

Page 4: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Įrodymas:

∑ k1 X1=∑X i ( X i−X )∑ ( X i−X )2

=∑ X i2−X X i

∑ ( X i−X )2=∑ X i

2−∑ X X i

∑ ( X i−X )2 =∑ X i2−X ∑ X i

∑ ( X i−X )2=∑ X i

2−n X2

∑ ( X i−X )2

Nes X ∑ X i=∑ X i

n ∑ X i=(∑ X i )

2

n∙ n

n=

(∑ X i )2n

n2 =X 2n

∑ ( X i−X )2=∑ ( X i2−2 X X i+X 2)❑=∑ X i

2−2 X∑ X i+n X2=∑ X i2−2 X (n X )+n X2=∑ X i

2−2n X2+n X2=∑ X i2−n X2

∑ k1 X1=∑ X i

2−n X 2

∑ X i2−n X 2=1

Įverčių nepaslinktumas

β1=∑ k iY i=∑ k i ( β0+ β1 X i+ui )=β0∑ k i⏞¿ 0

+ β1∑ k i X i⏞¿1

+∑ k iu i

Uždedame matematinės vilties opreratorių:

E ( β1)⏞stochastiškas

=E ( β1 )⏞const

+ ∑ k i⏞determin .

E (ui )⏞¿0

E ( β1 )=β1 nepaslinktas įvertis

β0 nepaslinktumas

Jeigu PRF :Y i=β0+β1 X i+ui

β0=∑ [( 1n−X k i) ( β0+β1 X i+ui )⏞

Y i ]=∑i=1

n [ β0

n+

β1 X i

n+

ui

n−β0 X k i−β1 X i X k i−ui X k i]=β0+β1 X+0−0− β1 X− X∑ k i ui=β0−X∑ k iu i

Surandame mat. viltį:

E ( β0 )=E ( β0 )−X∑ (ki E (ui ) )

E ( β0 )=β0 nepaslinktas, tiesinis įvertis.

Įverčių standartinės paklaidos

4

Page 5: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

var ( β1)=E [ β1−E ( β1) ]2=E ( β1−β1 )2

β1=∑ k iui+β1

E ( β1−β1 )2=E [ (∑ k iu i)2 ]=E (k1

2 u12+k2

2 u22+…+k n

2un2+2 k1 k2 u1u2+…+2 kn−1 knun−1un )

Kadangi pagal prielaidas E (u i2)=σ 2ir E (u iu j )=0 , i≠ j tai

var ( β1)=E [ (∑ k i ui )2 ]=σ 2∑ k i

2= σ2

∑ xi2 ;σ2−homoskedastiškų paklaidų pastovidispersija

var ( β0 )=E ( β0−E ( β0 ) )2=E ( β0−β0 )2

Iš anksčiau žinome: β0=β0+∑ [( 1n−X k i)ui]

Paaiškinimas: ∑ [( 1n−X k i)ui]=∑ u i

n⏞

¿ 0

−X∑ k i ui=−X∑ k iu i

E ( β0−β0 )2=E [( 1

n−X k i)ui]

2

=E[∑ ui

n−X ∑ k i ui]

2

=E [∑ u i2

n2 +−2 Xn ∑ ui∑ k i ui+X2 (∑ k iui )

2]=E[∑ ui2

n2 −2 Xn

σ2∑ k i⏞¿0

+X2 σ2∑ k i2]=σ2

n+ X σ2

∑ ( X i−X )2=σ2( 1

n+ n X2

∑ x i2 )=σ2(∑ xi

2+n X 2

n∑ xi2 )=σ 2(∑ ( X i−X )2+n X2

n∑ xi2 )=σ2(∑ X i

2−2 X ∑ X i+n X 2+n X2

n∑ x i2 )=σ 2(∑ X i

2−2 X∑ X i+2 n X2

n∑ ( X i−X )2 )=σ2(∑ X i2−2 X ∑ X i

nn+2 n X2

n∑ ( X i−X )2 )=σ2(∑ X i2−2 n X2+2n X 2

n∑ ( X i−X )2 )=σ 2( ∑ X i2

n∑ ( X i−X )2 )se ( β0 )=σ √ ∑ X i

2

n∑ ( X i−X )2; se ( β1 )= σ

√∑ x i2

Kovariacija

cov ( β0 , β1 )=E [( β0−E ( β0) ) ( β1−E ( β1 )) ]=E [ ( β0−β0 ) ( β1−β1) ]

β0=Y − β1 X → E ( β0 )=Y−E ( β1 ) X → β0=Y−β1 X

β0−E ( β0 )=Y − β1 X−Y +E ( β1 ) X=X (β1− β1 )=−X ( β1−β1 )

E [ (−X ) ( β1−β1) ( β1−β1 )]=−X E ( β1−β1 )2=−X var ( β1 )=−X σ2

∑ x i2

Paklaid ų dispersija σ2

5

Page 6: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

(1 ) Y i=β0+β1 X i+ui

(2)Y =β0+ β1 X+u i atimkime (2) lygtį iš (1) lygties. Gauname:

y i=β1 xi+(u i−u ) , prisiminkime , kad u i= yi− β1 x i

ui+ β1 x i=β1 xi+(u i−u )

ui=β1 xi+(u i−u )− β1 x i→ ui=( β1−β1) x i+(ui−u )

Gautą reiškinį pakeliame kvadratu:

(ui )2=(( β1− β1) x i+(ui−u ))2→ ui

2=( β1− β1 )2 x i2+2 (u i−u ) (β1− β1 ) xi+ (ui−u )2

Susumuojame:

∑ u i2=∑ (β1− β1 )2 x i

2+2∑ (u i−u ) (β1− β1 ) x i+∑ (ui−u )2

∑ u i2=( β1−β1 )2∑ x i

2−2 ( β1−β1 )∑ (ui−u ) xi+∑ (ui−u )2

Uždedame matematinės vilties operatorių:

E (∑ u i2)=∑ x i

2 E [ ( β1−β1 )2 ]−2 E [( β1−β1 )∑ (ui−u ) x i ]+E [∑ (ui−u )2 ]Prisiminkime 2 savybes:

1.β1=∑ k iY i=∑ k i ( β0+ β1 X i+ui )=β0∑ k i⏞¿ 0

+ β1∑ k i X i⏞¿1

+∑ k iu i=β1+∑ k iu i

2. k i=x i

∑ x i2

Padarykime kelis supaprastinimus:

E [( β1−β1)∑ ( ui−u ) x i ]=E [ (β1+∑ k i ui−β1 )∑ (ui−u ) xi ]=E [(∑ k i ui )∑ (ui−u ) x i ]=E [(∑ k iu i )∑ ui x i ]=E [∑ k i x iui2 ]=σ2

E [∑ (u i−u )2 ]=E ¿

E (∑ u i2)=∑ xi

2 var ( β1 )+(n−1 ) σ2−2 σ 2 , var ( β1 )= σ2

∑ xi2

E (∑ u i2)=σ2+ (n−1 ) σ 2−2 σ2=(n−2)σ2

6

Page 7: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Jei mes pažymėsime σ 2=∑ u i2

n−2

E (σ 2 )= 1n−2

E (∑ ui2 )=σ2

Tai rodo, kad σ 2yra nepaslinktas σ 2įvertis.

Efektyvūs įverčiai.

β1 efektyvumas

Sakykim ~β1=∑ ci Y i , panašiai buvo β1=∑ k iY i

~β1=∑ ci ( β0+β1 X i+ui )=β0∑ c i+β1∑ c i X i+∑ c iui

Uždedame matematinės vilties operatorių:

E (~β1 )=β0∑ c i+β1∑ ci X i+0

Jei norime, kad E (~β1 )=β1,(t.y.įvertis turi būti nepaslinktas) reikia, kad ∑ ci=0 ir ∑ ci X i=1

Žinome, kad var (~β1)=σ 2∑ c i2

Tikslas yra minimizuoti var (~β1) kartu užtikrinant nepaslinktumo sąlygą ∑ ci=0 ir∑ c i X i=1

min∑ c i=0 ,∑ ci Xi=1

var (~β1 )=σ2∑ c i2

Susidurėme su optimizavimo su apribojimais problema.

Teorinis intarpas

Langrange‘o funkcija

(extr ) φ ( x ) , kai

g ( x )=b(m−s ąlygų)

{ g1 (x )=b1

…gm (x )=bm

Sudarome Langrange‘o funkciją:

L ( x , λ )=φ ( x )−λ [g ( x )−b ]

7

Page 8: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Ekstremumo sąlyga:

δLδx

=0

δLδλ

=0

x∈ Rn , x=(x1 , …, xn)

λ∈Rm , λ=(λ1 , …, λm)

min∑ c i=0 ,∑ ci Xi=1

var (~β1 )=σ2∑ c i2 , σ 2konstanta , todėl minimizuojame tik∑ c i

2

L (c i , λ1, λ2 )=∑ c i2−λ1∑ ci−λ2(∑ ci X i−1)

δLδ∑ c i

=2∑ c i−n λ1−λ2∑ X i=0

δLδ λ1

=∑ ci=0

δLδ λ2

=−(∑ c i X i−1)=∑ c i X i−1=0

∑ ci=nλ1+ λ2∑ X i

2=0→ nλ1+λ2∑ X i=0→ λ1=

− λ2∑ X i

n=−λ2 X

Vieno dėmens atveju pirmoji išvestinė yra tokia:

2 c i−λ1−λ2 X i=0

Įstatome λ1 išraiską į lygtį

2 c i+λ2 X−λ2 X i=0→2 c i=λ2 x i→ c i=λ2 xi

2( padauginame abi pusesiš X i)

c i X i=λ2 xi X i

2(susumuojame ) →∑ c i X i=

λ2

2 ∑ xi X i

λ2

2 ∑ x i X i=1 , tai λ2=2

∑ x i X i

∑ x i X i=∑ ( X i2−X X i )=∑ X i

2−X∑ X i=∑ X i2−

∑ X i

n ∑ X i=∑ X i2−n X2

8

Page 9: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Paimkime iš kitos pusės:

∑ x i2=∑ ( X i−X )2=∑ X i

2−2 X∑ X i+∑ X 2=∑ X i2−2 X ∑ X i+n X2=∑ X i

2−2n X2+n X2=∑ X i2−n X2

{∑ x i X i=∑ X i2−n X2

∑ x i2=∑ X i

2−n X2 →∑ xi X i=∑ xi2

Vadinasi,

λ2=2

∑ x i2 ,atsiminkime ,kad ci=

λ2 x i

2→ c i=

x i

∑ x i2 =k i

Tai sutampa su klasikiniais MKM svoriais ki , Vadinasi var ( β1) yra minimali. Tai reiškia, kad β1yra BLUE (Best Linear Unbiased Estimators).

β0 efektyvumas

Turime įvertį ~β0:

~β0=∑i=1

n [ β0

n+

β1 X i

n+

ui

n−β0 X c i−β1 X i X c i−u i X c i]=β0+ β1 X−β0 X ∑ c i−β1 X∑ X i c i−X ∑ ui c i

E (~β0 )=β0+ β1 X−β0 X ∑ ci−β1 X ∑ X i c i−0

Jei norime, kad ~β0 būtų nepaslinktas, reikia, kad ∑ ci=0 ir∑ X i c i=1

var (~β0 )=σ2( ∑ X i2

n∑ ( X i−X )2 )=σ2( ∑ X i2

n∑ xi2 )=σ2 1

n∑ X i2∑ c i

2

min∑ c i=0 ,∑ ci Xi=1

var (~β0 )=σ2 1n∑ X i

2∑ c i2 , σ2 konstanta ,todėl minimizuojametik 1

n∑ X i2∑ c i

2

L=1n∑ X i

2∑ c i2−λ1∑ c i−λ2(∑ c i X i−1)

δLδ c i

=2c i

n ∑ X i2−λ1−λ2 X i=0

δLδ λ1

=∑ ci❑=0

δLδ λ2

=∑ c i X i−1=0

9

Page 10: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

2 ci

n ∑ X i2−λ1−λ2 X i=0→

2c i

n ∑ X i2=λ1+λ2 X i→ c i=

nλ1+nλ2 X i

2∑ X i2

∑ ci=n2 λ1+nλ2∑ X i

2∑ X i2 =0(žiūrėti išvestinę pagal λ1)

n2 λ1+nλ2∑ X i=0 → n2 λ1=−nλ2∑ X i → λ1=−λ2∑ X i

n=− λ2 X

δLδ c i

=2c i

n ∑ X i2+λ2 X−λ2 X i=0

2 ci

n ∑ X i2=λ2 xi→ c i=

n λ2 x i

2∑ X i2 ( padauginame gaut ą reiškinį iš X i)

c i X i=n λ2 xi X i

2∑ X i2 (susumuojame)

∑ ci X i=n λ2∑ x i X i

2∑ X i2 (žinome , kad∑ x i X i=∑ x i

2 )→∑ c i X i=n λ2∑ x i

2

2∑ X i2 =1( δL

δ λ2)

λ2=2∑ X i

2

n∑ x i2

c i=n λ2 x i

2∑ X i2 ¿

Įrodėme, jog ci=ki, tai reiškia, jog β0 yra efektyvus.

Įrodyta Gauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Bendrasis regresinis modelis (The Matrix approach)

PRF :Y i=β0+β1 X2 i+…+ βk −1 Xki+u i , kur i=1 , n

Matricine forma jis gali būti pavaizduotas taip:

(Y 1

Y 2

⋮Y n

)⏟

yn×1

=(1 X21 X31 … X k 1

1 X22 X32 ⋯ X k 2

⋮ ⋮ ⋮ ⋱ ⋮1 X2n … … X kn

)⏟

Xn×k

(β0

β1

β2

⋮βk−1

)⏟

βk × 1

+(u1

u2

⋮un

)⏟

un× 1

10

Page 11: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Taigi:

y⏟n ×1

=Xβ⏟n× 1

+ u⏟n× 1

CLRM prielaidos matriciniame pavidale

1. E (u )=0

E (u )=(E (u1)E (u2)⋮

E(un))=(

00⋮0)=0

2. E (uuT )=σ2 I , kur I−vienetinė matrica

E (uuT )=E [(u1

u2

⋮un

)(u1 u2 … un )]=(E(u1

2) E(u1 u2) … E (u1un)E(u2 u1) E(u2

2) … E (u2un)⋮ ⋮ ⋱ ⋮

E(un u1) E(un u2) … E(un2)

)=(σ2 0 … 00 σ2 … 0⋮ ⋮ ⋱ ⋮0 0 … σ2)=σ2 I⏟

n×n

( paklaid ų variacijos−kovariacijosmatrica)

3. n×k matrica X nestochastin ė , t . y . joje yra fiksuoti skaičiai .

4. X matricos rangas ρ ( X )=k<n ,t . y . kintamieji tarpusavyje nesusiję ir jųturibūti mažiau nei stebėjimų .

MKM įverčių išvedimas

∑ ei2= eT⏟

1× n

e⏟n× 1

=( y−X β )T ( y−X β )=( yT⏟1×n

− βT⏟1 × k

XT⏟k ×n)( y⏟

n × 1

− X⏟n ×k

β⏟k ×1)= yT⏟

1 ×n

y⏟n×1

− βT⏟1 × k

XT⏟k× n

y⏟n×1

− yT⏟1 ×n

X⏟n ×k

β⏟k ×1

+ βT⏟1 ×k

XT⏟k × n

X⏟n ×k

β⏟k ×1

= yT⏟1×n

y⏟n×1

−2 βT⏟1×k

XT⏟k × n

y⏟n ×1

+ βT⏟1× k

XT⏟k ×n

X⏟n × k

β⏟k × 1

¿

pačiai βT⏟1× k

XT⏟k ×n

y⏟n×1

= yT⏟1× n

X⏟n × k

β⏟k × 1

∂(eT e)∂ β

=0−2 XT y+2 XT X β=0

X T⏟k× n

X⏟n×k

β⏟k ×1

¿ X⏟k× n

T y⏟n ×1

Norėdami išspręsti šią lygtį, galime pasinaudoti Kramerio taisykle. Kadangi X matricos rangas k, tai galime sudaryti k-eilės nenulinį determinantą, kuris reikalingas sprendimui.

β⏟k ×1

=(XT⏟k ×n

X⏟n×k)

−1 X⏟k ×n

T y⏟n ×1

11

Page 12: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

β nepaslinktumas

β=( XT X )−1 XT y=( XT X )−1 XT ( Xβ+u )=( XT X )−1 XT Xβ+( XT X )−1 XT u=β+( XT X )−1 XT u , nes ( X T X )−1 XT X=I

E ( β )=E (β )+E ( ( XT X )−1 XT u )=β+ ( XT X )−1 XT E (u )=β

Paai škinmas : β ir ( XT X )−1 XT−konstantos , paklaidos u−stochastiškos , t . y . E (u )=0

β dispersija

E [( β−β)⏟k × 1

( β−β)T⏟1 × k ] ,( β=β+( XT X )−1 XT u )

E [( β+ ( XT X )−1XT u−β )(β+ ( XT X )−1

XT u−β )T ]=E [ ⟨ ( XT X )−1

XT u ⟩ ⟨ ( XT X )−1XT u ⟩T ]=E [ ( XT X )−1

XT uuT X ( XT X )−1 ]

Paai škinimas:1. ( ABC )T=CT BT AT → ⟨ ( XT X )−1 XT u ⟩T=uT X [ ( XT X )−1 ]T

2. ( A−1 )T=( AT )−1→ [ ( XT X )−1 ]T=[ ( X T X )T ]−1

3. A=AT , kai A simetri ška matrica.→ ( XT X )T=XT X

XT X=(1 1 ⋯ 1

X21 X22 ⋯ X2n

X31 X32 ⋯ X 3 n

⋮ ⋮ ⋱ ⋮X k 1 Xk 2 … X kn

)⏟

k ×n

(1 X21 X31 … X k1

1 X22 X32 ⋯ X k2

⋮ ⋮ ⋮ ⋱ ⋮1 X2n X3 n … X kn

)⏟

n× k

=(n ∑ X2 i ⋯ ∑ X ki

∑ X2 i ∑ X2 i2 ⋯ ∑ X2 i X ki

⋮ ⋮ ⋱ ⋮

∑ X ki ∑ Xki X2 i ⋯ ∑ X ki2 )

⏟k ×k

, i=1 , n

Taigi XTX simetriška.

E [ ( XT X )−1 XT u uT X ( XT X )−1 ]=( XT X )−1 XT E (u uT ) X ( XT X )−1=( XT X )−1 XT ( σ2 I ) X ( XT X )−1

=σ2 ( XT X )−1 ( XT X ) ( XT X )−1=σ2(XT⏟

k × n

X⏟n ×k )

−1

β variacijos−kovariacijos matrica

E [( β−β)⏟k × 1

( β−β)T⏟1 × k ]=E [( β0−β0

β1−β1

⋮βk−1−βk−1

) ( β0−β0 β1−β1 ⋯ βk−1−βk−1 )]=( ( β0−β0 )2 ( β0−β0) ( β1−β1) ⋯ ( β0−β0 ) ( βk−1−βk−1 )( β1−β1 ) ( β0−β0 ) ( β1−β1 )2

⋯ ( β1−β1 ) ( βk−1−βk−1 )⋮ ⋮ ⋱ ⋮

( βk−1−βk−1 ) ( β0−β0 ) ( βk−1−βk−1 ) ( β1−β1) ⋯ ( βk−1−βk−1 )2)=( var ( β0) cov ( β0, β1) ⋯ cov ( β0 , βk−1)

cov ( β0 , β1) var ( β1) ⋯ cov ( β1 , βk −1)⋮ ¿⋱ ¿ ¿

cov ( βk−1 , β1)¿⋯¿var ( βk−1)¿)Multikolinearumas

12

Page 13: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Terminą įvedė Ragnar Frisch. Tobulas multikolinearumas reiškia, jog egzistuoja tobulas (tikslus) tiesinis darinys tarp nepriklausomų kintamųjų.

λ1 X1+λ2 X2+…+ λk X k=0 ;bent du λ i≠ 0

Praktikoje labiau paplitęs „netobulas“ multikolinearumas.

λ1 X1+λ2 X2+…+ λk X k+ϵi=0 ;bent du λ i≠ 0 , ϵ i−stochastinė paklaida .

Tarkime, kad λ1≠ 0

Tobulo multikolinearumo atveju:

X1=− λ2

λ1X2−…−

λk

λ1Xk

Netobulo multikolinearumo atveju:

X1=− λ2

λ1X2−…−

λk

λ1Xk−

ϵi

λ1

Pavyzdys:

X1 X2 X2¿

e

1 23,89913

61,89913

6

5 1012,5294

72,52946

6

4 89,27576

51,27576

5

6 1213,5456

71,54567

1

7 1416,9465

92,94659

3

X2=2 X1, šiuo atveju r X 1 X2=1( tobulas multikolinearumas)

X2¿=2 X1+e , šiuo atveju r X 1 X 2

¿=0,9918

Reikia pažymėti, jog multikolinearumas galioja, kai tarp nepriklausomu kintamųjų egzistuoja tiesinis ryšys. Pavyzdžiui, modelis Y i=β0+β1 X i+ β2 X i

2+β3 X i3+ui nepažeidžia ne multikolinearumo

13

Page 14: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

prielaidos, tačiau apskaičiuoti parametrų įverčius su mažesnėmis standartinėmis paklaidomis bus sunkiau, nes koreliacijos koeficientas bus didelis.

Pavyzdys:

X i X i2 X i

3

1 1 15 25 1254 16 646 36 2167 49 343

r X i X i2=0,972 r X i X i

3=0,919 r X i2 X i

3=0,985

Multikolinearumo atsiradimo priežastys

1. Duomenų surinkimo metodo trukūmai.2. Apribojimai modelyje arba naudojamoje imtyje.3. Modelio specifikacija (polinominiai dėmenys)4. Kintamųjų daugiau negu stebėjimų.5. Laiko eilutėse kintamieji turi bendrą deterministinį trendq.

Įverčių apskaičiavimas turint tobulą multikolinearumą

y i=β2 x2 i+ β3 x3 i+ui

β2=(∑ y i x2 i ) (∑ x3 i

2 )−(∑ y i x3i ) (∑ x2 i x3 i )(∑ x2 i

2 ) (∑ x3 i2 )−(∑ x2 i x3 i )

2

β3=(∑ y i x3 i ) (∑ x2 i

2 )−(∑ y i x2i ) (∑ x2 i x3 i )(∑ x2 i

2 ) (∑ x3 i2 )−(∑ x2 i x3 i )

2

Tarkime, kad X3 i= λ X2 i

β2=(∑ y i x2 i ) (∑ ( λ x2i )

2)−(∑ y i λx2 i ) (∑ x2 i λx2 i )(∑ x2 i

2 )(∑ ( λ x2 i )2 )−(∑ x2 i λx2 i )

2 =λ2 (∑ y i x2 i ) (∑ x2 i

2 )−λ2 (∑ y i x2 i ) (∑ x2 i2 )

λ2 (∑ x2 i2 )

2−λ2 (∑ x2 i

2 )2 =0

0

β3=(∑ y i λx2i ) (∑ x2i

2 )−(∑ y i x2i ) (∑ x2i λx2i )(∑ x2 i

2 ) (∑ ( λ x2i )2 )−(∑ x2 i λx2i )

2 =λ (∑ y i x2 i ) (∑ x2 i

2 )− λ (∑ y i x2 i ) (∑ x2 i2 )

λ2 (∑ x2 i2 )2− λ2 (∑ x2i

2 )2 =00

Matriciniu pavidalu:

β⏟k ×1

=(XT⏟k ×n

X⏟n×k)

−1 X⏟k ×n

T y⏟n ×1

14

Page 15: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

(XT⏟k ×n

X⏟n ×k )

−1=

adj ( XT X )|XT X|⏟

0

=∞

Determinantų savybės :

1. |AT|=|A|

2. |AB|=|A||B|

var . cov ( β)=σ2(XT⏟k × n

X⏟n× k )

−1=∞

Neįmanoma nustatyti nei dispersijų nei kovariacijų.

β koeficientų paskirtis yra atskirti individualius nepriklausomų kintamųjų poveikius priklausomajam kintamajam. Kai nepriklausomi kintamieji yra pernelyg susiję, jų poveikio atskirti neįmanoma.

M icronumerosity

n<k (daugiau kintamųjų negu stebėjimų).

rank ( X )=n →|XT⏟k ×n

X⏟n× k|=0

Realybėje nebūna tobulo multikolinearumo. Jei būtų – tai reištų determinuotus ryšius, o juk mes dirbame su stochastiniais kintamaisiais ir stochastiniais ryšiais.

Heteroskedastiškumas

Priežastys

1. Mokomasi iš klaidų.2. Duomenų surinkimo metodai tikslėja.3. Išskirtys.4. Praleisti svarbūs kintamieji.5. Kintamųjų asimetrija.6. Neteisinga kintamųjų transformacija arba neteisinga funkcinė forma.

15

Page 16: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Skerspjūvio duomenys labiau linkę turėti heteroskedastiškumo problemą nei laiko eilučių. Skerspjūvio duomenyse yra daug skirtingų objektų. Tuo tarpu laiko eilučių modeliuose yra duomenys apie vieno objekto kitimą laike.

Problemos

σ 2=∑ u i2

n−2=∑ (Y i−Y i )

2

n−2=∑ (β0+β1 X i+u i− β0− β1 X i )

2

n−2=∑ (−( β0−β0 )−( β1−β1 ) X i+ui )

2

n−2β0=Y −β1 X

β0=Y − β1 X

β0−β0=( β1− β1 ) X+u

∑ (( β1−β1 ) X−( β1−β1 ) X i+ui−u)2n−2

= 1n−2∑ [−x i ( β1−β1 )+(u i−u )]2= 1

n−2∑ (x i2 ( β1−β1 )2−2 x i ( β1−β1 ) (ui−u )+(ui−u )2 )= 1

n−2¿

E (σ 2 )=∑ x i2var ( β1 )+∑ σ i

2

n−2Jeigu E (σ 2 )≠ σ 2 , tai var ( β)≠ var (β). Įverčiai neefektyvūs. Negalime tikrinti hipotezių.GLS (WLS). Apibendrintas MKM.Nevienoda Y dispersija. Apibendrinto MKM idėja suteikti didesnį svorį stebėjimams su mažesne

dispersija ir mažesnį svorį stebėjimams su didesne dispersija.Y i=β0+β1 X i+ui→ Y i=β0 X0 i+β1 X i+u i , kur X0 i=1∀ i=1 , n

Sakykim E (ui2 )=σ i

2

σ i žinomePertvarkome turima lygtįY i

σ i=β0

X0 i

σ i+β1

X i

σ i+

ui

σ i→ Y i

¿=β0¿ X 0i

¿ +β1¿ X1

¿+ui¿

var ( ui¿)=E (ui

¿ 2)=E ( ui

σ i)

2

= 1σ i

2 E (u i )2= 1

σ i2 σ i

2=1

Gavome homoskedastiškas paklaidas.

Nežinome tikrųjų σ i2

1 prielaida E (ui2 )=σ2 X i

2 Y i

X i=

β0

X i+β1+

u i

X i=β0

1X i

+ β1+ϵ i

E (ϵi2 )=E( ui

X i)

2

= 1X i

2 E (ui2 )=σ 2

Šiuo atveju laisvasis narys tapo nuolydžio koeficientu o nuolydžio koeficientas laisvuoju nariu.

2 prielaida E (ui2 )=σ2 X i

16

Page 17: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Y i

√ X i

=β0

√ X i

+β1√ X i+u i

√ X i

=β01

√ X i

+β1 √X i+ϵi

E (ϵi2 )=E( ui

√ X i )2

= 1√ X i

E (ui2 )=σ 2 X i

X i=σ2

3 prielaida E (ui2 )=σ 2 [ E (Y i ) ]2

Y i

E(Y i)=

β0

E(Y i)+ β1

X i

E (Y i)+

ui

E(Y i)

E (ϵi2 )= 1

[ E (Y i ) ]2E (u i

2)=σ2 ,kur ϵi=ui

E(Y i)

Tačiau mes nežinome Y i=β0+β1 X i . Šiuo atveju naudojami 2 etapai:1. Y i=β0+ β1 X i

2.Y i

Y i

=β0( 1Y i )+β1( X i

Y i )+ϵ i

Naudojama, kai turime didelę imtį.

4 prielaida Logaritminė transformacijaln Y i=β0+β1 ln X i+ui

Sumažinama kintamųjų matavimo skalės, todėl gali sumažėti dispersija. Jei skirtumai tarp dispersijų buvo nedideli, tai jie taps dar mažesni.

AutokoreliacijaE (ut u t+ s ) ≠0 ( s≠ 0 ) Netenkinama prielaida , jog paklaidos nekoreliuoja tarpusavyje .Indeksas t suponuoja, jog nagrinėjami laiko eilučių modeliai. (Skerspjūvio duomenyse autokoreliacijos tikimybė žymiai mažesnė).

Tarkime, kad paklaidos generuojamos sekančiu būdu.ut=ρ ut−1+εt , kur εt−baltasis triuk šmas (white noise)Užrašyta lygtis vadinama pirmos eilės autoregesija ir paprastai žymima AR(1).Pagal AR(1):ut=ρ ut−1+εt ,−1< ρ<1Tada:E (ut )=ρE (ut−1 )+E (εt )=0

17

Page 18: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Paklaidų dispersija:var (u t )=E (ut

2 )=E (ρ2 ut−12 +2 ρ ut−1 εt+εt

2 )=ρ2 E (ut−12 )+2 ρ E (ut−1ε t )⏟

¿0

+E (εt2 )=ρ2 E (ut−1

2 )+σ ε2=ρ2 var (u t−1 )+σ ε

2

Sakykime, kad var (u t )=var (ut−1 )=σ2(paklaidos homoskedastiškos)

σ 2=ρ2 σ2+σ ε2 → σ2−ρ2 σ2=σ ε

2 →σ 2=σ ε

2

1−ρ2

Paklaidų kovariacijaut=ρ ut−1+εt∨∙ut−1→ ut ut−1=ρ ut−1

2 +ε t ut−1

Surandame mat. viltį:E (ut u t−1 )=ρE (u t−1

2 )+E ( εt ut−1)=ρ var (ut−1 )

Iš anksčiau žinime , kad var (ut )=var (ut−1 )=σ ε

2

1−ρ2

Todėl:

cov (ut ,ut−1 )=E (ut u t−1 )=ρσ ε

2

1−ρ2

ut=ρ ut−1+εt−1∨∙ ut−2→ ut ut−2=ρu t−1 ut−2+ε t ut−2

E (ut u t−2 )= ρE (u t−1u t−2 )+E (ε t ut−2 )=ρE ( ut−1 ut−2 )

ut−1ut−2=ρ ut−22 +εt−1 ut−2 → E (ut−1u t−2 )= ρE (u t−2

2 )=ρ var (u t−2)

cov (ut ,ut−2 )=E (u tu t−2 )=ρ2 σε2

1−ρ2

cov (ut ,ut−s )=E (ut ut−s )= ρs σε2

1− ρ2

β1 dispersija

Žinome, kad MKM įverčio β1 dispersija yra σ2

∑ xi2 .

Esant autokoreliacijai:

σ 2=σ ε

2

1−ρ2 → var ( β1 )=

σε2

1−ρ2

∑ x i2 =

σ ε2∑ x i

2

1−ρ2

Autokoreliacijos pasekmės1. MKM įverčiai nepaslinkti, tačiau neefektyvūs. 2. Iš to išplaukia, kad negalima pasitikėti R2, t ir F statistikomis.

18

Page 19: VU darbuotojų tarnybiniai tinklalapiaiweb.vu.lt/ef/v.karpuskiene/files/2018/02/MKM-formules.docx · Web viewGauss-Markov teorema. (Įverčiai tiesiniai, nepaslinkti, efektyvūs)

Marekas Molis

Duomenų transformacija ir autokoreliacijaTarkime, kad turime modelį:Y t=β0+β1 X t +ut , kur ut−baltasis triukšmas Perrašome modelį t-1 laikotarpio atžvilgiu:Y t−1=β0+ β1 X t−1+u t−1

Surandame modelių skirtumus:Y t−Y t−1=β1 ( X t−X t−1 )+(u t−u t−1 )∆ Y t=β1 ∆ X t+et ,kur et=ut−ut−1

cov (e t , e t−1 )=E ( et et−1)=E [ (ut−ut−1 ) ( ut−1−u t−2 ) ]=E [ut ut−1−ut−12 −ut ut−2+u t−1u t−2 ]=E (u t ut−1 )−E (ut−1

2 )−E (ut u t−2 )+E (ut−1ut−2 )=−σ2

Tarp paklaidų atsirado kovariacija. Turime autokoreliacijos problemą.

Autokoreliacijos sprendimas naudojant apibendrintą MKM (GLS)Turime modelį:(1)Y t=β0+β1 X t+ut , kur ut generuojamas AR (1 ) proceso .ut=ρ ut−1+εt ,−1< ρ<1Tarkime, kad mes žinome ρ reikšmę.Perrašome modelį t-1 laikotarpio atžvilgiu:

Y t−1=β0+ β1 X t−1+u t−1

Padauginame abi puses iš ρ :(2)ρY t−1=ρβ0+ ρβ1 X t−1+ρ ut−1

Atimame (2) lygtį iš (1):(Y t−ρY t−1 )=(1−ρ ) β0+β1 ( X t−ρ X t−1 )+ε t , εt−baltasis triukšmasε t=u t−ρut−1=ρ ut−1+εt−ρu t−1=εt

Gavomenaują modelį :Y t

¿=β0¿+β1 X t

¿+εt

kur Y t¿=Y t−ρY t−1 , β0

¿=(1−ρ ) β0 , X t¿=( X t−ρ X t−1 )

Apibendrintas MKM (GLS) yra ne kas kita, kaip MKM pritaikymas transformuotiems duomenims.

19