View
26
Download
0
Category
Preview:
DESCRIPTION
Regresszió és korreláció. 2013. 03. 09. Lineáris regresszió Regressziós vizsgálatok Korrelációs együttható Korreláció és függetlenség. Bizonyos esetekben tudjuk/gyanítjuk, hogy az adatok ingadozásáért egy másik, ugyancsak változó tényező a felelős Pl.: - PowerPoint PPT Presentation
Citation preview
Regresszió és korreláció
2013. 03. 09
.
• Lineáris regresszió
• Regressziós vizsgálatok
• Korrelációs együttható
• Korreláció és függetlenség
• Bizonyos esetekben tudjuk/gyanítjuk, hogy az adatok ingadozásáért egy másik, ugyancsak változó tényező a felelős
• Pl.: – RR különböző életkorokban más értékek– Laboratóriumi mérést helyiség hőmérséklete
befolyásol, növeli a szórást
• Kézenfekvő lenne ennek a külső változónak az ingadozását megszüntetni, értékét azonos szinten tartani – nem mindig lehetséges
• Másik megoldás, hogy a zavaró változó hatását igyekszünk felderíteni, és számítással kiküszöbölni.
• Bizonyos esetekben ennek a hatásnak a természete jobban érdekel minket, mint magának a szórásnak a csökkentése
• Pl.: Hogyan változik (és változik-e egyáltalán) – a korral a vérnyomás– a koncentrációval a törésmutató
• Eredeti változónkat tehát mintegy a másik függvényében vizsgáljuk – regressziós vizsgálatok
0
50
100
150
200
250
300
rángásidő ms
0.1
0.2
0.3
0.4
0.5
0.8
1.0
• Adrenalin hatására vizsgáljuk az izomrángást
• Adrenalin dózis növekedésével a rángásidőt vizsgáljuk
• Próbáljuk egyenessel megközelíteni a hatás jellemzését
• x változó vizsgált értékeit mi választjuk ki,
• yi adatok eltérését az egyenestől rögzített xi értéknél (tehát a függőlegesen vizsgáljuk)
• Célunk, hogy a függőleges egyenesekből számolt szórás a lehető legkisebb legyen
• y=a+bx ahol b a meredekség, a tengelymetszet
Regressziós vizsgálatok
• A regressziós összefügéseket nem mindig egyenes ábrázolja a legjobban
• Sokszor görbe jellemzi: parabola, hiperbola vagy exponenciális görbe
• Előfordul, hogy a dózis logaritmusa áll lineáris kapcsolatban a hatással
Valóságos regressziós egyenlet:
1., x és y tengelyen ábrázolt adatokra rátekintve mondhatjuk meg, hogy milyen görbe jellemzi
2., Megmérjük az összefüggés szorosságát, ezt a célt szolgálja a korrelációs együttható
• Kovariancia (sxy): az együttes ingadozás mértékszáma
• Korelációs együttható (r): a kovariancia a szórások szorzatával osztva
• Pozitív hajlásszögű egyenes: b>0, a korrelációs együttható (r) is pozitív lesz, ezt pozitív korrelációnak nevezzük.
• Negatív hajlásszögű egyenes: a korrelációs együttható is negatív, negatív korrelációról beszélünk
• r=0 korrelálatlanságról beszélünk, ilyenkor regressziós egyenes vízszintes (b=0) (ilyenkor y átlagos értéke ugyanaz marad, akárhogyan is változik x)
• A korrelációs együttható csak -1 és +1 közti értékeket vehet fel
• A együttható abszolút értéke jellemzi a kapcsolat szorosságát (mennél jobban tömörülnek a pontok az egyenes körül annál nagyobb r abszolút értéke)
• +1 vagy -1 értéket akkor és csak akkor éri el az együttható, ha a pontok valamennyien rajta fekszenek az egyenesen
• Két változó együttváltozása lehet, hogy csak egy harmadik változó hatásának eredménye: mindkettejük alakulását az szabályozza, maguk a vizsgált változók azonban semmiféle befolyással nincsenek egymásra
• Pl.: gyulladásos folyamat lázat és fvs szám növekedést okoz. De sem a láztól a fvs, sem a fvs növekedéstől a testhőmérséklet nem változik
• Még ha ok-okozati összefüggés áll is fenn a két vizsgált változó között, pusztán korrelációs együttható segítségével akkor sem tudjuk eldönteni hogy melyik befolyásolja a másikat
• Az ok megkeresése biológiai probléma nem pedig biometriai
• A korreláció hiánya, a korrelálatlanság (r=0) hasonlóképpen hibás következtetésekre indíthat – mivel a változók közötti kapcsolat hiánya miatt könnyen értelmezhetjük úgy, hogy az adatok függetlenek egymástól
• Pl.: az életkor függvényében vizsgált összefüggések
• Erre a legjobban közelítő egyenes a vízszintes lesz
• Erre az eredményt azonban a legjobban nem az egyenes reprezentálja hanem egy görbe.
• Nem minden görbevonalú kapcsolat esetén ennyire félrevezető az r együttható segítségével szerzett információ, de ajánlatos azzal mindig óvatosan bánnunk
• A normális eloszlás fontos kivétel: elméletileg igazolható, hogy ilyenkor vagy lineáris kapcsolat van a változók között vagy semmilyen
• Normális eloszlás esetén tehát a korrelálatlanság (lineáris kapcsolat hiánya) már biztosítja a függetlenséget.
• Fordított irányú következtetés viszont mindig helyes: a változók függetlensége esetén a korrelációs együttható mindenképp nulla
• Bizonyos esetekben az r becsaphat: korrelációt találhatunk ott is ahol valójában függetlenség van, máskor meg kétségkívül fennálló lineáris kapcsolatot „nem veszi észre” a mintából számított r együttható, a mintaelemek speciális elhelyezkedése miatt
• A körben elhelyezkedő végtelen sok érték közül választunk ki néhányat – a változóból a mintát -, és ezekből határozzuk meg a korrelációs együtthatót. Mivel a kiválasztott pontok véletlenül egy egyenes mentén helyezkednek el, a korrelációs együttható értéke közel lesz az 1-hez . Emiatt arra a következtetésre jutunk, hogy a változók közt szoros kapcsolat van.
• Más esetben a változók értékeit ábrázoló pontokból a köztük lévő lineáris összefüggés nyilvánvaló; a kiválasztott pontok – ismét csak véletlenül – azonban úgy helyezkednek el, hogy rajtuk vízszintes egyenest fektethetünk át.
• Az így kapott r=0 alapján a változók korrelálatlanságára (sőt gyakran függetlenségére) következtethetünk
• A fenti ellentmondásokat az eddigi módszerekkel már nem tudjuk feloldani.
• Statisztikai következtetés módszereinek helyes alkalmazása megvéd az utóbbi kettő tévedéstől.
Az eloszlások paramétereire vonatkozó próbák
• U próba
• T (student) próba
• F próba
u-próba
• He egy ismert σ szórású (normális eloszlású) alapsokaságból vett n elemszámú minta átlagára vonatkozó nullhipotézisünket akarjuk ellenőrizni
• Átlagsúly 1.985 kg
• A súlyok szórása 0.060kg
• Szignifikancia szint 5% (μp=0.05)
• Ehhez tartozó kritikus érték: 1.96
t-(student) próba
• T-próbával ellenőrizhetjük két ismeretlen minta középértékeire vonatkozó hipotézisünket, a két mintaátlag különbségének szignifikanciáját.
• A két mintaátlag különbözősége önmagában nem bizonyítja a két várható érték eltérését, erre a t-próba ad felvilágosítást
t-(student) próba
• A t-próba alkalmazásának előfeltétele, hogy a két valószínűségi változó követi a normális eloszlást, és szórása egyenlő
F-próba
• Mind az u-próbánál, mind a t-próbánál feltéteteleztünk valamit a sokaság szórásáról:
• Az u-próbánál azt, hogy ismert, t-próbánál pedig azt, hogy az összehasonlított sokaságok szórása azonos. A szórással kapcsolatos ezen hipotéziseink ellenőrzésére alkalmas az F-próba
F-próba
A nullhipotézis itt azt jelenti, hogy két normális eloszlású ismeretlen várható értékű sokaság szórása azonos (σ1=σ2)
A két sokaságból vett minta szórásnégyzeteinek hányadosa F-eloszlást követ
KÖSZÖNÖM
A
FIGYELMET!
Recommended