Upload
khatuska
View
206
Download
0
Tags:
Embed Size (px)
DESCRIPTION
statistika 2
Citation preview
Štatistika – druhá časť
(použitá literatúra je na požiadanie k dispozícii u autorky týchto učebných textov)
Analýza závislostí ∗∗∗∗ medzi 2 premennými
/skúmanie štatistických súvislostí je súčasťou tzv. bivariačnej analýzy/
∗∗∗∗ ide o štatistickú („voľnú“), nie matematickú (funkčnú) závislosť!
Prostredníctvom analýzy závislostí (súvislostí) sa zisťuje, či existuje nenáhodný vzťah medzi dvoma
premennými (sledovanými na jednej skupine probandov, t. j. v rámci jedného výberového súboru). Analýza
závislostí smeruje k číselnému vyjadreniu tesnosti (významnosti) štatistického vzťahu medzi
premennými pomocou tzv. korelačných, resp. kontingenčných koeficientov. Konkrétny postup závisí
v prvom rade od typu premenných vstupujúcich do analýzy (podrobnejšie o postupoch analýzy závislostí →
pozri ďalej); ak ide o premenné:
• kardinálne → vyčísľuje sa najčastejšie Pearsonov korelačný koeficient r;
• ordinálne → vyčísľuje sa Spearmanov korelačný koeficient R (príp. Kendalov koeficient);
• nominálne → vyčísľuje sa napríklad Cramerov kontingenčný koeficient V.
Treba pripomenúť, že prostredníctvom vyčíslenia spomínaných koeficientov možno získať len odhad
miery tesnosti štatistických vzťahov (ako ostatne všade v rámci inferenčnej štatistiky). Koeficienty totiž
vyčísľujeme na základe analýzy premenných v rámci výberového súboru, teda ide len o bodový odhad
koeficientov pre celú danú populáciu (základný súbor). Ako minimálny rozsah výberového súboru (ak
chceme naše zistenie zovšeobecniť pre základný súbor) sa odporúča n = 40.
KORELAČNÝ POČET / KORELAČNÁ ANALÝZA
V rámci korelačného počtu skúmame dve premenné (buď 2 kardinálne, 2 ordinálne alebo jednu
kardinálnu a jednu ordinálnu) z hľadiska toho, či je medzi nimi preukázateľná súvislosť, ako aj akého druhu
(lineárna-nelineárna, aká tesná) je táto súvislosť.
Charakter štatistického vzťahu medzi dvoma premennými nám môže priblížiť grafické dvojrozmerné
(máme dve osi) zachytenie premenných prostredníctvom tzv. bodových grafov / diagramov („scatter
plots“). V toto grafickom zobrazení sú usporiadané dvojice hodnôt premenných (každú jednu dvojicu tvoria
hodnoty dvoch premenných „namerané“ u jedného probanda) nanášané ako body do súradnicového systému
s dvoma osami: jedna os predstavuje jednu premennú (napr. X) a jej hodnoty a druhá os druhú premennú
(napr. Y) a jej hodnoty. Konkrétne hodnoty oboch premenných nám teda udávajú „miesto“ (súradnice) bodu,
ktorý danú usporiadanú dvojicu hodnôt modeluje. Príklad bodového diagramu je na nasledujúcom obrázku.
Obrázok: bodový diagram usporiadaných dvojíc hodnôt dvoch premenných
Regresná analýza
S korelačnou analýzou úzko súvisí ďalší štatistický postup, ktorým je tzv. regresná analýza.
V rámci nej ide o modelovanie vzťahov medzi premennými pomocou regresných priamok (ak ide
o lineárny∗∗∗∗ vzťah), resp. regresných kriviek (ak ide o nelineárny vzťah).
∗∗∗∗ lineárny → priamočiary; týkajúci sa len jedného smeru; majúci tvar alebo smer priamky; jednoznačný
vzťah (dá sa jednoznačne predpokladať, že s rastúcimi hodnotami jednej premennej budú „priamočiaro“ rásť
/klesať/ hodnoty druhej premennej)
Grafické zobrazenie vzťahov v regresnej analýze je zhodné s vyššie spomínaným grafickým zachytením
premenných v korelačnej analýze. Navyše je tu skupinou bodov, ktoré modelujú usporiadané dvojice hodnôt
premenných, „preložená“ priamka, resp. krivka, ktorá čo možno najlepšie aproximuje (približuje) priebeh
vzťahu medzi skúmanými premennými (ak nie je možné takúto „približnú“, modelovú priamku alebo krivku
nájsť, poukazuje to na neexistenciu závislosti medzi premennými).
Na nasledujúcom obrázku sú zachytené štyri rôzne situácie, ktoré môžu nastať pri grafickom zobrazení
vzťahov medzi premennými:
o prvá situácia naznačuje neexistenciu závislosti;
o druhá situácia naznačuje existenciu lineárnej závislosti pozitívnej (teda pozitívny korelačný vzťah →
hodnoty jednej premennej s rastom hodnôt druhej premennej taktiež rastú);
o tretia situácia naznačuje existenciu lineárnej závislosti negatívnej (teda negatívny korelačný vzťah →
hodnoty jednej premennej s rastom hodnôt druhej premennej – naopak – klesajú);
o štvrtá situácia naznačuje existenciu nelineárnej závislosti (vzťah nie je možné aproximovať priamkou,
ale krivkou)
82
84
86
88
90
92
94
84 86 88 90 92 94
premenná X
prem
enná
Y
Obrázok Grafické zachytenie rôznych štatistických vzťahov medzi dvoma premennými
V regresnej aj korelačnej analýze nám teda rovnako ide o skúmanie vzťahu medzi premennými. Rozdiel
medzi nimi spočíva v tom, že kým v rámci korelačnej analýzy sa predpokladá len určité „spojenie“ –
súvislosť medzi skúmanými premennými, ale nie ich vzájomné pôsobenie na seba, v regresnej analýze už
usudzujeme priamo aj o vplyve jednej premennej (tzv. nezávislej) na druhú (tzv. závislú). Regresná
analýza sa zaoberá predovšetkým tým, že vychádzajúc zo zisteného vzťahu medzi premennými predpovedá
na základe „správania“ nezávislej premennej to, ako sa bude „správať“ závislá premenná (musí však byť
zrejmé, ktorá premenná je nezávislá a ktorá závislá a či vôbec má pri daných premenných takého ponímanie
závislosti-nezávislosti zmysel!). Za pomoci regresnej analýzy možno teda na základe poznania hodnoty
jednej premennej odhadnúť hodnotu druhej premennej.
Vyššie popísaná regresná analýza (s jednou nezávislou a jednou závislou premennou) sa označuje ako
jednoduchá regresná analýza. Existujú totiž aj také postupy regresnej analýzy, ktoré predpokladajú a skúmajú
vplyv dvoch alebo aj viacerých nezávislých premenných na závislú premennú – tu už ide o tzv. viacnásobnú
regresnú analýzu.
1) Postup pri analýze závislosti kardinálnych (metrických, intervalových) premenných →
parametrická korelácia
Ak chceme zistiť, či existuje štatistický vzťah (závislosť) medzi dvoma kardinálnymi premennými,
pričom sú splnené podmienky (parametre), že obe premenné majú normálne rozdelenie a dá sa
predpokladať, že pôjde o lineárnu závislosť, použijeme ako štatistický ukazovateľ vzťahu parametrický
žiadna závislosť
lineár. štatistic. závisl.- pozit.
lineár. štat. závislosť- negat.
štat. závislosť nelineárna
Y Y
Y Y
X X
X X
Pearsonov korelačný koeficient (r). Ak nie sú splnené vyššie uvedené podmienky (normalita rozdelenia,
linearita vzťahu), použitie Pearsonovho koeficientu nie je vhodné → musíme použiť (aj pri kardinálnych
premenných) neparametrický Spearmanov (resp. iný poradový) koeficient /pozri ďalej pri analýze závislosti
ordinálnych premenných/.
Výpočet Pearsonovho korelačného koeficientu sa odvíja od toho, že v prípade normálneho rozdelenia
premenných sú tieto charakterizované svojím priemerom a smerodajnou odchýlkou (spomínané
charakteristiky preto figurujú aj vo vzorci pre výpočet koeficientu).
Dôležitým ukazovateľom prípadného vzťahu medzi dvoma premennými je spoločné kolísanie
(premenlivosť) hodnôt týchto premenných (či už „súhlasné“: s rastom hodnôt jednej rastú i hodnoty druhej;
alebo „nesúhlasné“: s rastom hodnôt jednej klesajú hodnoty druhej). Toto spoločné kolísanie hodnôt dvoch
premenných sa označuje ako kovariancia (ko-variancia → „spolu-menlivosť“). Kovarianciu možno chápať,
a teda aj vyčísliť, ako spoločný rozptyl dvoch sledovaných premenných:
sx.y = 1n
)APy).(APx(n
1i
yixi
−
−−∑=
, kde AP je aritmetický priemer hodnôt príslušnej premennej, za xi
a yi sa postupne dosádzajú konkrétne jednotlivé hodnoty premenných a n je veľkosť nášho výberového
súboru (počet osôb v našej vzorke).
/pozn.: všimnite si paralelu so vzorcom pre rozptyl jednej premennej: s2 = 1n
)APx).(APx(n
1i
xixi
−
−−∑= /
Pearsonov korelačný koeficient r je vlastne normovanou (štandardizovanou) kovarianciou dvoch
premenných (kovarianciou vydelenou súčinom smerodajných odchýlok týchto premenných), teda:
r = yx
y,x
s.s
s, kde sx,y je kovariancia, sx je smerodajná odchýlka jednej premennej a sy
smerodajná odchýlka druhej premennej.
Koeficient r nadobúda hodnoty od –1 do 1 (vrátane), pričom hodnoty koeficientu blížiace sa k 1 (resp. k
–1) poukazujú na existenciu veľmi silného korelačného vzťahu (silnej závislosti) medzi skúmanými
premennými a hodnoty blížiace sa (z oboch strán) k nule poukazujú na neexistenciu lineárneho vzťahu medzi
premennými (len lineárneho – tzn. že nelineárna závislosť ešte stále medzi nimi byť môže). Záporný
korelačný koeficient (ak je jeho absolútna hodnota dostatočne vysoká) poukazuje na existenciu negatívneho
(„nesúhlasného“) korelačného vzťahu; kladný koeficient (ak je jeho absolútna hodnota dostatočne vysoká) na
existenciu pozitívneho („súhlasného“) korelačného vzťahu medzi dvoma premennými.
Interpretácia korelačných koeficientov
Interpretácia korelačného koeficientu je veľmi dôležitá (cieľom korelačnej analýzy ako takej nie je len
číselné vyjadrenie koeficientov, ale práve ich logický a zmysluplný výklad; ostatne – všade v štatistike je to
tak). Či štatistický vzťah medzi dvoma premennými možno považovať za významný (či ide o „tesnú“
závislosť medzi premennými), závisí aj na veľkosti (rozsahu) nášho výberového súboru (pri väčšom
výberovom súbore môže poukazovať aj nižšia absolútna hodnota koeficientu na významný vzťah, kým pri
menšom súbore nám ani relatívne vysoká absolútna hodnota koeficientu nemusí postačiť na podporenie
predpokladu o existencii závislosti medzi premennými). Vyčíslené koeficienty (ich absolútne hodnoty) sa
preto porovnávajú s tabuľkou. V tejto tabuľke sú stanovené minimálne hodnoty korelačných koeficientov,
pri ktorých sa ešte dá predpokladať významný štatistický vzťah, pričom je zohľadnená aj veľkosť
výberových súborov, pre ktoré boli konkrétne koeficienty počítané. V tabuľke sa okrem toho berie tiež do
úvahy tzv. hladina významnosti α, ktorá sa udáva desatinným číslom ako 1 – spoľahlivosť, s ktorou chceme
o potenciálnom vzťahu medzi dvoma premennými vyvodzovať závery. V prípade, že chceme dosiahnuť
spoľahlivosť 95%, hladina významnosti α bude 1 – 0,95 = 0,05 → vtedy môžeme hovoriť – ak absolútna
hodnota nami vyčísleného koeficientu dosiahne, resp. prekročí tabuľkovú kritickú minimálnu hodnotu –
o štatisticky významnom korelačnom vzťahu medzi premennými; v prípade, že chceme dosiahnuť
spoľahlivosť 99%, hladina významnosti α bude 1 – 0,99 = 0,01 → vtedy môžeme hovoriť – ak absolútna
hodnota nami vyčísleného koeficientu dosiahne, resp. prekročí tabuľkovú kritickú minimálnu hodnotu –
o štatisticky vysoko významnom korelačnom vzťahu medzi premennými.
Skutočnými „úskaliami“ interpretácie korelačných koeficientov sú situácie, keď sa nám potvrdí (na
základe porovnania nášho koeficientu s tabuľkovou kritickou hodnotou) významnosť vzťahu, a predsa –
logicky – nemôže ísť o skutočný vzťah medzi premennými. Hodnota korelačného koeficientu totiž môže byť
vysoká aj v prípade, že závislosť medzi premennými je čisto náhodná. Ako pekný príklad takéhoto
náhodného vzťahu uvádza H. Swoboda (1977) súvislosť medzi rastom cien akcií na burze so skracovaním sa
priemernej dĺžky sukní žien (absolútna hodnota vyčísleného korelačného koeficientu bola vraj veľmi vysoká
– pritom tieto dve premenné logicky evidentne spolu nesúvisia...). Nasledujúci obrázok to vtipne ilustruje.
Obrázok: Ilustrácia náhodného korelačného vzťahu medzi cenami akcií na burze a dĺžkou sukní (zdroj:
Swodoba, 1977, s. 304)
Rovnako problematické z hľadiska interpretácie korelačných koeficientov môžu byť zdanlivé vzťahy
medzi premennými. Ide o takú súvislosť medzi dvoma premennými, za ktorou stojí nejaká ďalšia premenná,
ktorá vôbec nebola zahrnutá ani zohľadnená v procese korelačnej analýzy. Ako príklad uvádza – opäť veľmi
vtipne – H. Swoboda (1977) súvislosť (zdanlivú) medzi rastom príjmov pastorov a rastom cien alkoholu
(skôr než by sme „skĺzli“ k interpretácii tohto kvázi-vzťahu tým, že si snáď pastori zvyšujú svoju životnú
úroveň predajom alkoholu, treba si uvedomiť, že za rastom oboch premenných môže byť napr. taká ďalšia
premenná, akou je inflácia, ktorá má za následok rast príjmov i cien všeobecne...).
Nakoniec treba ešte dôrazne upozorniť na to, že ani štatisticky preukázaný korelačný vzťah sám osebe
nevypovedá nič o príčino-dôsledkových súvislostiach. Logicky sa síce môžeme pokúsiť nájsť kauzalitu
(príčinnosť) medzi skúmanými premennými, medzi ktorými sa preukázal významný štatistický vzťah,
samotná korelačná analýza nám však žiadne argumenty pre kauzálne vzťahy nemôže poskytnúť.
V sociálnych vedách, resp. vedách o človeku sa môžu kauzálne vzťahy v pravom zmysle slova preukázať len
na základe seriózne realizovaného kontrolovaného experimentu, nikdy nie len na základe korelačnej, či
akejkoľvek inej štatistickej analýzy premenných!
2) Postup pri analýze závislosti ordinálnych (poradových) premenných → neparametrická
korelácia
Ak chceme zistiť, či existuje štatistický vzťah (závislosť) medzi dvoma ordinálnymi premennými (resp.
medzi jednou kardinálnou a jednou ordinálnou premennou, alebo medzi dvoma kardinálnymi premennými,
z ktorých aspoň jedna nespĺňa podmienky pre použitie parametrického Pearsonovho koeficientu), použijeme
ako štatistický ukazovateľ vzťahu napr. neparametrický Spearmanov korelačný koeficient (R). Spearmanov
korelačný koeficient je nezávislý od tvaru rozdelenia premenných (t. j. nemusí ísť o normálne rozdelené
premenné) a má schopnosť podporiť aj predpoklad o nelineárnom vzťahu medzi dvoma premennými.
Výpočet Spearmanovho korelačného koeficientu sa odvíja od toho, že každej hodnote premennej možno
priradiť poradie (pri opakujúcich sa hodnotách → priemerné poradie týchto rovnakých hodnôt: postup pri
určovaní priemerných poradí je popísaný v texte „Spracovanie údajov v exeli“). Toto poradie udáva miesto
konkrétnej hodnoty v rade hodnôt danej premennej usporiadaných od najmenšej po najväčšiu (ak ide
o ordinálne premenné, hodnoty premennej ako také sú vlastne poradiami; ak ide o kardinálnu premennú,
skutočné namerané hodnoty /napr. skóre/ sa poradiami nahrádzajú). Prostredníctvom vyčíslenia
Spearmanovho koeficientu R sa vlastne hodnotí rozdiel medzi poradím hodnoty jednej premennej (napr. X)
a poradím hodnoty druhej premennej (napr. Y) v rámci každej usporiadanej dvojice hodnôt premenných.
Spearmanov korelačný koeficient R sa počíta podľa nasledujúceho vzorca:
R = 1 – )1n.(n²
D².6n
1i
−
∑=
, kde D je rozdiel medzi poradiami navzájom si prislúchajúcich hodnôt jednej a
druhej premennej, t. j.: D = poradie xi – poradie yi, pričom xi a yi tvoria usporiadanú dvojicu (t. j. obe boli
zistené u toho istého probanda); n je veľkosť (rozsah) nášho výberového súboru (počet probandov,
u ktorých sa sledovali skúmané premenné).
Spearmanov koeficient R nadobúda hodnoty od –1 do 1 (vrátane), pričom ich význam je rovnaký ako
u Pearsonovho korelačného koeficientu → hodnoty koeficientu blížiace sa k 1 (resp. k –1) poukazujú na
existenciu veľmi silného korelačného vzťahu (silnej závislosti) medzi skúmanými premennými a hodnoty
blížiace sa (z oboch strán) k nule poukazujú na neexistenciu vzťahu medzi premennými. Záporný korelačný
koeficient poukazuje na existenciu negatívneho („nesúhlasného“) korelačného vzťahu; kladný koeficient na
existenciu pozitívneho („súhlasného“) korelačného vzťahu medzi dvoma premennými.
Pre n (rozsah súboru) od 8 vyššie možno na posúdenie Spearmanovho koeficientu použiť tú istú
tabuľku kritických hodnôt ako pre Pearsonov korelačný koeficient (aj spôsob jeho posudzovania je
analogický). Rovnako aj pre interpretáciu Spearmanovho koeficientu platí všetko to, čo bolo uvedené vyššie
v súvislosti s interpretáciou Pearsonovho koeficientu (tie isté „úskalia“ interpretácie).
3) Postup pri analýze súvislosti nominálnych (kvalitatívnych) premenných → kontingencia
(kontingencia: z lat.; spojenie, stretnutie → t. j. spoločný výskyt)
Posúdenie súvislosti (závislosti) nominálnych premenných robíme v dvoch základných krokoch:
1. výpočet χ2-štatistiky, podľa ktorej usudzujeme, či vôbec existuje alebo neexistuje medzi premennými
súvislosť (ide o tzv. χ2-test nezávislosti);
2. výpočet tzv. Cramerovho V-koeficientu kontingencie (V je z intervalu od 0 do 1), na základe hodnoty
ktorého usudzujeme o miere súvislosti (t. j. aká tesná je súvislosť).
Analýza súvislosti (resp. závislosti) nominálnych premenných je vo svojej podstate (v tom, o čo ide)
analogická ku korelačnej analýze. Samotný jej proces je však postavený na úplne odlišnom princípe –
nemôže totiž vychádzať z priemerov a smerodajných odchýlok (ako pri kardinálnych premenných), ani
z poradí (ako pri ordinálnych premenných), a tak vychádza z rozdelenia početností daných nominálnych
premenných. Ide vlastne o analýzu čiastkových početností jednej premennej podľa druhej – t. j. početnosť
jednej premennej je roztriedená podľa foriem (úrovní) druhej premennej. Tieto čiastkové početnosti
zachytávajú tzv. kontingenčné tabuľky.
Kontingenčná tabuľka má určitý počet riadkov (r) a určitý počet stĺpcov (s), podľa toho, koľko foriem,
resp. úrovní nadobúda prvá – riadková – premenná (napr. Y ⇒ počet riadkov) a koľko druhá – stĺpcová –
premenná (napr. X ⇒ počet stĺpcov). Hovoríme o kontingenčnej tabuľke typu r x s („r-krát-s“). Všeobecná
verzia kontingenčnej tabuľky typu r x s je na nasledujúcom obrázku.
FORMY/ÚROVNE PREMENNÝCH
X1 X2 .... Xs RIADKOVÉ SÚČTY
Y1 n1,1 n1,2 ... n1,s n1, . Y2 n2,1 n2,2 ... n2,s n2, . .... ... ... ... ... ... Yr nr,1 nr,2 ... nr,s nr, .
STĹPCOVÉ SÚČTY n. ,1 n. ,2 ... n. ,s n
Obrázok: Všeobecná kontingenčná tabuľka r x s
(r je počet riadkov, s je počet stĺpcov; Xi, Yi sú formy premenných, nr,s sú príslušné čiastkové
početnosti daných riadkov a stĺpcov; n je celkový počet osôb, resp. pozorovaní)
Postup pri analýze súvislosti dvoch nominálnych premenných:
• zostavenie kontingenčnej tabuľky s empirickými (skutočnými, aktuálnymi) početnosťami;
• zostavenie kontingenčnej tabuľky s očakávanými (teoretickými) početnosťami podľa:
n
nnon
srsr
., = , kde onr,s je očakávaná početnosť príslušného riadku a stĺpca;
• výpočet χ2-štatistiky podľa: χ2 =∑∑r s
s,r
sr,r,s
on
)²n- (on
1 1
(alebo pomocou funkcií CHITEST a CHIINV
v exceli) + jej posúdenie∗;
• výpočet Cramerovho V-koeficientu kontingencie podľa: V =)1m.(n
2
−
χ , kde m je menšie
z r (počet riadkov), s (počet stĺpcov) + jeho posúdenie → napr. podľa Cohenovej škály:
0,1 – 0,3 → malá súvislosť
0,3 – 0,5 → stredná súvislosť
nad 0,5 → značná súvislosť.
∗ vypočítanú χ2-štatistiku môžeme posúdiť dvoma spôsobmi:
1. porovnaním hodnoty χ2-štatistiky s tabuľkovou kritickou hodnotou → ak platí, že χ2 > χ2krit., tak
možno predpokladať existenciu súvislosti medzi premennými pri zvolenej hladine významnosti;
v opačnom prípade hovoríme o neexistencii súvislosti (kritickú hodnotu χ2 v tabuľke vyhľadáme pre
zvolenú hladinu významnosti α = 0,05, resp. α = 0,01 a pre príslušný počet stupňov voľnosti
υ = (r-1).(s-1) /t. j. počet foriem riadkovej premennej zmenšený o 1 krát počet foriem stĺpcovej
premennej zmenšený o 1/; hodnota χ2-štatistiky je tým väčšia, čím väčšie sú rozdiely medzi
empirickými a očakávanými početnosťami, t. j. čím väčšie sú tieto rozdiely, tým skôr bude medzi
skúmanými premennými súvislosť (χ2-testom nezávislosti sa vlastne skúma to, či formy jednej
premennej nejako „ovplyvnia“, narušia výskyt foriem druhej premennej);
2. porovnaním pravdepodobnostnej hodnoty p so zvolenou hladinou významnosti α → ak platí, že
p < α, tak možno predpokladať existenciu súvislosti medzi premennými pri zvolenej hladine
významnosti; v opačnom prípade hovoríme o neexistencii súvislosti (p-hodnotu vypočíta exel po
zadaní funkcie CHITEST, resp. dá sa vyčísliť aj s pomocou iných štatistických softvérov; ide vlastne
o prevedenie χ2-hodnoty do pravdepodobnostnej mierky, kde p udáva pravdepodobnosť toho, že sa
pomýlim, ak sa prikloním k predpokladu, že existuje súvislosť medzi premennými: preto len ak je
dostatočne malá (t. j. pravdepodobnosť omylu je mizivá) môžem súvislosť predpokladať.
Treba pripomenúť, že χ2-test nezávislosti (χ2-štatistiku) možno použiť len, ak je aspoň 80%
čiastkových očakávaných početností väčších ako 4 a ak ani jedna očakávaná početnosť nie je nulová.
V prípade, že táto podmienka nie je splnená, je nutné zlúčiť niektoré riadky alebo stĺpce tak, aby sme
toto dosiahli (pri dostatočne veľkom výberovom súbore býva táto podmienka zväčša splnená).
Testovanie hypotéz
Testovanie hypotéz je jednou z najdôležitejších oblastí inferenčnej štatistiky (i. š. → usudzuje sa
o vlastnostiach populácie /základného súboru/ na základe preskúmania daných vlastností vo výberovom
súbore). Závery vyplývajúce z testovania hypotéz sú vždy len pravdepodobnostnými úsudkami: tvrdiť niečo
s istotou na základe štatistického testovania nemožno.
Štatistická hypotéza je predpoklad, ktorého formulácia je viazaná na konkrétny štatistický test (na
rozdiel od výskumnej hypotézy, ktorej formulácia vychádza z riešeného výskumného problému). V rámci
štatistického testovania sa testuje vždy tzv. nulová hypotéza H0 (voči alternatívnej hypotéze H1). Na
základe štatistického testovania nulovú hypotézu H0 buď nezamietneme alebo zamietneme. Zamietnuť
nulovú hypotézu možno len vtedy, ak sú s ňom údaje o sledovanej premennej získané na výberovom súbore
nezlučiteľné (presnejšie: sú zlučiteľné, „súhlasia“ s nulovou hypotézou len s veľmi malou
pravdepodobnosťou, t. j. je málo pravdepodobné, že by sme „namerali“ práve také údaje, ak by nulová
hypotéza mala platiť). V prípade zamietnutia nulovej hypotézy sa prikláňame k predpokladu, že platí
alternatívna hypotéza H1: hovoríme, že zamietame H0 v prospech H1.
Štatistický test možno chápať ako nástroj, za pomoci ktorého sa rozhodujeme (na základe údajov z
výberového súboru) medzi nezamietnutím H0 a zamietnutím H0 v prospech H1. Spočíva vo výpočte tzv.
testovacej štatistiky, ktorej hodnota sa potom posudzuje z hľadiska pravdepodobnosti-nepravdepodobnosti
toho, že bude taká, akú sme ju vypočítali, v prípade, že by mala platiť H0 (t. j. nakoľko by bola nami
vypočítaná hodnota testovacej štatistiky pravdepodobná, keby platila H0 → ak by mala byť len veľmi málo
pravdepodobná: H0 môžeme zamietnuť).
Pri testovaní hypotéz sa môžeme dopustiť dvoch typov chýb: tzv. chyby 1. druhu a chyby 2. druhu.
Chybu 1. druhu urobíme, ak zamietneme nulovú hypotézu napriek tomu, že je správna. Chybu 2.
druhu urobíme, ak nezamietneme nulovú hypotézu napriek tomu, že je nesprávna. Obe chyby bývajú
udávané v podobe miery rizika danej chyby vyjadrenej pravdepodobnostným číslom (napr. ak riziko chyby 1.
druhu je 5%, miera tohto rizika sa udáva ako 0,05).
Miera (pravdepodobnosť) ohrozenia chybou 1. druhu býva označovaná ako hladina významnosti,
resp. symbolom α. Výskumník si veľkosť α volí sám: konkrétna α teda vyjadruje mieru ochoty výskumníka
zmieriť sa s rizikom, že zamietne H0, aj keď je správna. Potom číslo (1 – α) môžeme chápať ako mieru
spoľahlivosti, s ktorou chce výskumník zamietnuť H0 v prospech H1.
Miera (pravdepodobnosť) ohrozenia chybou 2. druhu býva označovaná symbolom β. Väčšinou
v štatistickom spracovávaní údajom nejako zjavne nefiguruje, t. j. výskumník si jej veľkosť nevolí. Riziko
chyby 2. druhu (β) môže výskumník znížiť výberom vhodného štatistického testu. Taktiež s rastom rozsahu
výberového súboru (n) sa miera rizika chyby 2. druhu zmenšuje. Číslo (1 – β) možno chápať ako silu testu
(aplikovaného na údaje výberového súboru s určitým rozsahom).
Medzi mierou rizika chyba 1. druhu a mierou rizika chyby 2. druhu je, žiaľ, vzťah nepriamej úmernosti
(t. j. čím menšiu α si výskumník zvolí, s tým väčšou β musí počítať a naopak).
Štatistické testy hypotéz možno v zásade rozdeliť na tzv. parametrické a tzv. neparametrické testy
(analogicky ako sme mali parametrický a neparametrický koeficient korelácie v časti o analýze závislostí
dvoch premenných).
Parametrické testy možno použiť, len ak testujeme medziskupinové rozdiely v kardinálnej premennej.
Do vzorca pre výpočet testovacej štatistiky totiž vstupujú také charakteristiky premennej, ako sú aritmetický
priemer, smerodajná odchýlka, resp. rozptyl (ktoré možno vyčísliť práve len pre kardinálne premenné). Ďalej
musí byť splnená aj podmienka normality rozdelenia sledovanej premennej. Ak táto podmienka nie je
splnená, použitie parametrických testov nie je vhodné → mali by sme použiť (aj pri kardinálnych
premenných) neparametrické testovacie postupy.
Neparametrické testy sú teda nezávislé od typu rozdelenia premennej: možno ich použiť aj ak kardinálna
premenná nemá normálne rozdelenie, ako aj v prípade, že testujeme potenciálne medziskupinové rozdiely
v ordinálnej premennej. Do vzorca pre výpočet testovacej štatistiky tu najčastejšie vstupujú poradia (buď
priamo ako úrovne ordinálnej/poradovej premennej, alebo – v prípade kardinálnej premennej – ako poradia,
ktoré možno priradiť hodnotám, ktoré táto premenná nadobúda).
Pre neparametrické postupy je v porovnaní s parametrickými charakteristická menšia sila testu. S ich
použitím je spojené väčšie riziko, že nezamietneme nulovú hypotézu napriek tomu, že je nesprávna (t. j. sú
menej citlivé voči odchýlkam našich údajov od nulovej hypotézy); ide o vyššie spomínané riziko chyby 2.
druhu (β). Ak teda testujeme potenciálne medziskupinové rozdiely v kardinálnej premennej,
uprednostňujeme – ak je to možné (ak je splnená podmienka normality rozdelenia) – parametrické postupy,
pretože sú takpovediac „silnejšie“.
Základné kroky pri testovaní hypotéz
1. formulácia H0 a H1
H0 je zvyčajne predpoklad o neexistencii rozdielu (rozdiel je nulový, resp. rozdiel je zanedbateľný, je len
čisto náhodný → preto: nulová hypotéza).
H1 je alternatíva voči H0, t. j. je to predpoklad o existencii rozdielu. Ak je formulovaná len ako
predpoklad o existencie nešpecifického rozdielu (teda v zmysle že prvý parameter sa nerovná druhému
parametru), hovoríme o obojstrannej alternatíve /obojstranne formulovanej alternatívnej hypotéze/ →
nezáleží na tom, či je rozdiel v zmysle „je väčší než“ alebo v zmysle „je menší než“; zahŕňa obe tieto
„strany“. Ak je formulovaná ako predpoklad o existencie špecifického rozdielu (teda v zmysle že prvý
parameter je väčší /menší/ než druhý parameter), hovoríme o jednostrannej alternatíve /jednostranne
formulovanej alternatívnej hypotéze/ → tu už ide o to, aby bol rozdiel práve v zmysle „je väčší než“ /„je
menší než“/; jednostranná alternatíva pripúšťa rozdiel len do jednej zo „strán“.
Výskumníkovi väčšinou „ide“ o zamietnutie nulovej hypotézy v prospech alternatívnej hypotézy („chce“
uprednostniť predpoklad o existencii medziskupinového rozdielu v nejakej premennej pred predpokladom
o jeho neexistencii), hoci sú, samozrejme, situácie keď toto neplatí (takouto výnimkou je napr. overovanie
predpokladu o normalite rozdelenia premennej – tu by výskumník „radšej uprednostnil“ predpoklad
o neexistencii rozdielu medzi skúmaným rozdelením a normálnym rozdelením premennej).
2. zvolenie prijateľnej miery rizika chyby 1. druhu, t. j. hladiny významnosti (α)
Práve preto, že výskumníkovi väčšinou „ide“ o zamietnutie nulovej hypotézy, mal by si mieru rizika
chyby 1. druhu (t. j. rizika zamietnutia nulovej hypotézy napriek tomu, že je správna) voliť čo najmenšiu.
Štandardne sa vo vedách o človeku používajú dve základné úrovne miery tohto rizika: 5-percentná (t. j. α =
0,05) a 1-percentná (t. j. α = 0,01). Pomocou štatistického softvéru možno mieru rizika chyby 1. druhu pre
konkrétny štatistický test a konkrétne údaje vyčísliť veľmi presne (označuje sa ako p-hodnota, „significance“
– významnosť, resp. „probability“, t. j. pravdepodobnosť chyby 1. druhu), táto sa potom porovnáva so
zvolenou α (t. j. s mierou rizika, ktoré je ešte výskumník ochotný pripustiť).
3. výpočet testovacej štatistiky (testovacieho kritéria)
Testovaciu štatistiku počítanú podľa príslušného vzorca pre ten-ktorý test (ako bola napr. aj štatistika χ2
pre χ2-test nezávislosti v časti o analýze súvislosti nominálnych premenných) možno chápať ako mieru
nezlučiteľnosti údajov získaných na našom výberovom súbore s nulovou hypotézou (čím vyššia je jej
absolútna hodnota, tým skôr môžeme H0 považovať za nesprávnu). Je teda základným východiskom pre
úvahy o výslednom odporučení/neodporučení zamietnutia H0 v prospech H1.
Ak počítame testovaciu štatistiku (t.š.) „ručne“ podľa príslušného vzorca, treba ju následne porovnať
s tabuľkovou kritickou hodnotou daných štatistík (t.š.krit.) berúc do úvahy zvolenú hladinu významnosti
a rozsah nášho konkrétneho súboru (ten sa premietne do tzv. stupňov voľnosti označovaných symbolom υ).
Ak platí, že t.š. > t.š.krit., možno predpokladať nesprávnosť nulovej hypotézy o neexistencii rozdielu (teda sa
dá predpokladať, že rozdiel existuje). V opačnom prípade (t.š. < t.š.krit) zostávame pri predpoklade
o platnosti H0 (teda že rozdiel neexistuje).
Ak testujeme štatistickú hypotézu pomocou štatistického softvéru, program nám „vyhodí“ testovaciu
štatistiku už prevedenú do „pravdepodobnostnej miery“ (t. j. vyčísli nám hneď rovno
pravdepodobnosť/riziko toho, že by sme sa pri zamietnutí H0 dopustili omylu; ide vlastne o chybu 1. druhu
v danom konkrétnom prípade testovania). Takto vyjadrená testovacia štatistika sa zvykne nazývať p-hodnota
(ako už bolo vyššie naznačené) a býva označovaná písmenom p. Samotný proces testovania je však založený
na tom istom princípe, ako porovnávanie testovacích štatistík s tabuľkovými kritickými hodnotami (program
taktiež „niekde v pozadí“ – „sám pre seba“ počíta testovaciu štatistiku, nám ju však rovno vyjadrí ako riziko
chyby 1. druhu pri našom konkrétnom rozsahu výberu), pričom však máme situáciu uľahčenú: nemusíme
totiž porovnávať testovaciu štatistiku v kritickou hodnotou prácne vyhľadanou v tabuľke kritických hodnôt,
ale stačí nám posúdiť vyčíslené riziko chyby 1. druhu (teda riziko neadekvátneho zamietnutia H0). Toto
posudzujeme tak, že ho porovnáme s nami zvolenou hladinou významnosti α (teda mierou rizika omylu,
ktorú sme ako výskumníci ešte ochotní pripustiť). Ak je pravdepodobnosť chyby 1. druhu (t. j. riziko
zamietnutia H0, aj keď je správna) v našom konkrétnom prípade veľmi malá (menšia ako 0,05), resp. úplne
mizivá (menšia ako 0,01), môžeme odporučiť zamietnutie H0 v prospech H1. Porovnávame teda softvérom
vyčíslenú p-hodnotu s nami zvolenou α, a ak platí: p < α, možno kľudne (s nepatrným rizikom omylu)
predpokladať nesprávnosť nulovej hypotézy o neexistencii rozdielu (a teda predpokladať, že rozdiel existuje).
V opačnom prípade (p > α) musíme však zostať pri predpoklade o platnosti H0 (teda že rozdiel neexistuje),
lebo riziko, že sa pomýlime a zamietneme správnu nulovú hypotézu je pre nás príliš vysoké.
4. interpretácia výsledku (odporučenie vo vzťahu k H0)
Postup pri interpretácii výsledkov štatistického testovania bol vlastne naznačený už v predchádzajúcom
kroku → či H0 zamietneme v prospech H1 alebo nie, závisí od výsledku porovnania hodnoty testovacej
štatistiky s kritickou hodnotou, resp. porovnania p-hodnoty s hladinou významnosti α. Ak nám hodnota
testovacej štatistiky (resp. p-hodnota) umožní H0 zamietnuť na zvolenej hladine významnosti α = 0,05 (t. j. p
je už menšie ako 0,05, ale ešte väčšie ako 0,01), možno tento výsledok označiť ako štatisticky významný
(resp. signifikantný). Ak nám hodnota testovacej štatistiky (resp. p-hodnota) umožní H0 zamietnuť na
zvolenej hladine významnosti α = 0,01 (t. j. p je už menšie aj ako 0,01), možno tento výsledok označiť ako
štatisticky vysoko významný (resp. vysoko signifikantný).
Treba si však uvedomiť, že štatistická významnosť nevypovedá vôbec nič o vedeckej alebo praktickej
dôležitosti výsledku testovania, resp. nášho výskumu → vzťahuje sa len k samotnému procesu štatistického
testovania, nie k nášmu konkrétnemu výskumnému problému (t. j. aj keď výsledok štatistického testovania
interpretujeme ako vysoko signifikantný, neznamená to ešte, že sme „vyskúmali“ niečo prevratné).
Vyjadrenia o výsledkoch štatistického testovania by nikdy nemali mať formu „silných tvrdení“ typu:
„štatisticky sme potvrdili platnosť teórie“, „hypotézu sme dokázali“ a pod., vhodnejšie je voliť skôr
„opatrnejšiu“ formuláciu v zmysle „na základe štatistického testovania možno predpokladať, že...“,
„štatistická analýza našich údajov podporuje predpoklad o...“, „danú hypotézu možno po štatistickom
testovaní akceptovať“ a pod.
Testovanie rozdielov v parametroch
(testy významnosti rozdielov v parametroch)
Prehľad o testoch významnosti rozdielov v parametroch (ako sú napr. priemer, rozptyl) si možno utvoriť
na základe nasledujúceho rozdelenia testov podľa testových situácií. Ďalej budú podrobnejšie popísané len
parametrické testovacie postupy, ničmenej základný princíp testovania je analogický aj u neparametrických
testov.
I. Testovanie rozdielov medzi dvoma skupinami
1. testovanie významnosti rozdielov medzi dvoma rozptylmi: parametrický F-test
2. testovanie významnosti rozdielov medzi dvoma priemermi:
a/ parametrický t-test pre dva nezávislé výbery (Studentov t-test) / neparametrický Mannov-
Whitneyov U-test (resp. Wilcoxonov dvojvýberový test)
b/ parametrický párový t-test (t-test pre závislé výbery) / neparametrický Wilcoxonov
jednovýberový test
II. Testovanie rozdielov medzi viacerými skupinami → testovanie významnosti rozdielov medzi
viacerými priemermi: parametrická ANOVA (analýza rozptylu) / neparametrický Kruskalov-Wallisov
test
Parametrické testy
F-test
Ak máme dva výberové súbory a chceme porovnať rozptyly sledovanej normálne rozdelenej kardinálnej
premennej v týchto výberoch (t. j. či ich možno pokladať za zhruba rovnaké alebo nie), vhodným
štatistickým testom je F-test. Nulovú hypotézu H0 v rámci tohto testovania symbolicky vyjadrujeme
nasledovne:
H0: σ1² = σ2² (teda: rozdiel medzi prvým a druhým rozptylom je nulový, resp. rozdiel je nevýznamný, len
čisto náhodný).
Alternatívna hypotéza má zväčša formu obojstrannej alternatívy, teda:
H1: σ1² nerovná sa σ2² (teda: medzi rozptylmi existuje nenáhodný rozdiel; nie sú rovnaké).
(pre zaujímavosť: vzorec pre výpočet testovacej štatistiky má tvar: F = ²²
2
1
ss
, kde s1² je rozptyl prvého
výberového súboru a s2² je rozptyl druhého výberového súboru; do čitateľa zlomku treba dať väčší z oboch
rozptylov).
Ak je vypočítaná hodnota F-štatistiky väčšia ako kritická tabuľková∗ F-hodnota, t. j. F > Fkrit., resp. ak je
softvérom vyčíslená p-hodnota menšia ako nami zvolená hladina významnosti α, t. j. p < α, zamietam nulovú
hypotézu H0 o neexistencii rozdielu medzi rozptylom prvého a rozptylom druhého výberu v prospech
alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi sledovanými rozptylmi.
∗ v tabuľkách vyhľadáme kritickú F-hodnotu pre 2
α , pretože alternatívnu hypotézu máme sformulovanú
ako obojstrannú alternatívu (t. j. ak sme si ako výskumníci zvolili hladinu významnosti napr. α = 0,05,
kritickú F-hodnotu hľadáme v tabuľkách tzv. F-rozdelenia pre α = 0,025); ďalej treba zobrať do úvahy aj
rozsahy našich dvoch výberových súborov (n1 a n2), ktoré sa premietnu do tzv. stupňov voľnosti
označovaných symbolom υ /„ný“/, pričom υ1 = n1 – 1 a υ2 = n2 – 1 (kritickú hodnotu hľadáme teda aj pre
príslušné stupne voľnosti)
T-testy
Ak máme dva výberové súbory (prípadne jeden a ten istý výberový súbor, ale premennú sledujeme
a „meriame“ za odlišných okolností či s určitým časovým posunom) a chceme porovnať aritmetické priemery
sledovanej normálne rozdelenej kardinálnej premennej v týchto výberoch (t. j. či ich možno pokladať za
zhruba rovnaké alebo nie), použijeme niektorý z t-testov. Ako už bolo naznačené existuje viacero modifikácií
t-testov → vhodnú modifikáciu (vhodný „druh“) t-testu si výskumník volí podľa testovacej situácie.
V prvom prípade môže byť táto situácia taká, že máme jednoducho dva nezávislé výberové súbory, ktoré
sa nijak navzájom neovplyvňujú, nepôsobia na seba (z hľadiska hodnôt sledovanej premennej v týchto
súboroch): napr. súbor chlapcov a súbor dievčat. Vtedy je vhodným testovacím nástrojom (ako už samotný
jeho názov naznačuje) tzv. t-test pre dva nezávislé výbery. Aj pre takúto situáciu však ešte existujú dve
modifikácie t-testu pre dva nezávislé výbery, a to: t-test pre dva nezávislé výbery s rovnakým rozptylom*
: t-test pre dva nezávislé výbery s nerovnakým rozptylom*
* zisťujeme to F-testom
V druhom prípade môže byť testovacia situácia taká, že máme v podstate len jeden jediný výberový
súbor, v ktorom kardinálnu premennú sledujeme a „meriame“ za odlišných okolností či s určitým časovým
posunom; táto premenná je vlastne zisťovaná dvakrát. Hodnoty premennej získané v rámci týchto dvoch
meraní sú teda „spárované“, tvoria usporiadané dvojice (u jedného probanda „nameriame“ dve hodnoty tej
istej premennej). Testuje sa tak vlastne rozdiel nie medzi dvoma výbermi, ale medzi dvoma situáciami: napr.
rozdiel v premennej, ktorej hodnoty boli „namerané“ jednak v situácii pred nejakým experimentálnym
zásahom a jednak v situácii po ňom, alebo – jednoducho – hodnoty boli „namerané“ napr. ráno a večer.
Vtedy je vhodným testovacím nástrojom tzv. párový t-test (niekedy sa označuje aj ako t-test pre dva závislé
výbery).
Nulovú hypotézu H0 v rámci tohto testovania (bez ohľadu na to, o ktorú modifikáciu t-testu ide)
symbolicky vyjadrujeme nasledovne:
H0: AP1 = AP2 (teda: rozdiel medzi prvým a druhým priemerom je nulový, resp. rozdiel je nevýznamný,
len čisto náhodný).
Alternatívna hypotéza môže mať formu obojstrannej alternatívy alebo aj jednostranných alternatív, teda:
buď H1: AP1 nerovná sa AP2 (teda: medzi priemermi existuje nenáhodný rozdiel; nie sú rovnaké),
alebo H1: AP1 < AP2, resp. AP1 > AP2 (teda: prvý priemer je významne menší, resp. väčší ako druhý
priemer).
(pre zaujímavosť: vzorec pre výpočet testovacej štatistiky v rámci t-testu pre 2 výbery s rovnakým rozptylom
má tvar: t =
21
11
21
nnsnsn
.
.
APAP
²² 22.+
− , kde AP1 a AP2 sú výberové priemery, n1 je rozsah prvého výberového
súboru, n2 je rozsah druhého výberového súboru, s1² a s2² sú výberové rozptyly;
vzorce pre výpočet testovacej štatistiky v rámci t-testu pre 2 výbery s nerovnakým rozptylom a pre výpočet
testovacej štatistiky v rámci párového t-testu tu nie sú uvedené – v prípade záujmu ich možno nájsť
v odbornej štatistickej literatúre)
Ak je vypočítaná hodnota t-štatistiky väčšia ako kritická tabuľková∗ t-hodnota, t. j. t > tkrit., resp. ak je
softvérom vyčíslená p-hodnota menšia ako nami zvolená hladina významnosti α, t. j. p < α, zamietam nulovú
hypotézu H0 o neexistencii rozdielu medzi priemerom prvého a priemerom druhého výberu (resp. medzi
priemerom v prvej a priemerom v druhej situácii, ak ide o párový t-test) v prospech alternatívnej hypotézy H1
o existencii nenáhodného (významného) rozdielu medzi sledovanými priemermi.
∗ za účelom posúdenia hodnoty t-štatistiky vypočítanej v rámci t-testu pre dva výbery s rovnakým
rozptylom vyhľadáme v tabuľkách tzv. t-rozdelenia kritickú t-hodnotu pre 2
α , ak máme alternatívnu
hypotézu sformulovanú ako obojstrannú alternatívu, alebo pre α, ak máme alternatívnu hypotézu
sformulovanú ako jednostrannú alternatívu; taktiež treba zobrať do úvahy aj rozsahy našich dvoch výberov
(n1 a n2), ktoré sa spoločne premietnu do stupňov voľnosti υ, pričom υ = n1 – 1 + n2 – 1 (kritickú hodnotu
hľadáme teda pre túto jednu hodnotu stupňov voľnosti)
Analýza rozptylu (ANOVA – „analysis of variance“)
Ak máme viacero (tri a viac) výberových súborov /skupín/ a chceme porovnať aritmetické priemery
sledovanej normálne rozdelenej kardinálnej premennej v týchto výberoch (t. j. či ich možno pokladať za
zhruba rovnaké alebo nie), použijeme jednoduchú analýzu rozptylu (tzv. „one-way anova“ –
jednovchodová analýza rozptylu: výberové súbory sú zostavené na základe jedného kritéria – napr. podľa
najvyššieho dosiahnutého vzdelania). Tento postup možno využiť aj na posúdenie závislosti medzi
nominálnou premennou (podľa jej foriem si zostavím skupiny) a kardinálnou premennou (ide vlastne o to
isté, ako je testovanie rozdielov v premennej medzi viacerými skupinami, len je to inak sformulovaný
problém). Existujú aj zložitejšie postupy analýzy rozptylu pre situácie, keď si výskumník zostavuje skupiny
na základe dvoch alebo viacerých kritérií (napr. vzdelania a zároveň aj pohlavia), vtedy hovoríme
o dvojvchodovej, resp. viacvchodovej analýze rozptylu.
Nulovú hypotézu H0 v rámci tohto testovania (pre k skupín) symbolicky vyjadrujeme nasledovne:
H0: AP1 = AP2 = AP3 = ... = APk (teda: rozdiely medzi priemermi sú nulové, resp. rozdiely je
nevýznamné, len čisto náhodné).
Alternatívna hypotéza H1 je potom predpokladom toho, že aspoň niektorá z dvojíc sledovaných priemerov
nie je rovnaká (existuje významný, nenáhodný rozdiel minimálne medzi niektorými dvoma výberovými
priemermi).
Prípadní záujemcovia o vzorec pre výpočet a spôsob posudzovanie testovacej štatistiky pre analýzu
rozptylu môžu siahnuť po odborne štatistickej literatúre.
Softvérom vyčíslená p-hodnota (p) v rámci analýzy rozptylu sa posudzuje analogicky ako pri vyššie
uvedených štatistických postupoch testovania hypotéz: ak je menšia ako nami zvolená hladina významnosti
α, t. j. p < α, zamietam nulovú hypotézu H0 o neexistencii rozdielu medzi výberovými priemermi v prospech
alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi aspoň dvoma zo
sledovaných výberových priemerov.
Testovanie rozdielov v rozdeleniach premennej
(testy významnosti rozdielov rozdelení)
Ak máme dva (resp. aj viaceré) výberové súbory /skupiny/ a chceme testovať významnosť rozdielu medzi
nimi v nejakej nominálnej premennej, musíme siahnuť po niektorom z testov rozdielov v rozdeleniach
početností premennej. Totiž jediné, čo môžeme pri tomto type premenných kvantifikovať (číselne vyjadriť)
sú čiastkové početnosti (či už absolútne alebo relatívne) jednotlivých foriem daných premenných; teda napr.
pri nominálnej premennej najvyššie ukončené vzdelanie môžeme číselne vyjadriť len to, koľko (resp. aký
podiel) probandov z nášho výskumného súboru dosiahlo základné, koľko stredoškolské a koľko
vysokoškolské vzdelanie (nakoľko ide o nominálnu premennú, nie je možné vypočítať priemer, rozptyl
a pod., ani zostaviť nejaký usporiadaný rad foriem tejto premennej a na základe pozícii týchto foriem im
priradiť zodpovedajúce poradia). V rámci tohto testovania robíme teda porovnanie dvoch (resp. viacerých)
rozdelení početností jednej nominálnej premennej u rôznych skupín (výberových súborov). Vhodným
štatistickým testom je v takomto prípade napr. χ2-test homogenity rozdelení (ide v podstate o ten istý test, s
ktorým sme sa stretli /pod názvom χ2-test nezávislosti/, keď sme overovali závislosť medzi nominálnymi
premennými, len tu je problém sformulovaný inak: overujeme existenciu rozdielu medzi skupinami, nie
závislosť dvoch premenných). Aj podmienky pre použitie χ2-testu homogenity sú analogické s podmienkami
pre použitie χ2-testu nezávislosti: aspoň 80% čiastkových očakávaných početností by malo byť väčších
ako 4 a ani jedna očakávaná početnosť nemôže nulová.
Nulovú hypotézu H0 v rámci tohto testovania môžeme sformulovať nasledovne:
H0: neexistuje rozdiel medzi zostavenými skupinami probandov v rozdelení (početností) premennej
(teda: premenná je v našich výberových súboroch rozdelená približne rovnako).
Alternatívna hypotéza H1 je potom predpokladom toho, že aspoň niektorá z dvojíc sledovaných
rozdelení premennej sa nenáhodne líši (t. j. existuje významný rozdiel minimálne medzi dvoma zo
sledovaných rozdelení početnosti našej premennej).
Testovaciu štatistiku χ2 v rámci tohto testu počítame podľa rovnakého vzorca ako v rámci χ2-testu
nezávislosti (pozri v časti o analýze súvislostí nominálnych premenných) a analogicky aj posudzujeme jej
hodnotu: ak je vypočítaná hodnota χ2-štatistiky väčšia ako kritická tabuľková∗ χ2-hodnota, t. j. χ2 > χ2krit.,
resp. ak je softvérom vyčíslená p-hodnota pri χ2-teste menšia ako nami zvolená hladina významnosti α, t. j. p
< α, zamietam nulovú hypotézu H0 o neexistencii rozdielu medzi výberovými rozdeleniami premennej
v prospech alternatívnej hypotézy H1 o existencii nenáhodného (významného) rozdielu medzi aspoň dvomi
zo sledovaných výberových rozdelení početností premennej.
∗ v tabuľkách tzv. χ2-rozdelenia vyhľadáme kritickú χ2-hodnotu pre zvolenú hladinu významnosti α = 0,05
a príslušný počet stupňov voľnosti (υ), pričom υ = (r – 1) . (s – 1), kde r je počet skupín (výberových
súborov), ktoré porovnávam, a teda aj počet riadkov (bez „súčtových riadkov“) v kontingenčnej tabuľke a s
je počet foriem, ktoré nadobúda sledovaná nominálna premenná, a tým pádom aj počet stĺpcov
v kontingenčnej tabuľke.
Spomínaný χ2-test homogenity rozdelení spadá do nasledujúcej skupiny testov, ktoré bývajú súhrnne
označované ako testy zhody.
Testy zhody
Testami zhody sa vo všeobecnosti overuje, či existuje zhoda alebo nie medzi dvoma rozdeleniami
premennej.
V prvom rade môžeme skúmať, či existuje zhoda medzi dvoma empirickými (skutočne zistenými)
rozdeleniami premennej. Tu môžno (okrem iných) použiť vyššie popísaný χ2-test homogenity.
V druhom rade môžeme skúmať, či existuje zhoda sledovaného empirického rozdelenia premennej
s nejakým teoretickým modelom (teoretickým rozdelením). Do tejto kategórie spadajú i tzv. testy normality.
Testy normality rozdelenia
(normalitu testujem zväčša u kardinálnych premenných)
V prípade testovania normality (bez ohľadu na konkrétny test, ktorý použijeme) je nulová hypotéza
nasledovná:
H0: nie je významný rozdiel medzi naším (testovaným – empirickým) a normálnym rozdelením (tzn.
naša premenná má približne normálne rozdelenie).
Alternatívna hypotéza je potom: H1: rozdiel medzi empirickým rozdelením a normálnym rozdelením je
významný (tzn. naša premenná nemá normálne rozdelenie).
Pri testovaní normality „chce“ výskumník uprednostniť (nezamietnuť) H0 pred H1 (na rozdiel od
testovania hypotéz o rozdieloch), preto sa α volí minimálne 0,05 (resp. aj väčšiu – až do 0,2). Takáto voľba
hladiny významnosti má za cieľ nedopustiť príliš veľké riziko β (riziko, že nezamietneme nulovú hypotézu
napriek tomu, že je nesprávna): vyplýva to z toho, že medzi mierou rizika chyby 1. druhu a mierou rizika
chyby 2. druhu je vzťah nepriamej úmernosti (ak by sme teda zvolili veľmi malú α, mohlo by dôjsť
k nežiaducemu zvýšeniu rizika β.
K najčastejšie používaným testom normality vo vedách o človeku patria:
• Shapiro-Wilkov test normality (používa sa, ak n ≤ 50)
• Kolmogorovov-Smirnovov test normality (dá sa použiť aj pre ordinálne premenné, ale väčšinou sa
používa na testovanie normality kardinálnych premenných ako kritérium pre rozhodnutie o tom, či
použijem parametrický alebo neparametrický postup).
V rámci skúmania, či existuje zhoda empirického rozdelenia premennej s nejakým teoretickým modelom,
ak si teoretický model stanovujeme sami, možno opäť použiť χ2-test, ktorý tentoraz „vystupuje“ pod názvom
χ2-test dobrej zhody. Postup aj interpretácia získanej testovacej štatistiky, resp. p-hodnoty je opäť
analogický ako pri predchádzajúcich typoch χ2-testov (situácia je jednoduchšia o to, že si nemusíte podľa
vzorca vyčíslovať jednotlivé očakávané početnosti, tie vychádzajú z Vašich teoretických predpokladov). Aj
podmienky pre jeho použitie sú analogické: aspoň 80% čiastkových očakávaných početností by malo byť
väčších ako 4 a ani jedna očakávaná početnosť nemôže nulová + k tomuto sa ešte pridáva aj podmienka
o rozsahu nášho výberového súboru, ktorý by mal byť väčší ako 40: n > 40).
Pomocou χχχχ²-test dobrej zhody teda zisťujeme, či sa rozdelenie nominálnej premennej (t. j. čiastkové
početnosti jej foriem) líšia alebo nelíšia od nejakého teoretického predpokladu (napr. že formy premennej
nadobúdajú zhruba rovnaké čiastkové početnosti alebo že čiastkové početnosti foriem premennej sú v
nejakom konkrétnom pomere, ktorý si určíme sami).
Faktorová analýza
→ patrí medzi viacrozmerné štatistické postupy
Jednotlivé premenné (získané výskumom) nemusia byť navzájom nezávislé – t. j. niektoré sú vo
vzájomnom korelačnom vzťahu. Práve pomocou faktorovej analýzy možno v súbore premenných
identifikovať určité všeobecnejšie charakteristiky, ktoré vysvetľujú túto vzájomnú korelovanosť
niektorých premenných. Tieto zovšeobecňujúce charakteristiky identifikované faktorovou analýzou sa
zvyknú označovať pojmom faktory alebo pojmom dimenzie.
Faktorová analýza teda vychádza z existencie korelácií medzi sledovanými premennými (premennými
môžu byť napr. aj jednotlivé položky v jednorozmernom dotazníku, t. j. dotazníku zameranom na jednu
charakteristiku, vlastnosť, schopnosť človeka) a z predpokladu, že v rámci týchto premenných pôsobia
nezávislé faktory, ktoré prispievajú k realizácii daných korelácii. Jej základnou myšlienkou je redukcia
nadbytočných informácii obsiahnutých vo viacerých korelovaných premenných.
Faktory teda možno chápať ako latentné (skryté) matematicky zostrojiteľné všeobecné premenné,
ktoré vysvetľujú vlastnosti komplexu pôvodných premenných.
V procese faktorovej analýzy sa odhadujú tzv. faktorové záťaže (náboje, nasýtenia) jednotlivých
(pôvodných) premenných pre ten-ktorý vygenerovaný faktor. Faktorové záťaže sú vlastne vyjadrením
korelácií medzi jednotlivými premennými a získanými faktormi. Na základe hodnôt faktorových záťaží
možno teda pre každý faktor určiť skupinu premenných, ktoré s ním najtesnejšie korelujú. A naopak –
prostredníctvom faktorových záťaží sa priradí identifikovanému faktoru miera vplyvu na každú z
jednotlivých premenných. Premenné s najvyššími faktorovými záťažami pre ten-ktorý faktor sú smerodajné
aj pri interpretácii tohto faktora.
Ďalšou úlohou faktorovej analýzy je odhad faktorového skóre t. j. hodnoty, ktorú nadobúda ten-ktorý
identifikovaný faktor u jednotlivca (objektu výskumného súboru). Ide o skóre celého faktoru (t. j. viacerých
pôvodných premenných spoločne). S faktormi takto kvantifikovanými prostredníctvom faktorových skóre
možno pracovať v ďalšej štatistickej analýze namiesto početnejších pôvodných premenných.
Faktory možno zo súboru pôvodných premenných extrahovať viacerými metódami (metódu hlavných
komponentov, metóda základných osí atď.). Jednoznačne odporučiť sa žiadna z nich nedá, treba heuristicky
odskúšať viaceré a následne zvážiť, ktorá mi poskytla najzmysluplnejšie faktorové riešenie. Počet faktorov
môže ale nemusí byť dopredu známy (samotné údaje umožňujú ich adekvátny počet odvodiť v procese
analýzy).
Rotácia faktorov
Stáva sa, že vyextrahované faktory (slabo) korelujú s väčším počtom pôvodných premenných, čo
prakticky znemožňuje ich interpretáciu. Tento problém možno riešiť tzv. rotáciou faktorov. Ide o takú
transformáciu získaných faktorov (faktory si možno predstaviť geometricky ako osi pravouhlého
súradnicového systému), aby boli pôvodné premenné faktorovo čo najčistejšie (geometricky – čo najbližšie
k osiam predstavujúcim naše faktory). Ideálnym výsledkom takejto rotácie (pootočenia súradnicového
systému s faktormi ako osami) je, že každý faktor relatívne vysoko koreluje s malým počtom pôvodných
premenných, čo umožňuje lepšiu interpretáciu faktorov. Nerotované faktorové riešenie teda slúži k získaniu
počiatočného počtu faktorov; následnou rotáciou možno získanú faktorovú štruktúru sprehľadniť.
Existuje niekoľko rotačných techník, ktoré sú zo štatistického pohľadu rovnako dobré. Odporúča sa
použiť ten spôsob, ktorý poskytuje najjednoduchšie interpretovateľné výsledky. Snáď najčastejšie
používanou rotačnou metódou je metóda varimax (rozptyl maximalizujúca rotácia) minimalizujúca počet
premenných, ktoré vysoko korelujú s jednotlivými dimenziami. Rotačná metóda quartimax zase
minimalizuje počet faktorov potrebných na vysvetlenie každej premennej. Equamax je rotačnou metódou,
ktorá kombinuje predchádzajúce dve, t. j. minimalizuje tak počet premenných vysokokorelovaných s jedným
faktorom, ako aj počet faktorov potrebných na vysvetlenie premennej.
Po vytvorení faktorového riešenia úlohy je vhodné získané faktorové dimenzie popísať a
pomenovať.
Pre ilustráciu použitia FA je ďalej uvedený ako príklad výsledok faktorovej analýzy motivátorov
v nemenovanej akciovej spoločnosti (ide o výsledok spracovania údajov zo skutočného výskumu
uskutočneného v rámci diplomovej práce autorky učebných textov).
Jednotlivé motivátory boli u zamestnancov tejto spoločnosti zisťované prostredníctvom dotazníka:
úlohou probandov bolo prosto uviesť, či má na neho ten-ktorý z ponúknutých motivátorov motivačný účinok
alebo nie (odpovediam „áno“ bolo priradené skóre 1 a odpovediam „nie“ skóre 0). Nasledujúca tabuľka
zachytáva faktorové záťaže jednotlivých motivátorov pre každý z vyextrahovaných faktorov (pozn. faktory
boli pomenované dodatočne – nie je to výsledok FA). Všimnite si, že len motivátory s vysokými absolútnymi
hodnotami faktorových záťaží (u toho-ktorého faktora) možno považovať za premenné „sýtiace“ ten-ktorý
faktor. Za tabuľkou je uvedený stručný slovný popis získaných faktorov.
Tabuľka faktorových záťaží motivátorov vo faktoroch vyextrahovaných pomocou FA
motivátory (pôvodné premenné)
f. ambicióz-nosti
f. opierania sa o autoritu
f. orientácie na výkon
f. finanč. ohodnotenia
f. motivač. stretnutí
1 - jasné ciele 0,724 0,192 -0,161 0,201 0,120 2 - motivačné stretnutia 0,024 0,186 0,137 0,259 0,652 3 - ocenenie výsledkov n. 0,199 0,770 0,267 -0,052 -0,001 4 - spätná väzba 0,210 0,456 0,678 0,067 -0,180 5 - záujem nadriadeného 0,030 0,763 -0,087 0,086 0,198 6 - finančné odmeňovanie 0,222 0,063 0,201 0,744 -0,045 7 - objektívnosť nadriaden. 0,028 0,642 0,308 0,440 -0,141 8 - obava zo sankcií -0,210 -0,050 0,596 0,232 0,369 9 - osobnosť nadriadeného 0,224 0,544 -0,060 0,335 -0,110 10 - vzdelávanie, rozvoj 0,779 -0,076 0,184 -0,063 -0,163 11 - pracovný postup 0,776 0,334 -0,023 -0,074 0,072 12 - nárast mzdy -0,167 0,062 0,053 0,675 0,101 13 - benefity -0,201 0,170 0,075 0,319 -0,693 14 - účasť na rozhodovaní 0,808 0,123 0,005 0,004 0,247 15 - dôsledky chýb 0,002 -0,024 0,846 0,093 0,040 variabilita vysvetlená faktorovou dimenziou
17,9% 15,6% 12,3% 10,7% 8,4%
Prvý faktor by sme mohli interpretovať ako faktor ambicióznosti prejavujúcej sa v záujme
o spoluúčasť na rozhodovaní a o pracovný postup. S tým súvisí aj motivovateľnosť možnosťou vzdelávania
či osobného rozvoja a – do istej miery – aj jasne stanovenými cieľmi.
Druhý faktor sme pomenovali ako faktor opierania sa o autoritu. Je sýtený takými motivátormi, ako sú
ocenenie výsledkov nadriadeným, osobný záujem, osobnosť a objektívnosť nadriadeného.
Tretí faktor charakterizuje najmä tzv. negatívna motivácia (dôsledky prípadných chýb, obava zo
sankcií). Keďže najväčší náboj v nej má motivátor uvedomovanie si dôsledkov prípadných chýb
a nedostatkov, ktorý má jasný súvis s potrebou podávania čo najlepšieho výkonu a istou uvedomelosťou
vzťahujúcou sa na svoju prácu, označujeme ho ako faktor orientácie na výkon. S tým korešponduje aj ďalší
motivátor výrazný v rámci tohto faktora – spätná väzba o podávaných výkonoch.
Štvrtý faktor – pomenovaný ako faktor finančného ohodnotenia – je sýtený motivátormi finančné
odmeňovanie dosiahnutých cieľov a nárast mzdy.
Piaty faktor sme nazvali faktorom motivačných stretnutí podľa jediného motivátora, ktorý ho kladne
sýti, a tým sú kolektívne motivačné stretnutia. Treba podotknúť, že do tohto faktora sa premietol aj motivátor
poskytovanie benefitov, ale ako svoj opačný pól – tzn. nezáujem o benefity (zamestnanecké výhody).