Egyszempontos varianciaanalízis

A Wikipédiából, a szabad enciklopédiából

A statisztikában az egyszempontos varianciaanalízis (rövidítve egyszempontos ANOVA) olyan technika, amely két vagy több minta átlagának összehasonlítására használható (az F-eloszlás használatával). Ez a technika csak numerikus válasz adatokkal használható, a függő változó, általában egy változó, és ezek numerikus, vagy (általában) kategorikus bemeneti adatok, a független változó, mindig egy változó, ezért "egyirányú".[1]

Az ANOVA azt a nullhipotézist teszteli, hogy a minták minden csoportban azonos átlagértékű populációkból kerülnek kiválasztásra. Ehhez két becslés készül a lakosság varianciájáról. Ezek a becslések különböző feltételezésekre támaszkodnak (lásd alább). Az ANOVA képez egy F-statisztikát,  ami a mintákon belüli átlagok varianciájának a varianciahányadosa. Hogyha a csoportátlagokat azonos átlagértékű populációkból vettük, akkor a csoportok közötti variancia alacsonyabb kellene, hogy legyen, mint a minták varianciája, követve a központi határeloszlás-tételt. Egy magasabb arány tehát implikálja, hogy a mintákat különböző átlagértékű populációkból vettük.

Jellemzően azonban az egyszempontos ANOVA legalább három csoport közötti különbségek mérésére használt teszt, mivel a két csoport eseté t-próba alkalmazható (Gosset, 1908). Amikor csak két csoport átlagát hasonlítjuk össze,  a t-próba valamint az F-teszt egyenértékű; az összefüggés az ANOVA és a t között F = t2. Az egyszempontos ANOVA kiterjesztése a kétszempontos varianciaanalízis, ami két különböző kategorikus független változó hatását vizsgálja a függő változóra.

Feltételezések[szerkesztés]

Az egyszempontos ANOVA eredményei addig tekinthetőek megbízhatónak, amíg a következő feltételezések teljesülnek:

  • Válasz változó reziduálisok normális eloszlásúak (vagy közel normális eloszlásúak).
  • A populációk varianciája egyenlő.
  • Adott csoport válaszai független, azonos eloszlású, normális eloszlású véletlen változók (nem egy egyszerű véletlen minta (SRS)).

Ha az adatok ordinálisak, nem-parametrikus alternatívaként például a Kruskal–Wallis egyutas varianciaanalízis használható. Ha a varianciák nem egyenlőek, a kétmintás Welch t-teszt általánosítását lehet használni.[2]

Eltávolodás a populáció normalitásától[szerkesztés]

Az ANOVA egy viszonylag robusztus eljárás, a normalitás megsértésére való tekintettel is.[3]

Az egyszempontos ANOVA általánosítható faktoriális, többváltozós elrendezésekhez, valamint kovariancia elemzéséhez is.

Gyakran kijelentetik a népszerű irodalomban, hogy ezen F-tesztek egyike sem robusztus, amikor súlyosan sérül az a feltételezés, hogy az egyes populációk követik normális eloszlást, különösen a kis alfa szintek és az aszimmetrikus elrendezés miatt.[4] Emellett azt is állítják, hogy ha a mögöttes feltételezés, a homoszkedaszticitás megsérül, az elsőfajú hiba lehetősége jelentősen nő.[5]

Azonban az 1950-es években és korábban készült munkák alapján ez tévedés. Az első átfogó vizsgálat a kérdésre a Monte Carlo szimuláció volt Donaldson (1966) által.[6] Megmutatta, hogy a normalitás általános sérülései során (pozitív ferdeség, nem egyenlő szórások) "az F-teszt olyan konzervatív", hogy kevésbé valószínű azt találnunk, hogy egy változó szignifikáns, mint azt, hogy nem. Azonban, hogyha akár a minta mérete, vagy a cellák száma növekszik, "a teljesítmény görbék a normál eloszlás felé konvergálnak". Tiku (1971) megállapította, hogy "a nem-normál elméletű F ereje eltér a normál elmélet erejétől, egy korrekciós idő által, amely élesen csökken a minta méretének  növekedésével."[7] A probléma a nem-normalitással, különösen a nagy minták esetén, sokkal kevésbé súlyos, mint azt népszerű cikkek sejtetik.

Az aktuális nézet szerint a "Monte-Carlo tanulmányokat széles körben használták a normál eloszlás-alapú vizsgálatokhoz meghatározandó, hogy milyen érzékenyek ezek a normál eloszlás megsértésének feltételezésére, a vizsgált változókra vonatkozóan a populáción belül . Az általános következtetés ezekből a vizsgálatokból, hogy az ilyen sértések következményei kevésbé súlyosak, mint azt korábban gondolták. Ezek a következtetések növelték az eloszlás-függő statisztikai tesztek általános népszerűségét rengeteg kutatási területen."[8]

Nemparaméteres alternatívákért faktoriális elrendezésben, lásd Sawilowsky.[9] További párbeszédért lásd ANOVA rangsorolva.

Fixált hatások, teljesen randomizált kísérlet, kiegyensúlyozatlan adatok esete[szerkesztés]

A modell[szerkesztés]

A normál lineáris modell a kezelt csoportokat a valószínűségi disztribúció alapján írja le, amelyej hasonló harang alakú (normál) görbék más átlagokkal. Tehát a modellek illeszkedési csupán az egyes kezelési csoportok átlagait és a variancia számítását igényli. Az átlagok és a variancia számítása a hipotézis tesztelés részeként zajlik.

A leggyakrabban használt normál lineáris modellek egy teljesen randomizált kísérlethez:[10]

(az átlagok modell)

vagy

(a hatások modell)

ahol

index a kísérleti egységek fölött
index a kezelt csoportok között
a kísérleti egységek száma a j-edik kezelt csoportban
a kísérleti egységek teljes száma
megfigyelések
 a j-edik kezelt csoportokra vonatkozó megfigyelések átlaga
a megfigyelések nagy átlaga
a j-edik kezelési hatás, a nagy átlagtól való eltérés
, normál eloszlású zéró átlagú random hibák.

Az indexet " " a kísérleti egységek felett több módon lehet értelmezni. Egyes kísérleteknél, ugyanaz a kísérleti egység  számos kezeléshez tartozik;  egységre. Máskor minden csoportban van külön, egyedi kísérleti egységek vannak; ilyenkor  egyszerűen egy indexe a -edik listának.

Az adatok és az adatok statisztikai összegei[szerkesztés]

A kísérleti megfigyeléseket elrendezhetjük oszloponként csoportokban:

Lists of Group Observations
1
2
3
Group Summary Statistics Grand Summary Statistics
# Observed # Observed
Sum Sum
Sum Sq Sum Sq
Mean Mean
Variance Variance

Összehasonlítva a modellt az összegzésekkel: és . A nagy átlag és a nagy variancia a nagy összegekből számolandó, nem pedig a csoport átlagokból és szórásokból.

A hipotézis tesztek[szerkesztés]

Az összefoglaló statisztikákat figyelembe véve a hipotézis teszt számításait láthatjuk táblázatos formában. Míg két oszlop négyzetösszeg (SS) látható, addig csak egy oszlop is elég az eredmények megjelenítéséhez.

ANOVA table for fixed model, single factor, fully randomized experiment
Source of variation Sums of squares Sums of squares Degrees of freedom Mean square F
Explanatory SS[11] Computational SS[12] DF MS
Treatments
Error
Total

a modell -ének becsült varianciája.

Elemzési összefoglaló[szerkesztés]

Az ANOVA elemzés alapja egy sor számításon áll. Az adatokat táblázatos formában gyűjti. Aztán

  • Minden egyes kezelési csoport összegezve van a kísérleti egységek száma, két összeg, egy átlag és egy variancia alapján. A kezelési csoport összefoglalók kombinálva vannak, hogy biztosítsák az egységek számáról és a végösszegek összértékét. A nagy átlag és a nagy variancia a nagy végösszegekből számolandó. A kezelési és a nagy átlagokat felhasználja a modell.
  • A három szabadságfok és négyzetösszeg a végösszegekből számolandó.
  • A számítógép általában az F-értékből határozza meg a p-értéket, ami megállapítja, hogy a kezelések szignifikáns eredményeket szültek-e. Hogyha az eredmények szignifikánsak, akkor a modellnek előreláthatóan van érvényessége.

Ha a kísérlet kiegyensúlyozott, minden  feltétel egyenlő, tehát a négyzetösszeg számolások egyszerűsödnek. Egy bonyolultabb kísérletben, ahol a kísérleti egységek (vagy a környezeti hatások) nem homogének, sorban értelmezett statisztikákat is használunk az elemzésben. Az extra feltételek meghatározása csökkenti az elérhető szabadságfokok számát.

Példa[szerkesztés]

Képzeljünk el egy kísérletet, hogy egy faktor 3 szintjének hatását tanulmányozzuk (pl. három szintű permetező egy növényültetvényen). Hogyha 6 megfigyelésünk van minden szinten, akkor le tudjuk írni a lehetséges kimeneteleket az alábbi táblázatnak megfelelően, ahol a1, a2, és a3 a faktor 3 szintje, melyeket megfigyelünk.

a1 a2 a3
6 8 13
8 12 9
4 9 11
5 11 8
3 6 7
4 8 12

A nullhipotézis (H0), az összes F-tesztre vonatkozóan erre a kísérletre nézve az lenne, hogy a faktor három szintje ugyanazt a hatást váltja ki, átlagosan. Hogy kiszámítsuk az F-arányt:

1. lépés: Számítsuk ki az átlagot az egyes csoportokon belül:

2. lépés: Számítsuk ki a teljes átlagot

ahol a a csoportok száma.

3. lépés: Számítsuk ki a csoportok közötti (between-group) négyzetösszegek különbségét:

ahol n az adat értékek száma csoportonként.

A csoportok közötti szabadságfok eggyel kevesebb, mint a csoportok száma

így a csoportok közötti átlagos négyzetes érték:

4. lépés: Számítsuk ki a csoporton belüli (within-group) négyzetösszeget. Kezdjük adatok központosításával az egyes csoportokban

a1 a2 a3
6-5=1 8-9=-1 13-10=3
8-5=3 12-9=3 9-10=-1
4-5=-1 9-9=0 11-10=1
5-5=0 11-9=2 8-10=-2
3-5=-2 6-9=-3 7-10=-3
4-5=-1 8-9=-1 12-10=2

A csoporton belüli négyzetösszeg az alábbi táblázat minden értékének négyzetösszege:

A csoporton belüli szabadságfok:

Így a csoporton belüli átlag négyzet értéke:

5. lépés: Az F-arány

A kritikus érték az a szám, amelyet a teszt statisztika meg kell, hogy haladjon, hogy elutasíthassuk a tesztet. Ebben az esetben, Fcrit(2,15) = 3.68 ahol α = 0.05. Mivel F=9.3 > 3.68, az eredmények szignifikánsak 5% - os szignifikancia szinten. Tehát el kell utasítanunk a nullhipotézist, következtetésként levonva, hogy erős bizonyíték áll fent a három csoport elvárt értékeinek különbözőségére. Erre a tesztre vonatkozó p-érték 0.002.

Az F-teszt elvégzése után, szokás szerint "post-hoc" tesztet futtatunk a csoportátlagokról. Ebben az esetben, az első két csoport átlaga 4 egységgel különbözik, az első és a harmadik csoport átlaga 5 egységgel, a második és a harmadik csoport átlaga pedig csak egy egységgel. A standard hiba minden ilyen különbségre nézve . Következésképp, az első csoport erősen különbözik a többitől, mivel az átlagos különbség többszöröse a standard hibának, szóval magabiztosan kijelenthetjük, hogy az első csoport populációjának az átlaga különbözik a többi csoport populációjának átlagától. Ellenben nincs bizonyíték arra, hogy a második és a harmadik csoportnak eltérő populáció átlagai vannak, mivel egy egység átlagos különbsége összehasonlítható a standard hibával. Megjegyzés: az F(x, y) az F-eloszlás kumulatív eloszlás függvényének x szabadságfokú számlálóját, y szabadságfokú nevezőjét jelöli.

Kapcsolódó szócikkek[szerkesztés]

Jegyzetek[szerkesztés]

  1. Howell, David. Statistical Methods for Psychology. Duxbury, 324–325. o. (2002). ISBN 0-534-37770-X 
  2. (1951. április 25.) „On the Comparison of Several Mean Values: An Alternative Approach”. Biometrika 38, 330–336. o. DOI:10.2307/2332579.  
  3. Kirk, RE. Experimental Design: Procedures For The Behavioral Sciences, 3, Pacific Grove, CA, USA: Brooks/Cole (1995) 
  4. Blair, R. C. (1981). „A reaction to 'Consequences of failure to meet assumptions underlying the fixed effects analysis of variance and covariance.'”. Review of Educational Research 51, 499–507. o. DOI:10.3102/00346543051004499.  
  5. Randolf, E. A. (1989). „Type I error rate when real study values are used as population parameters in a Monte Carlo study”.  
  6. Donaldson, Theodore S. (1966). „Power of the F-Test for Nonnormal Distributions and Unequal Error Variances”.  
  7. Tiku, M. L. (1971). „Power Function of the F-Test Under Non-Normal Situations”. Journal of the American Statistical Association 66 (336), 913–916. o. DOI:10.1080/01621459.1971.10482371.  
  8. Archivált másolat. [2018. december 4-i dátummal az eredetiből archiválva]. (Hozzáférés: 2018. december 4.)
  9. Sawilowsky, S. (1990). „Nonparametric tests of interaction in experimental design”. Review of Educational Research 60 (1), 91–126. o. DOI:10.3102/00346543060001091.  
  10. Montgomery, Douglas C.. Design and Analysis of Experiments, 5th, New York: Wiley, Section 3-2. o. (2001). ISBN 9780471316497 
  11. Moore, David S.. Introduction to the Practice of Statistics, 4th, W H Freeman & Co., 764. o. (2003). ISBN 0716796570 
  12. Winkler, Robert L.. Statistics: Probability, Inference, and Decision, 2nd, Holt, Rinehart and Winston, 761. o. (1975) 

További információk[szerkesztés]