Korreláció

A Wikipédiából, a szabad enciklopédiából

A matematikában (a statisztikában) a korreláció jelzi két tetszőleges érték közötti lineáris kapcsolat nagyságát és irányát (avagy ezek egymáshoz való viszonyát). Az általános statisztikai használat során a korreláció jelzi azt, hogy két tetszőleges érték nem független egymástól. Az ilyen széles körű használat során számos együttható, érték jellemzi a korrelációt, alkalmazkodva az adatok fajtájához.

A korreláció csak a lineáris kapcsolatot jelzi. Például egy valószínűségi változó és négyzete korrelációja lehet nulla. Ha két véletlen mennyiség korrelációja nulla, akkor korrelálatlanok; ilyenkor a kapcsolatot, ha van, másként kell jellemezni, például feltételes valószínűségekkel. A normális eloszlású valószínűségi változókra jellemző, hogy ha korrelálatlanok, akkor függetlenek is. Így a korreláció jól alkalmazható normális eloszlásúnak tekinthető mérhető mennyiségek közötti kapcsolat erősségének mérésére.

Másfajta összefüggések kimutatására más eszközök kellenek. Használható például a kölcsönös információ:

 I(X;Y) = \sum_{y \in Y} \sum_{x \in X}
                 p(x,y) \log{ \left( \frac{p(x,y)}{p_1(x)\,p_2(y)}
                              \right) }, \,\!

vagy a feltételes valószínűségek. Az A eseménynek a B eseményre vonatkozó feltételes valószínűsége megadja az A esemény bekövetkezésének a valószínűségét, feltéve hogy a B esemény bekövetkezik.

Van olyan, a korrelációhoz hasonló eszköz, amivel bármilyen függvénykapcsolat kimutatható.

Korrelációs együttható[szerkesztés | forrásszöveg szerkesztése]

A korrelációs együttható (r) előjele a kapcsolat irányát mutatja meg, a nagysága (0-1 közötti szám) pedig az együtt járás szorosságát, az összefüggés erejét mutatja.

A korrelációs együttható jelölései:[szerkesztés | forrásszöveg szerkesztése]

  • Populációbeli (elméleti) korrelációs együttható jelölése:
    • ρ(ejtsd: ró), ρxy, ρ(x,y)
  • Mintabeli (Pearson-féle) korrelációs együttható jelölése:
    • r,  rxy, r(x,y)

A korrelációs együttható jellemzői[1][szerkesztés | forrásszöveg szerkesztése]

  • -1 ≤ r ≤ +1; -1 ≤ ρ ≤ +1
  • Ha X és Y független, akkor r(X,Y) = 0
  • Ha r(X,Y) = 0, vagyis ha X és Y korrelálatlan, akkor nem feltétlenül függetlenek, de biztos, hogy nincs köztük lineáris típusú összefüggés.

Korreláció számítása[szerkesztés | forrásszöveg szerkesztése]

A korreláció a következő képlettel számítható:

R{(X,Y)}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y},

ahol E a várható érték, \sigma a szórás, μX az X, μY az Y valószínűségi változó várható értéke.

A statisztikában nem állnak rendelkezésre az elméleti értékek, így a tapasztalati korrelációt a következőképpen számítják:


r_{xy}=\frac{\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1) s_x s_y},

ahol a felülvonásos betűk a tapasztalati várható értéket, sx, sy a tapasztalati korrigált szórást jelölik.

A képletben x és y a 2 változónk, amiknek az összefüggésére kíváncsiak vagyunk. A felsővonal az átlagot jelenti. Szummával a mögötte álló adatok összegét jelöljük, pl. ∑(X1, X2, X3) azt jelenti, hogy az x-ek közül az 1. 3-at adjuk össze.

A ∑ melletti i jelöli azt a jelenleg x-et vagy y-t, ahonnan elkezdjük az adatok összegzését, a szumma felett látható jelenleg n pedig azt az x-et vagy y-t, ami az utolsó az összeadási sorban. Itt i=1, tehát az 1. adattól számolunk, egészen n-ig, tehát az utolsó darabszámig.[2]

Korrelációt számíthatunk statisztikai programok segítségével is. A statisztikai elemzések/analyze menüpontban találhatjuk meg. A programok közölnek leíró statisztikát, megadják az r korrelációs együttható értékét, és a szignifikanciaszintet (p/sig jelöléssel), esetleg a konfidenciaintervallumot is.

Szignifikancia számítása[szerkesztés | forrásszöveg szerkesztése]

A korrelációs együttható szignifikanciájának vizsgálatához a H0: ρ = 0 hipotézist fogalmazzuk meg. Döntésünk alapja egy n-elemű mintában kiszámított korrelációs együttható (r).

A H0 elutasíthatósága függ az r együttható nagyságától és az f szabadságfok nagyságától (f = n-2).

A szignifikancia kiszámításához t eloszlású statisztikát használunk. Ennek képlete:

t=r*\sqrt{\frac{n-2}{1-r^2}}

Az egyenlet eredményének és a t eloszlású változó eloszlásának statisztikai táblája segítségével határozhatjuk meg, hogy eredményünk szignifikáns-e, és ha igen, akkor milyen mértékben.

Ha |t| > ttable, elvetjük H0-t és azt mondjuk, hogy a populáció korrelációs együtthatója különbözik 0-tól. Tehát, ha a kapott eredményünk abszolút értéke nagyobb, mint a táblázatban az adott szabadságfokhoz és szignifikanciaszinthez (ez általában 0,95) tartozó szám, akkor 95%-os bizonyossággal elutasíthatjuk a nullhipotézist.

Korrelációmátrix[szerkesztés | forrásszöveg szerkesztése]

n valószínűségi változó (X1, ..., Xn), korrelációja egy n  ×  n-es mátrix, amiben az i,j-edik elem corr(XiXj).

A korrelációmátrix szimmetrikus, mert Xi és Xj korrelációja megegyezik Xj és Xi korrelációjával. A valószínűségi változók normalizáltjainak kovarianciamátrixa megegyezik az adott valószínűségi mátrix kovarianciamátrixával, ezért pozitív definit.

Parciális korreláció[szerkesztés | forrásszöveg szerkesztése]

A parciális korreláció n > 2 valószínűségi változó esetén azt méri, hogy két valószínűségi változó milyen kapcsolatban áll egymással a többi változótól eltekintve.

Érzékenység[szerkesztés | forrásszöveg szerkesztése]

A korreláció nem függ az adatok nagyságától, de érzékeny a mintavételezésre. Egy szűkebb mintából számított korreláció rendszerint kisebb, mint a bővebb mintából számolt. Például, ha az apák és fiaik magasságának korrelációját számítjuk, akkor a teljes mintán erősebb összefüggést észlelünk, mintha csak azokon az adatokkal dolgoznánk, amik szerint az apák magassága 165 cm és 170 cm közé esik.

Négy adathalmaz ugyanazzal a korrelációval (0,816)

A korreláció érzékeny a kivételes adatokra (outlierek). Egy kivételes adat nagyon lecsökkentheti, vagy megnövelheti. Francis Anscombe példájában[3] a négy y változónak ugyanaz a várható értéke (7,5), szórása (4,12), korrelációja (0,816), és a regressziós egyenese (y = 4 + 0,5x), a tapasztalati eloszlások mégis különböző képet adnak. A harmadik képen egy kivételes adat lecsökkenti az 1 korrelációt 0,816-ra; a negyediken a független adatok 0 korrelációját ugyanennyire növeli. A korreláció nem veszi észre a második képen látható nem lineáris összefüggést sem.

Példák[szerkesztés | forrásszöveg szerkesztése]

  • Az intelligencia és a kreativitás normális eloszlásúnak tekinthető. A különféle mérések szerint korrelációs együtthatójuk 0,19-0,39 közé esik. Ez a korreláció gyengének számít. Ezért mondják, hogy az intelligencia és a kreativitás között nincs kapcsolat.
  • Legyen az A tulajdonság előfordulásának valószínűsége 6 \cdot 10^{-3}, a B tulajdonságé 8 \cdot 10^{-3}, a két tulajdonság együttes előfordulásának valószínűsége 7,5 \cdot 10^{-4}. Ekkor A és B korrelációja 0,01483, gyakorlatilag nem létezik, bár mindkét feltételes valószínűség jóval nagyobb a nem feltételesnél: P(A|B) = 0,125 és P(B|A) = 0,09375, tehát a két tulajdonság nem független.

Alkalmazások[szerkesztés | forrásszöveg szerkesztése]

Az idősorok elemzésében és a jelfeldolgozásban gyakran alkalmazzák a korrelációt az összehasonlításokban.

  • Ha kiszámítjuk két adatsor értékkészletének korrelációját, akkor keresztkorrelációt kapunk.
  • Ha egy adatsort és egy eltoltjának korrelációját számoljuk így ki, akkor autokorrelációról beszélünk.

A keresztkorreláció segít a két adatsor közötti összefüggés megtalálásában. Ha az egyik adatsort eltoljuk, akkor késleltetett hatások is felfedezhetők. Az autokorrelációval periódusok mutathatók ki az adatsorban.

A jelfeldolgozásban diszkrét adatsor helyett folytonos jelekkel is dolgoznak. Így adódik:

  • a keresztkorreláció-függvény:

R_{xy}(\tau) = \lim_{T_F \to \infty} \frac{1}{T_F}\int_{-T_F/2}^{T_F/2} x(t) \cdot y(t + \tau) \,\mathrm dt
  • az autokorreláció-függvény:

R_{xx}(\tau) = \lim_{T_F \to \infty} \frac{1}{T_F}\int_{-T_F/2}^{T_F/2} x(t) \cdot x(t + \tau) dt

Értelmezési hiba[szerkesztés | forrásszöveg szerkesztése]

A korrelációt sokszor félreértelmezik:

  • Ha két mennyiség korrelál, akkor az egyik okozza a másikat.

Ez nem feltétlenül van így. Például, ha egy vidéken a gólyafészkek és a gyerekek száma korrelál, akkor az nem bizonyítja azt, hogy a gyereket a gólya hozza.

Rangkorreláció[szerkesztés | forrásszöveg szerkesztése]

A rangkorrelációs együtthatók azt mérik, hogy két sorozat együtt változik-e. Ha az egyik sorozat nő, a másik csökken, akkor a rangkorrelációk negatívak lesznek.

Rangkorrelációt minimum ordinális változók között számíthatunk. Egyik fajtája a Spearman-féle rangkorreláció, ami egy Pearson-féle korreláció a rangszámok között. Egy másik lehetőség a Kendall-féle rangkorreláció, ami a pozitív és a negatív kapcsolatok arányának a különbségét számolja ki. [4]

Számításuk:

Spearman-rangkorreláció:[5][6]

 \rho = 1- {\frac {6 \sum d_i^2}{n(n^2 - 1)}}.

Kendall-korreláció:

\tau = \frac{n_c-n_d}{\frac{1}{2}{n(n-1)}}

ahol nc a megfelelő, és nd az eltérő párok száma.

A korrelációhoz hasonlóan értékeik a [-1,1] intervallumba esnek. Értékük 1, ha a két rangsor ugyanaz; 0, ha a két rangsor egymástól független, és -1, ha egymás megfordításai.

A rangkorrelációkat sokszor a korrelációs együttható könnyen számítható és kevésbé eloszlásérzékeny alternatíváiként kezelik. Ennek azonban nincs sok matematikai alapja: a rangkorrelációkkal más összefüggéseket lehet kimutatni, mint a korrelációs együtthatóval.[7][8]

Példák rangkorrelációra[szerkesztés | forrásszöveg szerkesztése]

A rangkorrelációk nem ugyanazt mutatják ki, mint a korreláció:

Tekintsük a (0, 1), (100, 10), (101, 500), (102, 2000) számpárok sorozatát! A rangkorrelációk teljes egyezést látnak, mert mindkét sorozat nő, míg a korreláció 0,456, ami azt mutatja, hogy a számpárok távol esnek a regressziós egyenestől.

Bár a szélsőséges esetekben megegyeznek, a rangkorrelációk nem mindig adják ugyanazt. A (1, 1) (2, 3) (3, 2) sorozat Spearman'-korrelációja 1/2, míg Kendall-korrelációja 1/3.[7]

További információk[szerkesztés | forrásszöveg szerkesztése]

Források[szerkesztés | forrásszöveg szerkesztése]

  1. [1]
  2. Markó, Z. Gimnáziumi matematika.
  3. Anscombe, Francis J. (1973.). „Graphs in statistical analysis”. The American Statistician 27, 17–21. o.  
  4. [2]
  5. Myers, Jerome L., Arnold D. Well. Research Design and Statistical Analysis, second edition, Lawrence Erlbaum, 508. o (2003). ISBN 0805840370 
  6. Maritz. J.S. (1981) Distribution-Free Statistical Methods, Chapman & Hall. ISBN 0-412-15940-6. (page 217)
  7. ^ a b Yule, G.U and Kendall, M.G., "An Introduction to the Theory of Statistics", Charles Griffin & Co. pp 258–270
  8. Kendall, M. G., "Rank Correlation Methods", Charles Griffin & Co., 1955.