Hamis felfedezési arány
A statisztikában a hamis felfedezési arány (false discovery rate, FDR) egy többszörös összehasonlítást használó módszer az elsőfajú hibák arányának felderítésére nullhipotézis tesztelése során. Az FDR-kontrolláló eljárások feladata, hogy ellenőrizzék azon „felfedezések” (elvetett nullhipozézisek) várható eloszlását, amelyek hamisak (a nullhipotézis helytelen elvetése). [1] Az FDR-kontrolláló eljárások kevésbé szigorú ellenőrzést használnak az elsőfajú hiba kontrollálására, mint az FWER (familywise error rate) kontrolláló eljárások (mint a Bonferroni-korrekció), amelyek legalább egy elsőfajú hiba valószínűségét ellenőrzik. Ezért az FDR kontrolláló eljárások nagyobb statisztikai erővel bírnak, viszont magasabb számú elsőfajú hiba árán.[2]
Története
[szerkesztés]Technológiai motivációk
[szerkesztés]Az FDR széleskörű használatához a technológiai fejlődés vezetett, amely lehetővé tette számos különböző változó együttes vizsgálatát egyénenként.[3] Az 1980-as és 1990-es évekre az olyan gyorsan növekvő tudományterületek, mint a genomika - amely automatizáltan, rengeteg próbát vizsgál egyszerre -, lehetővé tették a gyors adatbeszerzést. Ez a számítástechnikai teljesítmény növekedésével párosulva lehetővé tette több ezer statisztikai teszt zökkenőmentes elvégzését egy adott adathalmazon.[4]
Ahogy a nagy áteresztőképességű technológiák általánossá váltak, a technológiai és/vagy pénzügyi korlátok arra késztették a kutatókat, hogy viszonylag kis mintaméretet (pl. kevés tesztelt egyénnel) és mintánként nagyszámú változót (például génexpressziós szintek ezreit) dolgozzanak fel. Ezekben az adathalmazokban a mért változók közül kevés mutatott statisztikai szignifikanciát a többszörös összehasonlítási eljárások során használt klasszikus korrekciókat követően. Ez sok tudományos közösségben életre hívta az FWER és a kiigazítatlan többszörös hipotézis-tesztelések elhagyását annak érdekében, hogy más módokon emelhessék ki és rangsorolhassák azokat a változókat a publikációkban, amelyek egyéneken vagy kezeléseken keresztül jelentős hatást mutatnak, viszont nem szignifikáns eredményként elvetésre kerülnének a többszöri tesztelés szokásos korrekciója után. Erre válaszul számos olyan hibaarányra született javaslat, amely kevésbé konzervatív az FWER-nél a jelentős megfigyelések megjelölésében.
Irodalom
[szerkesztés]Az FDR koncepcióját Yoav Benjamini és Yosef Hochberg (1995)[1] alkották meg (Benjamini–Hochberg-eljárás, BH-eljárás), amely egy kevésbé konzervatív eljárás és hatékonyan azonosítja a fontosabb hatásokat a sok egyéb hatás közül. Az FDR volt az FWER első olyan alternatívája, amely számos tudományos területen széles körben elfogadottá vált (genetikától a biokémiáig, az onkológiáig és a növénytudományig).[3] 2005-ben így Benjamini és Hochberg tanulmányát a 25 legtöbbet idézett statisztikai cikk közé sorolták.[5]
Az FDR koncepció 1995-ös bevezetésének több előfutára is volt a statisztikai szakirodalomban. 1979-ben Holm megalkotta a Holm-eljárást,[6] amely egy lépésenkénti algoritmus az FWER vezérlésére, és amely legalább olyan hatékony, mint a Bonferroni-korrekció. Ez a lépésenkénti algoritmus rendezi a p-értékeket, és a hipotéziseket a legkisebb p-értéktől kiindulva egymást követően elutasítja.
Benjamini (2010)[3] elmondása szerint az 1995-ös tanulmányuk két, többszörös teszteléssel foglalkozó tanulmányból ered:
- Az első ilyen Scweder és Spjotvoll (1982)[7] munkája, akik javasolták a rangsorolt p-értékek ábrázolását, és a valódi nullhipotézisek értékelését azok vonalra illesztésével, a legnagyobb p-értéktől indulva, amelyek így egy egyenest alkotnak. Az ettől az egyenestől eltérő p-értékek a nullhipotézisnek felelnek meg. Ezt az ötletet később algoritmussá fejlesztették, és a nullhipotézist olyan eljárásokba építették be, mint a Bonferroni-, Holm- vagy Hochberg-eljárás.[8] Ez az elképzelés szorosan kapcsolódik a BH-eljárás grafikus értelmezéséhez.
- A másik ilyen tanulmány Branko Soric (1989)[9] munkája, amely a „felfedezés” terminológiáját vezeti be többszörös hipotézistesztelés összefüggésében. Soric figyelmeztetőként használta a hamis felfedezések várható számát elosztva az összes felfedezés számával , mondván: „a statisztikai felfedezéseink nagy része téves lehet”. Ez arra az elképzelésre vezette Benjaminit és Hochberget, hogy egy hibaarányt ahelyett, hogy figyelmeztetésként szolgálna, érdemes lenne kontrollálni.
1995-ben Benjamini és Hochberg bebizonyította, hogy a BH-eljárás egymástól független teszteknél kontrollálja az FDR-t.[1] 1986-ban R.J. Simes ugyanezt az eljárást javasolta "Simes eljárás" néven annak érdekében, hogy a gyenge értelemben vett FWER-t kontrollálják egymástól független teszteknél.[10]
Definíciók
[szerkesztés]Az alábbi definíciók alapján meghatározhatjuk a Q -t, mint a hamis felfedezések arányát az összes felfedezés között (a nullhipotézisek elutasítása):
- ,
ahol a hamis felfedezések száma, az igazi felfedezések száma, pedig az összes felfedezés száma.
A hamis felfedezési arány (FDR) ezután egyszerűen:[1]
- ,
ahol a várható értéke -nak. A cél, hogy az FDR-t egy adott q érték alatt tartsuk. A 0-val való osztás elkerülése érdekében -t 0-nak definiáljuk, amikor = 0:
.[1]
Többszörös hipotézistesztelések osztályozása
[szerkesztés]A következő táblázat a többszörös hipotézistesztelés lehetséges kimeneteleit definiálja. Tegyük fel, hogy m számú nullhipotézisünk van, amelyeket a következőképp jelölünk: H1 , H2, …, Hm. Statisztikai tesztet használva szignifikáns eredmény esetén elutasítjuk a nullhipotézist. Ha a teszt eredménye nem szignifikáns, nem utasítjuk el a nullhipotézist. Az összes Hi -re vonatkozó eredménytípust összesítve a következő random változókat kapjuk:
A nullhipotézis igaz (H0) | Az alternatív hipotézis igaz (HA) | Összegezve | |
A teszt szignifikáns | V | S | R |
A teszt nem szignifikáns | U | T | m-R |
Összegezve | m0 | m-m0 | m |
- : az összes tesztelt hipotézisek száma
- : az igaz nullhipotézisek száma, nem ismert paraméter
- : az igaz alternatív hipotézisek száma
- : a fals pozitívok száma (elsőfajú hiba) („false discoveries”)
- : az valódi pozitívak száma („true discoveries”)
- : a fals negatívak száma (másodfajú hiba)
- : A valódi negatívak száma
- : Az elvetett nullhipotézisek száma (igaz vagy hamis felfedezések)
- hipotézistesztelésben, ahol -k az igaz nullhipotéziseket jelölik, egy megfigyelhető véletlen változó, , , és pedig nem megfigyelhető véletlen változók.
Kontrolláló eljárások
[szerkesztés]A legtöbb eljárás során H1….Hm számú nullhipotézis tesztelés, és a hozzájuk tartozó P1….Pm áll rendelkezésünkre. A p-értékeket növekvő sorrendben soroljuk fel és P(1)….P(m) -ként jelöljük. Az alacsonytól magas p-érték felé tartó eljárásokat emelkedő („step up”), míg a magastól alacsony p-érték felé tartó eljárásokat ereszkedő („step down”) folyamatoknak nevezzük.
Benjamini–Hochberg-eljárás (BH-eljárás)
[szerkesztés]A Benjamini–Hochberg-eljárás (BH-emelkedő eljárás) az FDR-t kontrollálja szintjén.[1] A következőképpen működik:
1. Egy adott α esetén keresse meg a legnagyobb k értéket, amely: ().
2. Vesse el a nullhipotézist az i-re minden H(i)-nél = 1,…,k.
Geometriai értelemben ez megegyezik P(k) és k (pl. y és x tengelyen) ábrázolásával, áthúzva az egyenest az origón meredekséggel, igazolva a bal oldali pontok felfedezését egészen az utolsó, vonal alatti pontig.
A BH-eljárás akkor érvényes, ha az m-tesztek függetlenek, és sok olyan esetben is, amikor fennáll a függőség, de ezek nem általánosan érvényesek.[11] Egyenlőtlenség esetén is működőképes:
Ha az becslő értékét beillesztjük a BH-eljárásba, már nem garantált az FDR kontroll elérése a kívánt szinten.[3] Szükség lehet kiigazításokra a becslő értékben, és erre számos módosítást javasoltak.[12][13][14][15]
Az m- tesztek átlaga: , FDR átlaga (vagy MFDR), az m független vagy pozitív korrelációihoz igazítva (lásd AFDR). Az MFDR kifejezés az egyetlen újraszámított értékére vonatkozik, és nem része a Benjamini–Hochberg-módszernek.
Benjamini–Yekutieli-eljárás
[szerkesztés]A Benjamini-Yekutieli-eljárás tetszőleges függőségi feltételezések alapján ellenőrzi a hamis felfedezési arányt (FDR-t).[11] Ez a finomítás módosítja a küszöbértéket, és a következőképpen találja meg k értékét:
- Ha a tesztek függetlenek vagy pozitívan korrelálnak (mint a Benjamini–Hochberg-eljárásban):
- Tetszőleges függőség esetén (beleértve a negatív korrelációkat), c(m) a harmonikus szám:
A c(m)-et a Taylor-sor és az Euler-Mascheroni-állandó segítségével becsülhetjük meg:
Az MFDR és a fenti képletek használatával, a korrigált MFDR (AFDR) az m-függő tesztek min( átlaga) értéke = . A függőség kezelésének másik módja a bootstrapping és az újbóli randomizálás.[4][16][17]
Tulajdonságok
[szerkesztés]Adaptív és skálázható
[szerkesztés]Az FDR-t kontrolláló többszörös összehasonlító eljárások adaptívak és skálázhatóak. Ez azt jelenti, hogy az FDR kontrollálása lehet nagyon megengedő (ha az adatok ezt igazolják) vagy konzervatív (az FWER kontrollálása esetén) -mindez a tesztelt hipotézisek számától és a szignifikancia szintjétől függ.[3]
Az FDR kritérium úgy igazodik, hogy ugyanannyi hamis felfedezésnek (V) különböző következtetései legyenek, a felfedezések teljes számától (R) függően. Ez ellentétes az FWER kritériummal. Például ha 100 hipotézist vizsgálunk (pl. 100 genetikai mutációt, amelyek valamilyen populáció valamilyen fenotípusához kapcsolódnak):
- Ha 4 felfedezést teszünk (R), akkor ezek közül 2 hamis felfedezés (V) nagyon költséges, míg
- Ha 50 felfedezést teszünk (R), akkor ezek közül 2 hamis felfedezés (V) általában nem túl költséges
Az FDR kritérium skálázható, mivel az összes felfedezés (Q) hamis felfedezései ugyanolyan arányban maradnak szenzitívek az össze felfedezés különböző számaira (R). Például:
- Ha 100 felfedezést teszünk (R), akkor 5 hamis felfedezés (q = 5%) nem túl költséges;
- Hasonlóképpen, ha 1000 felfedezést teszünk (R), akkor 50 hamis felfedezés (q = 5%) szintén nem túl költséges.
Függőség a tesztstatisztikák között
[szerkesztés]Az FDR kontrollálása lineáris emelkedő BH-eljárással q szinten számos tulajdonsággal rendelkezik az m null hipotézis teszt-statisztikái közötti struktúrához kapcsolódva, amelyek javításra kerülnek. Amennyiben a tesztstatisztika:
- Független:[11]
- Független és folytonos:[1]
- Pozitív-függő:[11]
- Általános esetben:[11] , ahol az Euler–Mascheroni-állandó.
Az igaz hipotézisek aránya
[szerkesztés]Amennyiben az összes nullhipotézis igaz (), az FDR kontrollálása q szinten garantálja az FWER feletti ellenőrzést (az FWER „gyenge kontrolljának” is nevezik): , mivel legalább egy igaz nullhipotézis elutasításának esete megegyezik esettel, és esete megegyezik (ahol , definíció alapján). Amennyiben viszont van valódi felfedezés (), akkor . Ebben az esetben helye lesz a detektálási teljesítmény javításának. Ez azt is jelenti, hogy minden olyan eljárás, amely az FWER-t ellenőrzi, az FDR-t is ellenőrzi.
Kapcsolódó fogalmak
[szerkesztés]Az FDR felfedezését sok más típusú hibaarány előzte meg és követte. Ezek a következők:
- PCER (per-comparison error rate – összehasonlításonkénti hibaarány), amelynek definíciója: . Az egyes hipotézisek egyenként történő tesztelése az szinten garantálja, hogy: (ebben az esetben nem alkalmazunk korrekciót a multiplicitásra).
- FWER (familywise rate error), amelynek definíciója: , kontrollálására számos eljárás létezik.
- : A hamis felfedezések aránya a felfedezések között Soric (1989)[9] javaslatára, definíciója: . Ez az elvárások és felismerések keveréke, és problémás a kontrollálás, mivel .[1]
- : Sarkar (2007)[18][19] által általánosított FDR-ként is emlegetett eljárás, definíciója: .
- : Benjamini és Hochberg[3] használták először, Efron (2008)[20] később „Fdr”-nek hívta. Definíciója: . Ezt a hibaarányt nem lehet szigorúan kontrollálni, mert mikor , akkor értéke 1.
- : Benjamini és Hochberg[3] használták először, Storey (2002)[21] később „pFDR” -nek hívta. Definíciója: . Ezt a hibaarányt nem lehet szigorúan kontrollálni, mert mikor , akkor értéke 1.
- Hamis túllépési arány: Az FDR farok-valószínűségének értéke.[22] Definíciója:
- (súlyozott FDR): Minden i hipotézishez tartozik egy súly , ahol a súlyok a fontosságot/árat jelölik. Definíciója: .
- FDCR (False Discovery Cost Rate): Statisztikai folyamat-kontrollálásból ered. Minden i hipotézishez tartozik egy ár és egy kereszt-hipotézis árral. A motivációja, hogy a folyamat leállítása fix költségekkel járhat. Definíciója: .
- PFER (per-family error rate), definíciója: .
- FNR (False non-discovery rates), Genovesse & Wasserman (2002) nevéhez fűződik, definíciója: .
- , definíciója: .
Hamis lefedettségi arány
[szerkesztés]A hamis lefedettségi arány (false coverage rate; FCR) az FDR-analógja a konfidencia-intervallumnál. Az FCR a hamis lefedettség átlagos arányát jelöli, vagyis nem fedi le a valódi paramétereket a kiválasztott intervallumok között. Az FCR egyidejűleg biztosít lefedettséget 1 – szinten a problémában figyelembe vett összes paraméter számára. Azok az intervallumok, amelyek egyidejű lefedettséget biztosítanak 1 – q szintjén, szabályozhatják az FCR-t úgy, hogy a q-val határolják. Több FCR-eljárás is létezik, mint: Bonferroni-eljárás (Bonferronival kiválasztott, Bonferronival korrigált); BH-val kiválasztott és FCR-rel korrigált konfidenciaintervallumok (Benjamini és Yekutieli (2005),[23] Bayes FCR (Yekutieli, 2008) és egyéb Bayes-módszerek.[24]
Bayesiánus módszerek
[szerkesztés]Az FDR és Bayes-féle megközelítések összekapcsolódtak (beleértve az empirikus Bayes-módszereket),[20][25][26] megadva a Wavelet-együtthatók és a modellválasztás küszöbértékét,[27][28][29][30] valamint általánosítva a konfidencia-intervallumot az FCR-be.[23]
Fordítás
[szerkesztés]Ez a szócikk részben vagy egészben a False Discovery Rate című angol Wikipédia-szócikk fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.
Források
[szerkesztés]- ↑ a b c d e f g h Benjamini, Yoav; Hochberg, Yosef. (1995) „Controlling the false discovery rate: a practical and powerful approach to multiple testing”. Journal of the Royal Statistical Society, Series B 57 (1), 289–300. o.
- ↑ Shaffer J.P. (1995) Multiple hypothesis testing, Annual Review of Psychology 46:561-584, Annual Reviews
- ↑ a b c d e f g Benjamini, Y. (2010) „Discovering the false discovery rate”. Journal of the Royal Statistical Society, Series B 72 (4), 405–416. o. DOI:10.1111/j.1467-9868.2010.00746.x.
- ↑ a b Storey, John D.; Tibshirani, Robert. (2003) „Statistical significance for genome-wide studies”. Proceedings of the National Academy of Sciences 100 (16), 9440–9445. o. DOI:10.1073/pnas.1530509100. PMID 12883005. PMC 170937.
- ↑ Ryan, T. P.; Woodall, W. H. (2005) „The most-cited statistical papers”. Journal of Applied Statistics 32 (5), 461. o. DOI:10.1080/02664760500079373.
- ↑ Holm, S. (1979). „A simple sequentially rejective multiple test procedure”. Scandinavian Journal of Statistics 6 (2), 65–70. o. JSTOR 4615733.
- ↑ Schweder, T.; Spjøtvoll, E. (1982) „Plots of P-values to evaluate many tests simultaneously”. Biometrika 69 (3), 493. o. DOI:10.1093/biomet/69.3.493.
- ↑ Hochberg, Y.; Benjamini, Y. (1990) „More powerful procedures for multiple significance testing”. Statistics in Medicine 9 (7), 811–818. o. DOI:10.1002/sim.4780090710. PMID 2218183.
- ↑ a b Soric, Branko (1989. június 1.). „Statistical "Discoveries" and Effect-Size Estimation”. Journal of the American Statistical Association 84 (406), 608–610. o. DOI:10.1080/01621459.1989.10478811. JSTOR 2289950.
- ↑ Simes, R. J. (1986) „An improved Bonferroni procedure for multiple tests of significance”. Biometrika 73 (3), 751–754. o. DOI:10.1093/biomet/73.3.751.
- ↑ a b c d e Benjamini, Yoav; Yekutieli, Daniel (2001) „The control of the false discovery rate in multiple testing under dependency”. Annals of Statistics 29 (4), 1165–1188. o. DOI:10.1214/aos/1013699998.
- ↑ Storey, J. D.; Taylor, J. E.; Siegmund, D. (2004) „Strong control, conservative point estimation and simultaneous conservative consistency of false discovery rates: A unified approach”. Journal of the Royal Statistical Society, Series B 66, 187–205. o. DOI:10.1111/j.1467-9868.2004.00439.x.
- ↑ Benjamini, Y.; Krieger, A. M.; Yekutieli, D. (2006) „Adaptive linear step-up procedures that control the false discovery rate”. Biometrika 93 (3), 491. o. DOI:10.1093/biomet/93.3.491.
- ↑ Gavrilov, Y.; Benjamini, Y.; Sarkar, S. K. (2009) „An adaptive step-down procedure with proven FDR control under independence”. The Annals of Statistics 37 (2), 619. o. DOI:10.1214/07-AOS586.
- ↑ Blanchard, G.; Roquain, E. (2008) „Two simple sufficient conditions for FDR control”. Electronic Journal of Statistics 2, 963–992. o. DOI:10.1214/08-EJS180.
- ↑ Yekutieli D, Benjamini Y. (2003) „Statistical significance for genome-wide studies”. Proceedings of the National Academy of Sciences 100 (16), 9440–9445. o. DOI:10.1073/pnas.1530509100. PMID 12883005. PMC 170937.
- ↑ van der Laan, M. J.; Dudoit, S. (1999) „Resampling based False Discovery Rate controlling procedure for dependent test statistics”. J. Statist. Planng Inf. 82 (1–2), 171–196. o. DOI:10.1016/S0378-3758(99)00041-5.
- ↑ Sarkar, Sanat K. "Stepup procedures controlling generalized FWER and generalized FDR." The Annals of Statistics (2007): 2405-2420.
- ↑ Sarkar, Sanat K., and Wenge Guo. "On a generalized false discovery rate." The Annals of Statistics (2009): 1545-1565.
- ↑ a b Efron B (2008). „Microarrays, empirical Bayes and the two groups model”. Statistical Science 23, 1–22. o. DOI:10.1214/07-STS236.
- ↑ Storey, John D. (2002) „A direct approach to false discovery rates”. Journal of the Royal Statistical Society, Series B 64 (3), 479–498. o. DOI:10.1111/1467-9868.00346.
- ↑ Benjamini, Y. (2010) „Simultaneous and selective inference: Current successes and future challenges”. Biometrical Journal 52 (6), 708–721. o. DOI:10.1002/bimj.200900299. PMID 21154895.
- ↑ a b Benjamini Y, Yekutieli Y. (2005) „False discovery rate controlling confidence intervals for selected parameters”. Journal of the American Statistical Association 100 (469), 71–80. o. DOI:10.1198/016214504000001907.
- ↑ Zhao, Z.; Gene Hwang, J. T. (2012) „Empirical Bayes false coverage rate controlling confidence intervals”. Journal of the Royal Statistical Society, Series B 74 (5), 871–891. o. DOI:10.1111/j.1467-9868.2012.01033.x.
- ↑ Storey, John D. (2003) „The positive false discovery rate: A Bayesian interpretation and the q-value”. Annals of Statistics 31 (6), 2013–2035. o. DOI:10.1214/aos/1074290335.
- ↑ Efron, Bradley. Large-Scale Inference. Cambridge University Press (2010). ISBN 978-0-521-19249-1
- ↑ Abramovich F, Benjamini Y, Donoho D, Johnstone IM. (2006) „Adapting to unknown sparsity by controlling the false discovery rate”. Annals of Statistics 34 (2), 584–653. o. DOI:10.1214/009053606000000074.
- ↑ Donoho D, Jin J. (2006) „Asymptotic minimaxity of false discovery rate thresholding for sparse exponential data”. Annals of Statistics 34 (6), 2980–3018. o. DOI:10.1214/009053606000000920.
- ↑ Benjamini Y, Gavrilov Y. (2009) „A simple forward selection procedure based on false discovery rate control”. Annals of Applied Statistics 3 (1), 179–198. o. DOI:10.1214/08-AOAS194.
- ↑ Donoho D, Jin JS. (2004) „Higher criticism for detecting sparse heterogeneous mixtures”. Annals of Statistics 32 (3), 962–994. o. DOI:10.1214/009053604000000265.