Globális katasztrófakockázat

A globális katasztrófakockázat vagy világvége forgatókönyv egy olyan feltevésen alapuló esemény, amely globális léptékben károsíthatja az emberi jólétet,[2] sőt, veszélybe sodorhatja a modern civilizációt vagy akár el is pusztíthatja azt.[3] Az olyan eseményt, amely emberiség kihalását okozhatja, vagy hosszú távon és drasztikus mértékben korlátozhatja az emberiség életkörülményeit vagy lehetőségeit, „egzisztenciális kockázatnak” nevezik.[4]
A 21. században számos tudományos és nonprofit szervezet jött létre annak érdekében, hogy feltárja a globális katasztrófa- és egzisztenciális kockázatokat, kidolgozza a lehetséges enyhítő intézkedéseket, és ezek mellett érveljen vagy végre is hajtsa azokat.[5][6][7][8]
A fogalom meghatározása és osztályozása
[szerkesztés]
A globális katasztrófakockázatok meghatározása
[szerkesztés]A globális katasztrófakockázat kifejezésnek "nincsen pontos meghatározása", és általában véve (némiképp lazán megfogalmazva) olyan kockázatra utal, amely "globális szinten súlyos károkat okozhat az emberiség jólétében".[10]
Az emberiség korábban is átélt kisebb-nagyobb katasztrófákat. Néhány ezek közül komoly károkat okozott, de ezek mind csupán helyi szinten hatottak – mint például a fekete halál, amely az európai lakosság egyharmadának pusztulását okozta,[11] ami a korabeli világ népességének 10%-át jelentette.[12] Más katasztrófák globálisak voltak ugyan, de kevésbé súlyosak – például az 1918-as influenzajárvány során a becslések szerint a világ népességének 3–6%-a elhunyt.[13] A legtöbb globális katasztrófakockázat nem lenne képes akkora pusztítást okozni, hogy kiirtsa a földi élőlények jelentős hányadát, de még, ha ez be is következne, az ökoszisztéma és az emberiség idővel valószínűleg képes lenne regenerálódni (ellentétben az egzisztenciális kockázatokkal).
Hasonlóképpen a Catastrophe: Risk and Response című művében Richard Posner kiemeli és egy kategóriába sorolja azokat az eseményeket, amelyek "teljes pusztuláshoz vagy hanyatláshoz" vezetnek globális, nem pedig "helyi vagy regionális” léptékben. Posner rámutat arra, hogy ezek az események költség-haszon szempontok alapján külön figyelmet érdemelnek, mert közvetlenül vagy közvetve veszélyeztethetik az emberi faj egészének fennmaradását.[14]
Az egzisztenciális kockázatok meghatározása
[szerkesztés]Az egzisztenciális kockázatok meghatározás szerint "olyan kockázatok, amelyek súlyos mértékben fenyegetik az emberiség hosszú távú életben maradásának lehetőségeit".[15] Egy egzisztenciális kockázat (egzisztenciális katasztrófa[16]) megvalósulása vagy egyenesen az emberiség kihalásához vezetne, vagy visszafordíthatatlanul egy drasztikusan rosszabb állapotot idézne elő.[9][17] Az egzisztenciális kockázatok a globális katasztrófakockázatok egy alcsoportját képezik, ahol a károk nemcsak globálisak, hanem véglegesek és maradandóak is, megakadályozva a helyreállítást, és ezáltal mind a jelenlegi, mind pedig a jövő generációkra is hatással vannak.[9]
Kihalással nem járó kockázatok
[szerkesztés]Bár az emberiség hosszút távú fennmaradását biztosító lehetőségeknek minden kétséget kizáróan a kihalás lehet a legfőbb akadálya, léteznek ennek más formái is, mint például a visszafordíthatatlan összeomlás és a visszafordíthatatlan disztópia.[18] Egy olyan katasztrófa, ami eléggé súlyos ahhoz, hogy az emberi civilizáció végleges, visszafordíthatatlan összeomlását idézze elő, szintén egzisztenciális katasztrófának minősülne, még akkor is, ha nem vezetne kihaláshoz.[18] Hasonlóképpen, ha az emberiség egy minden szinten érvényesülő rezsim hatalma alá kerülne és nem lenne esély a helyreállításra, akkor egy ilyen disztópia szintén egzisztenciális katasztrófának számítana.[19] Bryan Caplan szerint "talán az örökkévalóságig tartó totális uralom még rosszabb lenne, mint maga a kihalás".[19] (George Orwell 1984 című regénye[20] egy példát is javasol erre.[21] ) A disztópikus forgatókönyv osztozik a kihalás és a civilizáció helyrehozhatatlan összeomlásának kulcsfontosságú jellemzőiben: a katasztrófa előtt az emberiség fényes jövőképek sokasága közül választhatott; a katasztrófa után azonban örökre egy szörnyű állapotba kényszerül.[18]
Steven Pinker pszichológus szerint az egzisztenciális kockázat egy "haszontalan kategória", amely elvonhatja a figyelmet azokról a fenyegetésekről, amelyeket ő valósnak és megoldhatónak tart – például az éghajlatváltozásról vagy a nukleáris háborúról.[22]
A kockázatok lehetséges forrásai
[szerkesztés]A lehetséges globális katasztrófakockázatokat hagyományosan ember okozta (antropogén) vagy nem ember okozta (nem antropogén) veszélyforrásként osztályozzák. A nem antropogén kockázatok közé tartozik például az aszteroida vagy üstökös becsapódási esemény, egyszupervulkán kitörés, egy természetes eredetű világjárvány, egy halálos gamma-kitörés, egy koronakidobódásból származó geomágneses vihar, amely megsemmisíti az elektronikai berendezéseket, a természetes, hosszú távú éghajlatváltozás, az ellenséges földönkívüli élet, és a Nap vörös óriássá válása, amely néhány évmilliárd év múlva elnyelheti a Földet.[23]

Az antropogén kockázatokat az ember idézi elő, beleértve a technológiához, a kormányzáshoz és az éghajlatváltozáshoz kapcsolódó kockázatokat. A technológiai kockázatok közé tartozik például az olyan mesterséges intelligencia létrehozása, amely nincs összhangban az emberi célokkal, a biotechnológia és a nanotechnológia. Az elégtelen vagy ártó szándékú globális kormányzás társadalmi és politikai szinten jelent kockázatot, mint például a globális háborút és a nukleáris holokauszt,[24] a biológiai hadviselés és a géntechnológiával módosított szervezeteket felhasználó bioterrorizmus, a kritikus infrastruktúrákat, például az elektromos hálózatot elpusztító kibertámadások és a kiberterrorizmus, vagy a sugárzó fegyverek bevetése, mint például a nagy kobalt-bombák. További globális katasztrófakockázatok közé tartozik az éghajlatváltozás, a környezet pusztulása, a fajok kihalása, az erőforrások egyenlőtlen elosztásából eredő éhínség, a túlnépesedés vagy éppen az alacsony népességszám, a terméskiesés és a nem fenntartható mezőgazdaság .
Módszertani kihívások
[szerkesztés]A globális katasztrófakockázatok és egzisztenciális kockázatok természetére és mérséklésére irányuló kutatás egyedi kihívásokkal szembesül, ennek következtében kevésbé alkalmazhatók rá a tudományos szigor szokásos normái.[18] Például nem megvalósítható és nem is lenne etikus ezeknek a kockázatoknak a kísérleti vizsgálata. Carl Sagan a nukleáris háborúval kapcsolatban így fogalmazott: "A nukleáris háború hosszú távú következményeinek megértése nem egy olyan probléma, amely kísérletileg igazolható lenne." Ezen túlmenően számos katasztrófakockázat percről-percre változik a technológia fejlődésével és a háttér feltételek, például a geopolitikai viszonyok változásával egyetemben. További kihívást jelent az is, hogy általában nehéz hosszú távú, pontos előrejelzéseket készíteni a jövőre nézve, különösen az ember által okozott kockázatok esetében, amelyek összetett politikai, gazdasági és társadalmi rendszerektől függenek.[18] A már ismert és kézzelfogható kockázatok mellett előfordulhatnak előre nem látható, úgynevezett fekete hattyú típusú kihalási események is, amelyek további módszertani problémát jelentenek.[18][25]
Történelmi előzmény hiánya
[szerkesztés]Az emberiség még soha nem szenvedett el egzisztenciális katasztrófát, és ha egyszer bekövetkezne egy ilyen esemény, az minden kétséget kizáróan példa nélküli lenne.[18] Ezért az egzisztenciális kockázatok előrejelzése különösen nagy kihívás, még más hosszú távú eseményekhez képest is, részben a megfigyelési szelekciós torzítások miatt.[26] A legtöbb eseménnyel ellentétben az a tény, hogy eddig még nem történt teljes kihalást okozó esemény nem tekinthető bizonyítéknak az ilyen kockázatok jövőbeni valószínűségére nézve, mivel minden olyan korszakban, amelyben egy ilyen kihalási esemény bekövetkezett, nem voltak emberek, akik ezt megfigyelhették volna. Függetlenül attól, hogy milyen gyakran fordul elő egy civilizáció összeomlása, egyetlen civilizáció sem tapasztalt meg egzisztenciális kockázatokat a saját történelme során.[26] Ezek az emberi kihívások részben elkerülhetők, ha olyan bizonyítékokat vizsgálunk, amelyekre nem hat a szelekciós torzítás, mint például a Holdon lévő aszteroida becsapódási kráterek, vagy közvetlenül értékeljük az új technológiák várható következményeit.[9]
Ahhoz, hogy megértsük egy példátlan és helyrehozhatatlan globális civilizációs összeomlás (amely egyfajta egzisztenciális kockázat) dinamikáját, hasznos lehet tanulmányozni az emberi történelem során bekövetkezett különféle helyi civilizációs összeomlásokat.[27] Például az olyan civilizációkét, mint a Római Birodalom, amelyek a központosított kormányzás megszűnésével, valamint az infrastruktúra és a fejlett technológia egész civilizációra kiterjedő jelentős veszteségével értek véget. Ezek a példák azonban arra is rámutatnak, hogy a társadalmak meglehetősen ellenállónak tűnnek a katasztrófákkal szemben; például a középkori Európa átvészelte a fekete halál pusztítását anélkül, hogy az a civilizáció összeomlásához hasonló következményekkel járt volna, noha a lakosságának 25-50%-át elvesztette.[28]
Ösztönzők és koordináció
[szerkesztés]Gazdasági okokkal is megmagyarázható, hogy miért fordítanak olyan kevés figyelmet a globális katasztrófakockázat csökkentésére. Egyrészt ez egy spekulatív terület, amely soha nem is valósulhat meg, ezért sokan inkább ennél sürgetőbb problémákra összpontosítanak. Másrészt ez egy globális közjó, így várható, hogy a piacok kínálata nem lesz elegendő.[9] Még, ha egy nagyobb nemzet be is fektetne a kockázatokat csökkentő intézkedésekbe, az ebből származó előnyöknek csupán kis részét élvezné közvetlenül. Ráadásul a globális katasztrófakockázatok csökkentése egyfajta generációkon átívelő globális közjónak is tekinthető. Mivel a csökkentés feltételezett előnyeit nagyrészt a jövő generációi élveznék, és bár ezek a jövőbeli emberek elméletileg talán hajlandóak lennének jelentős összegeket fizetni a kockázatok csökkentése érdekében, jelenleg nem létezik olyan mechanizmus, amely lehetővé tenné egy ilyen tranzakció lebonyolítását.[9]
Kognitív torzítások
[szerkesztés]Számos kognitív torzítás befolyásolhatja az emberek megítélését az egzisztenciális kockázatok fontosságával kapcsolatban, ideértve többek között a hatókör iránti érzéketlenségét, a hiperbolikus diszkontálást, az elérhetőségi heurisztikát, az összekapcsolási tévedést, az érzelmi heurisztikát és a túlzott magabiztossági hatást.[29]
A hatókör iránti érzéketlenség leginkább azt befolyásolja, hogy az emberek mennyire tartják drámainak az emberi faj kihalását. Például, amikor az embereket arra ösztönzik, hogy pénzt áldozzanak önzetlen célokra, az általuk felajánlott összeg nem növekszik arányosan a probléma nagyságával: az emberek nagyjából ugyanannyira hajlandóak megakadályozni 200 000 vagy 2 000 madár kipusztulását. Hasonlóképpen, az emberek gyakran jobban aggódnak az egyéneket fenyegető veszélyek, mint a nagyobb csoportokat érintő fenyegetések miatt.[29]
Eliezer Yudkowsky elmélete szerint a hatókör iránti érzéketlenség szerepet játszik az egzisztenciális kockázatokkal kapcsolatos társadalmi megítélésben:[30]
Lényegesen nagyobb számok, mint például 500 millió haláleset, és különösen az olyan, minőségi szempontból eltérő forgatókönyvek, mint az egész emberi faj kihalása, látszólag teljesen más gondolkodásmódot váltanak ki az emberekből.... Azok az emberek, akiknek eszükbe sem jutna bántani egy gyermeket, amikor az egzisztenciális kockázatról hallanak, azt mondják: "Nos, talán az emberi faj nem is érdemli meg, hogy túléljen".
Az emberiség kihalására vonatkozó minden korábbi előrejelzés hamisnak bizonyult. Egyesek számára ez a tény kevésbé hihetővé teszi a jövőbeni figyelmeztetéseket. Nick Bostrom szerint azonban az, hogy az emberiség kihalása még nem történt meg, gyenge lábakon álló bizonyítéknak számít arra nézve, hogy a jövőben sem fog bekövetkezni, mivel a túléléssel kapcsolatos torzítás és más emberi hatások torzítják az érzékelést.[31]
A szociobiológus E. O. Wilson így érvelt: "Az evolúcióbiológusok szerint ennek a rövidlátó, elhomályosult szemléletnek az az oka, hogy az emberi nemzetség létezésének csaknem kétmillió éves fennállása során, az utolsó néhány évezred kivételével, valóban előnyös volt ez a nézőpont... Kiemelt figyelmet kapott a közeljövő és a korai szaporodás, minden más pedig háttérbe szorult. Az olyan katasztrófák, amelyek csak néhány évszázadonként fordulnak elő, vagy feledésbe merültek vagy mítosszá alakultak át."
Javasolt enyhítési stratégiák
[szerkesztés]Többrétegű védelem
[szerkesztés]A mélyreható védelem hasznos keretrendszert nyújt a kockázatcsökkentő intézkedések három védelmi szintre történő kategorizálása kapcsán:[32]
- Megelőzés: A katasztrófa bekövetkezésével kapcsolatos valószínűség csökkentése. Példa: Az új, rendkívüli mértékben fertőző betegségek kitörésének megelőzésére irányuló intézkedések.
- Reagálás: A katasztrófa globális szinten való elterjedésének megakadályozása. Példa: Az olyan intézkedések, amelyek megakadályozzák, hogy egy kisebb léptékű nukleáris összecsapás totális nukleáris háborúvá eszkalálódjon.
- Reziliencia: Az emberiség rugalmas ellenálló képességének növelése (a kihalással szemben), amikor globális katasztrófákkal szembesül. Példa: Az élelmezésbiztonság növelésére irányuló intézkedések nukleáris tél estére.[33]
Az emberiség kihalása akkor a legvalószínűbb, ha mindhárom védelmi mód meggyengül, azaz amikor "olyan kockázatokkal állunk szemben, amelyeket valószínűleg nem leszünk képesek megelőzni, hatékonyan kezelni, és amelyekkel szemben nem vagyunk kellőképpen ellenállóak".[32]
Az egzisztenciális kockázatok példátlan jellege különleges kihívást jelent a kockázatcsökkentő intézkedések megtervezése során, mivel az emberiségnek nincs lehetősége arra, hogy tanuljon a korábbi eseményekből.[18]
Finanszírozás
[szerkesztés]Egyes kutatók szerint mind a kutatás, mind az egzisztenciális kockázatokkal kapcsolatos egyéb kezdeményezések alulfinanszírozottak. Nick Bostrom úgy véli, hogy több kutatás született a Star Trek című sorozattal kapcsolatban, a snowboardozásról vagy a ganajtúró bogarakról, mint az egzisztenciális kockázatokról. Bostrom összehasonlításait azonban egyesek túlzónak és "lekezelőnek" tartják.[22][34] A Biológiai Fegyverek Egyezményének szervezete 2020-ban mindössze 1,4 millió dolláros költségvetésből működött.[35]
A túlélés megtervezése
[szerkesztés]Egyes tudományos szakemberek azt javasolják, hogy alakítsanak ki a Földön egy vagy több önellátó, egymástól távol lévő, állandóan lakott települést, amelyeket kifejezetten egy globális katasztrófa túlélése céljából hoztak létre.[36][37][38] Robin Hanson közgazdász szerint egy olyan menedékhely, amely hosszú távon képes akár 100 embernek is otthont adni, jelentősen javítaná az emberiség túlélésének esélyeit különféle globális katasztrófák esetén.[39]
A globális szintű élelmiszertárolás is felmerült javaslatként, azonban ennek finanszírozása igencsak költséges lenne. Ráadásul valószínűleg hozzájárulna az alultápláltság miatt évente bekövetkező több millió ember halálához.[40] David Denkenberger vezetésével 2022-ben egy kutatócsoport modellezte a reziliens élelmiszerek költséghatékonyságát a mesterséges általános intelligencia (AGI) biztonságához képest, és "körülbelül 98-99%-os biztonsággal" arra jutottak, hogy a reziliens élelmiszerekkel kapcsolatos munka nagyobb hatásfokkal bír.[41] Egyes túlélők olyan menedékhelyeket hoznak létre, amelyek több évre elegendő élelmiszerkészlettel rendelkeznek.
A Svalbard Global Seed Vault egy hegy gyomrába van beépítve, 120 méterrel a földfelszín alatt, egy szigeten, az Északi-sarkvidéken. A létesítményt úgy tervezték meg, hogy a több, mint 100 országból származó, 2,5 milliárd vetőmagot elővigyázatosságból elraktározhassák a világ terményeinek megőrzése érdekében. A környező kőzet hőmérséklete -6 Celsius-fok volt 2015-ben, de a tárolót -18 Celsius-fokos hőmérsékleten tartják, helyben kitermelt szénnel működő hűtőberendezések segítségével.[42][43]
Feltételezések szerint, ha a társadalom továbbra is működőképes marad és a bioszféra is alkalmas lesz az életre, akkor a jelenlegi népesség kalóriaszükségletét elméletileg ki lehetne elégíteni akár hosszabb ideig tartó napfényhiány esetén is, megfelelő előzetes tervezés mellett. A feltételezett megoldások között szerepel például a gombatermesztés a katasztrófa nyomán visszamaradt, elhalt növényi biomasszán, a cellulóz cukorrá alakítása, vagy metánt lebontó baktériumok etetése földgázzal.[44][45]
Globális katasztrófakockázatok és globális kormányzás
[szerkesztés]A nem megfelelő globális kormányzás társadalmi és politikai területen is komoly kockázatokkal jár, miközben a kormányzásra irányuló mechanizmusok fejlődése lassabb ütemben zajlik, mint a technológiai és társadalmi változások. A kormányok, a magánszektor és a közvélemény is aggodalmukat fejezik ki amiatt, hogy hiányoznak azok a hatékony kormányzási eszközök, amelyek képesek lennének megfelelően kezelni a kockázatokat, valamint a különféle és gyakran ellentétes érdekek mentén zajló tárgyalásokat és a döntéshozatalt. Ezt a problémát tovább súlyosbítja a globális rendszerszintű kockázatok összekapcsolódásának felismerése.[46] Globális kormányzás hiányában vagy azt megelőzendő, a nemzeti kormányok egyénileg is felléphetnek a globális katasztrófák jobb megértése, mérséklése és az azokra való felkészülés érdekében.[47]
Klímavészhelyzeti tervek
[szerkesztés]A Római Klub 2018-ban az éghajlatváltozás elleni fellépés fokozására szólított fel, és közzétette az Klímavészhelyzeti tervet, amely tíz pontba foglalta a szükséges intézkedéseket annak érdekében, hogy a globális átlaghőmérséklet emelkedés 1,5 Celsius-fok alatt maradjon.[48] Ezt követően 2019-ben a Klub közzétette az átfogóbb Bolygószintű Vészhelyzeti Tervet is.[49]
Bizonyítékok utalnak arra, hogy ha kollektíven foglalkozunk azokkal az érzelmi benyomásokkal, amelyek az emberi faj sebezhetőségének az éghajlatváltozással összefüggésben való tudatosítása során merülnek fel, akkor ezek az élmények rugalmassá válhatnak. Ha az érzelmi tapasztalatok közös feldolgozása támogató közegben történik meg, az hozzájárulhat a reziliencia, azaz a rugalmas ellenálló képesség fejlesztéséhez, a pszichológiai rugalmasság kialakulásához, az érzelmi megtapasztalásokkal szembeni tűrőképesség és a közösségi elkötelezettség növeléséhez.[50]
A világűr gyarmatosítása
[szerkesztés]A világűr gyarmatosítása egy olyan javasolt alternatív lehetőség, ami az emberi faj túlélési esélyeinek növelését szolgálja, egy esetleges kihalási forgatókönyv esetén.[51] Az ilyen léptékű megoldások megvalósítása során valószínűleg elképesztő léptékű mérnöki fejlesztésekre lenne szükség.
Stephen Hawking asztrofizikus a Naprendszeren belüli más bolygók gyarmatosítását szorgalmazta, amint azt a technológia fejlődése lehetővé teszi, mindezt a célból, hogy növelje az emberiség túlélési esélyeit olyan bolygószintű eseményekkel szemben, mint például egy globális termonukleáris háború.[52][53]
Szervezetek
[szerkesztés]Az 1945-ben alapított Bulletin of the Atomic Scientists az egyik legrégebbi globális kockázatokkal foglalkozó szervezet, amelyet azután alapítottak meg, hogy a II. világháborút követően a közvélemény aggódni kezdett az nukleáris háború lehetősége miatt. A szervezet a nukleáris háborúval valamint az atomenergiával kapcsolatos kockázatokat tanulmányozza, és híres az 1947-ben létrehozott Végítélet órájának fenntartásáról. Az 1986-ban alapított Foresight Institute a nanotechnológia kockázatait és előnyeit vizsgálja. Ez volt az egyik legelső szervezet, amely a globális szinten elszabadult, egyébként ártalmatlan technológiák nem szándékos következményeit tanulmányozta. Az intézetet K. Eric Drexler alapította, aki megalkotta a „szürke iszap” elméletét.[54][55]
A 2000-es évet követően egyre több tudományos szakember, filozófus és tech-milliárdos hozott létre olyan szervezeteket, amelyek a globális kockázatok tanulmányozásának szentelik tevékenységüket, mind a tudományos körökön belül, mind pedig azokon kívül.[56]
A független, nem kormányzati szervezetek (NGO-k) közé tartozik a 2000-ben megalapított Machine Intelligence Research Institute, amelynek célja a mesterséges intelligencia által okozott katasztrófakockázatok csökkentése.[57] Támogatói között szerepel például Peter Thiel és Jed McCaleb.[58] A 2001-ben alapított Nuclear Threat Initiative arra törekszik, hogy csökkentse a nukleáris, biológiai és vegyi fenyegetésekből eredő globális kockázatokat, valamint mérsékelje az ilyen eseményt követő károkozás mértékét.[8] A szervezet nukleáris anyagbiztonsági indexet is vezet.[59] A 2009-ben alapított Lifeboat Foundation a technológiai katasztrófák megelőzésére irányuló kutatásokat finanszíroz.[60] A kutatási források nagy része egyetemeken zajló projekteket támogat.[61] A 2011-ben Seth Baum és Tony Barrett által alapított Global Catastrophic Risk Institute egy amerikai székhelyű nonprofit, pártoktól független agytröszt. A GCRI különböző kockázatokkal kapcsolatos kutatásokat és szakpolitikai munkát végez, többek között a mesterséges intelligencia, a nukleáris háború, az éghajlatváltozás és az aszteroida-becsapódása terén.[62] A stockholmi székhelyű, Szombatfalvy László által 2012-ben alapított Global Challenges Foundation évente jelentést tesz közzé a globális kockázatok állapotáról.[63][64] A 2014-ben alapított Future of Life Institute arra törekszik, hogy csökkentse az átalakuló technológiákból eredő szélsőséges, nagyszabású kockázatokat, és olyan irányba terelje ezek fejlesztését, amely minden életformát szolgál. Mindezt úgy valósítja meg, hogy támogatást nyújt, az Egyesült Államokban, az Európai Unióban és az ENSZ-ben folytatott politikai érdekérvényesítés és oktatási tevékenység révén.[7] Elon Musk, Vitalik Buterin és Jaan Tallinn a legnagyobb adományozói közé tartoznak.[65]
Az egyetemekhez kötődő szervezetek közé tartozik a 2005-ben megalapított Future of Humanity Institute, amely az emberiség hosszú távú jövőjének kérdéseivel, különösen az egzisztenciális kockázatokkal foglalkozott.[5] Az intézetet Nick Bostrom alapította, és székhelye az Oxfordi Egyetemen működött.[5] A 2012-ben alapított Centre for the Study of Existential Risk a Cambridge-i Egyetemen működő szervezet, amely négy fő technológiai kockázatot tanulmányoz: a mesterséges intelligenciát, a biotechnológiát, a globális felmelegedést és a hadviselést.[6] Ezek mindegyike ember által előidézett kockázat. Ahogy Huw Price az AFP hírügynökségnek kifejtette: "Észszerű előrejelzésnek tűnik, hogy valamikor ebben vagy a következő században az intelligencia ki fog törni a biológia korlátai közül". Hozzátette, hogy amikor ez megtörténik, "már nem mi leszünk a legokosabb lények a bolygón", így fennáll annak a veszélye, hogy ki leszünk szolgáltatva "olyan gépeknek, amelyek nem rosszindulatúak, de amelyeknek az érdekei között az emberiség nem szerepel".[66] Stephen Hawking az intézet megbízott tanácsadójaként is közreműködött. A Millennium Alliance for Humanity and the Biosphere egy Stanford Egyetemen működő szervezet, amely a globális katasztrófákkal kapcsolatos számos kérdéssel foglalkozik, elsősorban a humán tudományterületek szakmai képviselőinek összefogásával.[67][68] Az alapítói között volt többek között Paul Ehrlich is.[69] A Stanford Egyetemen működik továbbá a Center for International Security and Cooperation is, amely a globális katasztrófakockázat csökkentésére irányuló politikai együttműködésre összpontosít.[70] A Center for Security and Emerging Technology 2019 januárjában jött létre a Georgetown Egyetem Walsh School of Foreign Service intézményén belül, és a feltörekvő technológiák, különösen a mesterséges intelligencia szakpolitikai kutatására összpontosít.[71] A központ az Open Philanthropy javaslatára 55 millió dolláros támogatást kapott a Good Ventures-től.[71]
Egyéb kockázatértékeléssel foglalkozó csoportok kormányzati szervezetekhez kapcsolódnak, vagy azok részeként működnek. Az Egészségügyi Világszervezet (WHO) egyik részlege a Global Alert and Response (GAR), amely a globális járványügyi válságokat figyeli és reagál rájuk.[72] A GAR támogatja a tagállamokat a járványokra való felkészülésben, valamint a válaszlépésekkel kapcsolatos koordinálásban és a szakmai képzésekben.[73] A United States Agency for International Development (USAID) működteti az Emerging Pandemic Threats Program nevű projektet, amelynek célja, hogy a keletkezési forrásnál megelőzze és megfékezze a természetes úton keletkező világjárványokat.[74] A Lawrence Livermore National Laboratory keretében működik a Global Security Principal Directorate nevű részleg, amely a kormány megbízásából olyan kérdéseket kutat, mint a biológiai biztonság és a terrorelhárítás.[75]
Jegyzetek
[szerkesztés]- ↑ Schulte (2010. március 5.). „The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary”. Science 327 (5970), 1214–1218. o. DOI:10.1126/science.1177265. PMID 20203042.
- ↑ Bostrom, Nick. Global Catastrophic Risks. Oxford University Press, 1. o. (2008. június 22.)
- ↑ „World Scientists' Warning to Humanity: A Second Notice”. BioScience 67 (12), 1026–1028. o. DOI:10.1093/biosci/bix125.
- ↑ Bostrom (2002. március 1.). „Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards”. Journal of Evolution and Technology 9.
- ↑ a b c About FHI. Future of Humanity Institute. (Hozzáférés: 2021. augusztus 12.)
- ↑ a b About us. Centre for the Study of Existential Risk. (Hozzáférés: 2021. augusztus 12.)
- ↑ a b The Future of Life Institute. Future of Life Institute. (Hozzáférés: 2014. május 5.)
- ↑ a b Nuclear Threat Initiative. Nuclear Threat Initiative. (Hozzáférés: 2015. június 5.)
- ↑ a b c d e f Bostrom (2013). „Existential Risk Prevention as Global Priority”. Global Policy 4 (1), 15–3. o. DOI:10.1111/1758-5899.12002.
- ↑ Bostrom, Nick. Global Catastrophic Risks. Oxford: Oxford University Press, 1. o. (2008. június 22.). ISBN 978-0-19-857050-9
- ↑ Ziegler, Philip. The Black Death. Faber and Faber, 397. o. (2012. június 22.). ISBN 9780571287116
- ↑ Muehlhauser: How big a deal was the Industrial Revolution?. lukemuelhauser.com, 2017. március 15. (Hozzáférés: 2020. augusztus 3.)
- ↑ Taubenberger (2006). „1918 Influenza: the Mother of All Pandemics”. Emerging Infectious Diseases 12 (1), 15–22. o. DOI:10.3201/eid1201.050979. PMID 16494711. PMC 3291398.
- ↑ Posner, Richard A.. Catastrophe: Risk and Response. Oxford: Oxford University Press (2006. június 22.). ISBN 978-0195306477 Introduction, "What is Catastrophe?"
- ↑ Ord, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette (2020. június 22.). ISBN 9780316484916 „This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.”
- ↑ Cotton-Barratt, Owen, Existential risk and existential hope: Definitions, <http://www.fhi.ox.ac.uk/Existential-risk-and-existential-hope.pdf>
- ↑ Bostrom (2009). „Astronomical Waste: The opportunity cost of delayed technological development”. Utilitas 15 (3), 308–314. o. DOI:10.1017/s0953820800004076.
- ↑ a b c d e f g h Ord, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette (2020. június 22.). ISBN 9780316484916
- ↑ a b Bryan Caplan (2008). "The totalitarian threat". Global Catastrophic Risks, eds. Bostrom & Cirkovic (Oxford University Press): 504–519. ISBN 9780198570509
- ↑ Glover. „Did George Orwell secretly rewrite the end of Nineteen Eighty-Four as he lay dying?”, The Sydney Morning Herald, 2017. június 1. (Hozzáférés: 2021. november 21.) „Winston's creator, George Orwell, believed that freedom would eventually defeat the truth-twisting totalitarianism portrayed in Nineteen Eighty-Four.”
- ↑ Orwell, George. Nineteen Eighty-Four. A novel [archivált változat]. London: Secker & Warburg (1949). Hozzáférés ideje: 2021. augusztus 12. [archiválás ideje: 2012. május 4.]
- ↑ a b Kupferschmidt. „Could science destroy the world? These scholars want to save us from a modern-day Frankenstein”, Science, AAAS, 2018. január 11. (Hozzáférés: 2020. április 20.)
- ↑ Baum (2023). „Assessing natural global catastrophic risks”. Natural Hazards 115 (3), 2699–2719. o. DOI:10.1007/s11069-022-05660-w. PMID 36245947. PMC 9553633.
- ↑ Scouras (2019). „Nuclear War as a Global Catastrophic Risk”. Journal of Benefit-Cost Analysis 10 (2), 274–295. o. DOI:10.1017/bca.2019.16.
- ↑ Jebari (2014). „Existential Risks: Exploring a Robust Risk Reduction Strategy”. Science and Engineering Ethics 21 (3), 541–54. o. DOI:10.1007/s11948-014-9559-3. PMID 24891130. (Hozzáférés: 2018. augusztus 26.)
- ↑ a b Cirkovic (2010). „Anthropic Shadow: Observation Selection Effects and Human Extinction Risks”. Risk Analysis 30 (10), 1495–1506. o. DOI:10.1111/j.1539-6924.2010.01460.x. PMID 20626690.
- ↑ Kemp: Are we on the road to civilization collapse?. BBC, 2019. február 1. (Hozzáférés: 2021. augusztus 12.)
- ↑ Ord, Toby. The Precipice: Existential Risk and the Future of Humanity. Hachette Books (2020. június 22.). ISBN 9780316484893 „Europe survived losing 25 to 50 percent of its population in the Black Death, while keeping civilization firmly intact”
- ↑ a b Yudkowsky (2008). „Cognitive Biases Potentially Affecting Judgment of Global Risks”. Global Catastrophic Risks, 91–119. o.
- ↑ Yudkowsky, Eliezer. "Cognitive biases potentially affecting judgment of global risks". Global catastrophic risks 1 (2008): 86. p.114
- ↑ We're Underestimating the Risk of Human Extinction. The Atlantic, 2012. március 6. (Hozzáférés: 2016. július 1.)
- ↑ a b Cotton-Barratt (2020). „Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter”. Global Policy 11 (3), 271–282. o. DOI:10.1111/1758-5899.12786. ISSN 1758-5899. PMID 32427180. PMC 7228299.
- ↑ García Martínez. „Resilient foods for preventing global famine: a review of food supply interventions for global catastrophic food shocks including nuclear winter and infrastructure collapse”. Critical Reviews in Food Science and Nutrition 0 (0), 1–27. o. DOI:10.1080/10408398.2024.2431207. ISSN 1040-8398. PMID 39932463.
- ↑ „Oxford Institute Forecasts The Possible Doom Of Humanity”, Popular Science, 2013. június 22. (Hozzáférés: 2020. április 20.)
- ↑ Toby Ord. The precipice: Existential risk and the future of humanity. Hachette Books (2020. június 22.). ISBN 9780316484893 „The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4 million - less than the average McDonald's restaurant”
- ↑ Cotton‐Barratt, Owen, Anders (2020. május 1.). „Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter” (angol nyelven). Global Policy 11 (3), 271–282. o. DOI:10.1111/1758-5899.12786. ISSN 1758-5880. (Hozzáférés: 2025. április 4.)
- ↑ Smil, Vaclav. The Earth's Biosphere: Evolution, Dynamics, and Change. MIT Press, 25. o. (2003). ISBN 978-0-262-69298-4
- ↑ Denkenberger (2022). „Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety”. International Journal of Disaster Risk Reduction 73, 102798. o. DOI:10.1016/j.ijdrr.2022.102798.
- ↑ Lewis Smith. „Doomsday vault for world's seeds is opened under Arctic mountain”, The Times Online, 2008. február 27.. [2008. május 12-i dátummal az eredetiből archiválva]
- ↑ Suzanne Goldenberg: The doomsday vault: the seeds that could save a post-apocalyptic world. The Guardian, 2015. május 20. (Hozzáférés: 2017. június 30.)
- ↑ „Here's how the world could end—and what we can do about it”, Science, AAAS, 2016. július 8. (Hozzáférés: 2018. március 23.)
- ↑ Denkenberger (2015. szeptember 1.). „Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun”. Futures 72, 57–68. o. DOI:10.1016/j.futures.2014.11.008.
- ↑ Global Challenges Foundation | Understanding Global Systemic Risk. globalchallenges.org. [2017. augusztus 16-i dátummal az eredetiből archiválva]. (Hozzáférés: 2017. augusztus 15.)
- ↑ Global Catastrophic Risk Policy. gcrpolicy.com. [2019. augusztus 11-i dátummal az eredetiből archiválva]. (Hozzáférés: 2019. augusztus 11.)
- ↑ Club of Rome: The Climate Emergency Plan, 2018. (Hozzáférés: 2020. augusztus 17.)
- ↑ Club of Rome: The Planetary Emergency Plan, 2019. (Hozzáférés: 2020. augusztus 17.)
- ↑ Kieft (2021). „The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research”. Institute for Leadership and Sustainability (IFLAS) Occasional Papers 7, 1–39. o.
- ↑ Mankind must abandon earth or face extinction: Hawking, <http://www.physorg.com/news200591777.html>. Hozzáférés ideje: January 23, 2012
- ↑ Malik: Stephen Hawking: Humanity Must Colonize Space to Survive. Space.com, 2013. április 13. (Hozzáférés: 2016. július 1.)
- ↑ Shukman. „Hawking: Humans at risk of lethal 'own goal'”, BBC News, 2016. január 19. (Hozzáférés: 2016. július 1.)
- ↑ Fred Hapgood: Nanotechnology: Molecular Machines that Mimic Life. Omni, 1986. november 1. [2013. július 27-i dátummal az eredetiből archiválva]. (Hozzáférés: 2015. június 5.)
- ↑ Giles (2004). „Nanotech takes small step towards burying 'grey goo'”. Nature 429 (6992), 591. o. DOI:10.1038/429591b. PMID 15190320.
- ↑ Sophie McBain: Apocalypse soon: the scientists preparing for the end times. New Statesman, 2014. szeptember 25. (Hozzáférés: 2015. június 5.)
- ↑ Reducing Long-Term Catastrophic Risks from Artificial Intelligence. Machine Intelligence Research Institute. (Hozzáférés: 2015. június 5.) „The Machine Intelligence Research Institute aims to reduce the risk of a catastrophe, should such an event eventually occur.”
- ↑ Angela Chen (2014. szeptember 11.). „Is Artificial Intelligence a Threat?”. The Chronicle of Higher Education. (Hozzáférés: 2015. június 5.)
- ↑ Alexander Sehmar: Isis could obtain nuclear weapon from Pakistan, warns India. The Independent, 2015. május 31. [2015. június 2-i dátummal az eredetiből archiválva]. (Hozzáférés: 2015. június 5.)
- ↑ About the Lifeboat Foundation. The Lifeboat Foundation. (Hozzáférés: 2013. április 26.)
- ↑ Ashlee: The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I.. The New York Times, 2010. július 20. (Hozzáférés: 2015. június 5.)
- ↑ Global Catastrophic Risk Institute. gcrinstitute.org. (Hozzáférés: 2022. március 22.)
- ↑ Meyer: Human Extinction Isn't That Unlikely. The Atlantic. Emerson Collective, 2016. április 29. (Hozzáférés: 2016. április 30.)
- ↑ Global Challenges Foundation website. globalchallenges.org. (Hozzáférés: 2016. április 30.)
- ↑ Nick Bilton: Ava of 'Ex Machina' Is Just Sci-Fi (for Now). The New York Times, 2015. május 28. (Hozzáférés: 2015. június 5.)
- ↑ Hui: Cambridge to study technology's risks to humans. Associated Press, 2012. november 25. [2012. december 1-i dátummal az eredetiből archiválva]. (Hozzáférés: 2012. január 30.)
- ↑ Scott Barrett. Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press, 112. o. (2014). ISBN 9780199677856. Hozzáférés ideje: 2015. június 5.
- ↑ Millennium Alliance for Humanity & The Biosphere. Millennium Alliance for Humanity & The Biosphere. (Hozzáférés: 2015. június 5.)
- ↑ Guruprasad Madhavan. Practicing Sustainability. Springer Science & Business Media, 43. o. (2012). ISBN 9781461443483. Hozzáférés ideje: 2015. június 5.
- ↑ Center for International Security and Cooperation. Center for International Security and Cooperation. (Hozzáférés: 2015. június 5.)
- ↑ Anderson. „Georgetown launches think tank on security and emerging technology”, Washington Post, 2019. február 28. (Hozzáférés: 2019. március 12.)
- ↑ USAID Emerging Pandemic Threats Program. USAID. [2014. október 22-i dátummal az eredetiből archiválva]. (Hozzáférés: 2015. június 5.)
- ↑ Global Alert and Response (GAR). World Health Organization. [2003. február 16-i dátummal az eredetiből archiválva]. (Hozzáférés: 2015. június 5.)
- ↑ a b Kelley Lee. Historical Dictionary of the World Health Organization. Rowman & Littlefield, 92. o. (2013). ISBN 9780810878587. Hozzáférés ideje: 2015. június 5.
- ↑ Global Security. Lawrence Livermore National Laboratory. [2007. december 27-i dátummal az eredetiből archiválva]. (Hozzáférés: 2015. június 5.)
- ↑ Kelley Lee. Historical Dictionary of the World Health Organization. Rowman & Littlefield, 92. o. (2013). ISBN 9780810878587
- ↑ Mid-term evaluation (March 2013-June 2015) / USAID. 2015. Hozzáférés: 2025. április 4.
- ↑ Johnson, Micah S., Darren (2020. február 1.). „Computed tomography with fast-neutron sources”. e-Journal of Nondestructive Testing 25 (2). DOI:10.58286/25107. ISSN 1435-4934. (Hozzáférés: 2025. április 4.)
Fordítás
[szerkesztés]Ez a szócikk részben vagy egészben a Global catastrophic risk című angol Wikipédia-szócikk fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.