Panda (algoritmus)

A Wikipédiából, a szabad enciklopédiából

A Google Panda a Google keresőmotor találatokat rangsoroló algoritmusának egy frissítése, amelyet először 2011 februárjában publikáltak. A frissítés számos változtatást tartalmazott a rangsorolást végző algoritmusban, amelyek célja az volt, hogy csökkentsék az alacsonyabb minőséget képviselő webhelyek helyezését, a színvonalasabb oldalakat pedig a találati listák élére helyezzék.

A frissítés élesítését követően a CNET szerint a híroldalak és közösségi oldalak helyezései szembetűnően javultak, azon oldalak helyezései pedig, amelyeken nagy mennyiségű reklám található, jelentősen romlottak a találati oldalakon.[1] Ez a változtatás az összes angol nyelvű keresési eredmény legalább 12 százalékát érintette.[2]

A Panda élesítését követően számos honlapon (többek között a Google webmesterfórumán) jelentek meg panaszok azzal kapcsolatban, hogy a tartalmakat duplikáló, szerzői jogokat megsértő oldalak sokszor jobb helyezéseket értek el a találati oldalakon, mint az érintett tartalmakat eredetileg leközlő webhelyek. A Google egy idő után arra kérte a felhasználókat, jelentsenek ilyen konkrét eseteket, hogy hatékonyabban észlelhessék a másolókat és így felléphessenek ellenük.[3]

2011. februári élesítése ót a Panda számos frissítésen esett már át, 2011 áprilisában pedig globálisan is bevezették a változtatást. Hogy a változás által érintett tartalomgyártókat segítsék, a Google saját blogján közzétett egy útmutatót, amely abban nyújtott némi támpontot, hogy a honlapok üzemeltetői hogyan állapíthatják meg, jó minőségű-e webhelyük. A Google egy 23 pontos listát állított össze, amely arra a kérdésre adott választ, hogy „Mi számít jó minőségű weboldalnak?”.

A rangsorolás szempontjai[szerkesztés]

A Google Panda lényegében egy szűrő, amely megakadályozza a gyenge minőségű weboldalakat abban, hogy túl jó helyezést érjenek el a keresőmotor által összeállított találati oldalakon. A szűrő által alkalmazott értékhatárokat befolyásolják a Google minőségértékelői is. A minőségértékelők olyan kérdéseket válaszolnak meg az egyes webhelyekről, mint hogy például bizalommal megadnák-e a bankkártya-adataikat. A keresőmotor így képes különbséget tenni a gyenge és jó minőségű oldalak között.[4]

Azt, hogy pontosan mi alapján határozza meg az algoritmus, jó vagy gyenge minőségű webhelyről van-e szó, a Google titokban tartja, de ismert, hogy több mint kétszáz szempontot vizsgál.[5] Az algoritmus működésére azonban számos helyen – blogposztokban, nyilatkozatokban – találhatóak utalások, amelyek segítenek a honlapok üzemeltetőinek a tartalmak szerkesztésében. A Google Webmaster Central blogja egy 2011. májusi bejegyzésben taglalja, hogy mitől lesz egy weboldal jó minőségű. A bejegyzés szerint (többek között) az alábbi kérdések mentén elindulva lehet a kérdést megválaszolni:[6]

  • Megbízna az oldalon közzétett információkban?
  • Az adott cikket egy szakértő vagy lelkes amatőr írta, aki jól ismeri a témát, vagy inkább felszínes jellegű az írás?
  • Vannak az oldalon olyan írások, amelyek tartalma duplikált, egymást átfedő vagy redundáns ugyanolyan vagy hasonló témákban, de más kulcsszó-változatokkal?
  • Bizalommal megadná bankkártya-adatait ennek az oldalnak?
  • Vannak az írásban helyesírási, stilisztikai hibák vagy tárgyi tévedések?
  • Az oldalon megjelenő tartalmak az olvasók érdeklődését tükrözik, vagy az alapján állítják össze, hogy a készítők szerint mi érne el jó helyezést a keresőmotorokban?
  • Tartalmaz az írás eredeti tartalmat, információt, beszámolót, kutatást vagy elemzést?
  • Ad-e az oldal plusz értéket, ha a találati oldalon felsorolt más oldalakhoz hasonlítjuk?
  • Mennyi minőségellenőrzést végeznek a tartalmakon?
  • Leírja a cikk a történet mindkét oldalát?
  • Elismert szakértője az oldal a témának?
  • A cikk jól szerkesztett, vagy hanyagul elkészített, összecsapott munka?
  • Felismerné ezt az oldalt a téma szakértőjeként, ha név szerint említenék?
  • Tartalmaz ez az oldal olyan elemzést vagy érdekes információt, amely túlmutat a nyilvánvaló információkon?
  • Van-e az oldalon nagyobb mennyiségű reklám, amely eltereli a figyelmet a fő tartalomról vagy megzavarja annak olvasását?

A Google Panda szabadalmi kérvényét 2012. szeptember 28-án nyújtották be az Amerikai Egyesült Államok szabadalmi hivatalához, amely 2014. március 25-én a 8,682,892 számmal jegyezte azt be. A szabadalom kijelenti, hogy a Google Panda az adott oldalra mutató hivatkozások, keresési lekérdezések alapján hoz létre egy arányszámot, amelyből azután előállít egy az egész webhelyre érvényes módosító tényezőt. Ezt azután arra használja, hogy a webhely egy oldalának módosító tényezőjét megalkossa egy keresési lekérdezés alapján. Amennyiben az oldal nem ér el egy adott szintet, a módosító tényezőt alkalmazva csökken helyezése a kereső találati oldalán.[7]

A Google Panda az egész webhely vagy bizonyos szakaszok rangsorolására van hatással, és nem kifejezetten a webhely egyes oldalaiéra.[8]

A szabadalomból kiderült az is, hogy nem csak a hivatkozásprofil változatossága fontos, a Google ugyanis a hivatkozásokat is súlyozza, többek között az alapján, hogy feltételezhető-e valamilyen befolyásolás. Az olyan linkeket, amelyek az algoritmus szerint nem függetlenek, a Panda nem veszi figyelembe rangsoroláskor.

Fontos újítás az is, hogy a szabadalom szerint a Google nem csak a hagyományos hivatkozásokat figyeli, de az úgynevezett „implied” linkeket, utalásokat is.[9] Ilyen lehet például, ha egy oldalon megemlítjük ugyan egy másik webhely nevét, ám nem kapcsolunk hozzá hiperhivatkozást.[10]

Története[szerkesztés]

2012 márciusában a Google frissítette a Pandát. Bejelentésük szerint az algoritmusban ekkor helyet kapott egy „túloptimalizálási büntetés” is, az esélyek kiegyenlítése végett.[11] Ez lényegében azt jelenti, hogy felléptek azon webhelyek ellen, amelyeket direkt úgy építettek fel, hogy az algoritmus megfelelő helyezéshez juttassa őket.

A Google szerint még egy egyébként jól karbantartott, általánosságban magas minőséget képviselő webhelyen is elég néhány gyenge minőségű vagy duplikált tartalmat tartalmazó oldal ahhoz, hogy a webhely pozíciója a rangsorolásban meggyengüljön. Éppen ezért azt tanácsolják, hogy az ilyen oldalakat a webhely üzemeltetői töröljék, tiltsák le azok indexelését vagy írják őket újra. Ugyanakkor Matt Cutts, a Google webspam elleni küzdelemmel foglalkozó csapatának vezetője korábban kijelentette, hogy egyszerűen a duplikált tartalmak újraírása nem biztos, hogy elegendő a Panda büntetései alóli kibúváshoz. Ahhoz, hogy ez ne legyen negatív hatással az oldal rangsorolására, az újraírt tartalomnak nem csak eredetinek, de egyben jó minőségűnek is kell lennie, hogy megfelelő tartalommal gazdagítsa a webet. Az olyan tartalmak, amelyek általánosak és nem sokban különböznek a már létező tartalmaktól, várhatóan nem biztosítanak majd jó helyezést a találati oldalakon. „Ezeknek az oldalaknak nincsen hozzáadott értéke – bár nem másolatok, de nem tesznek le semmi újat az asztalra”, fogalmazott Cutts.[12]

A Panda algoritmus első élesítését követően a frissítések körülbelül havonta követték egymást. 2013 márciusában aztán a Google bejelentette, hogy a jövőbeni frissítéseket az algoritmusba integrálják, így azok kevésbé észrevehetőek és folytonosak lesznek.[13]

2011. április 11-én lépett életbe a 2.0 jelű frissítés, amely az angol nyelvű keresésekre volt hatással.

2011. május 9-én élesítették a Panda 3.0-s verziószámú frissítését, amely hivatalosan a harmadik volt a sorban. A 4.0 verzióig ezt további huszonkét frissítés követte.

Az utolsó, az integrációt megelőző hivatalosan is bejelentett frissítés a Panda #25 volt, amelyről Matt Cutts egy szakmai konferencián beszélt. 2013. július 18-án a Google megerősítette, hogy ismét frissítették az algoritmust. A szakértők feltételezése szerint ez a frissítés („Panda Recovery”) enyhítette a korábbi büntetéseket.

A Panda 4.0 számú frissítését 2014. május 21-én adták ki. A 4.0-s verzió egyik leginkább észrevehető hatása az volt, hogy az úgynevezett gyűjtőoldalak – olyan webhelyek, amelyek más oldalak tartalmait gyűjtik egy helyre – jelentősen visszaestek a találati oldalakon. Ezek között megtalálhatóak voltak híroldalak, sajtóközleményeket gyűjtő webhelyek, ár-összehasonlító oldalak, illetve sok fórum is.[14] Ez a frissítés hivatalosan az angol nyelvű webhelyek körülbelül 7,5 százalékát érintette.[15]

Források[szerkesztés]

  1. Testing Google's Panda algorithm: CNET analysis. (Hozzáférés: 2014. szeptember 10.)
  2. TED 2011: The ‘Panda’ That Hates Farms: A Q&A With Google’s Top Search Engineers. (Hozzáférés: 2014. szeptember 10.)
  3. Google Losing War With Scraper Sites, Asks For Help. (Hozzáférés: 2014. szeptember 10.)
  4. Mit gondol a minőségről a Google?. (Hozzáférés: 2014. szeptember 10.)
  5. Ezzel a 8 ponttal ellenőrizd, hogy rendben van-e az oldalad szövege. (Hozzáférés: 2014. szeptember 10.)
  6. More guidance on building high-quality sites. (Hozzáférés: 2014. szeptember 10.)
  7. A 8,682,892 sz. szabadalmi határozat. (Hozzáférés: 2014. szeptember 10.)
  8. Panda DNA: Algorithm Tests on the Google Panda Update. (Hozzáférés: 2014. szeptember 10.)
  9. Hogyan használjuk a ráutaló linket a SEO-ban?. (Hozzáférés: 2014. szeptember 10.)
  10. Is this really the Panda patent?. (Hozzáférés: 2014. szeptember 10.)
  11. Too Much SEO? Google’s Working On An “Over-Optimization” Penalty For That. (Hozzáférés: 2014. szeptember 10.)
  12. Matt Cutts and Eric Talk About What Makes a Quality Site. (Hozzáférés: 2014. szeptember 10.)
  13. Google Algorithm Change History. (Hozzáférés: 2014. szeptember 10.)
  14. Panda 4.0: Google's Still Gunning For Low Quality Web Pages. (Hozzáférés: 2014. szeptember 10.)
  15. Google Panda 4.0 Now Rolling Out; A New Panda Algorithm. (Hozzáférés: 2014. szeptember 10.)

Kapcsolódó szócikkek[szerkesztés]