
A weboldalad teljesítményének maximalizálása nem ér véget a kulcsszókutatásnál. Ha valaha érezted úgy, hogy hiába a minőségi tartalom, a Google mégsem indexeli megfelelően az oldalaidat, a válasz a szervered mélyén, a logfájlokban rejlik. A logfájl SEO az a technikai fegyelem, amely pontosan megmutatja, mit lát a Googlebot, amikor meglátogatja a szerveredet.
Ebben a cikkben feltárjuk, miért ez a leghatékonyabb módja a kúszási keret (crawl budget) optimalizálásának, és hogyan fordíthatod a nyers adatokat mérhető rangsorolási javulássá.
A logfájlok olyan automatikusan generált adatállományok a szerveren, amelyek rögzítenek minden egyes kérést, amely a weboldalad felé érkezik. Legyen szó egy felhasználóról vagy egy keresőrobotról, a szerver naplózza az eseményt.
A logfájl SEO során ezeket az adatokat elemezzük, hogy megértsük a keresőmotorok viselkedését. Míg a Google Search Console (GSC) csak mintavételezett vagy összesített adatokat közöl, a logfájlok a színtiszta valóságot mutatják: minden egyes bot-látogatást másodpercre pontosan.
A Google algoritmusai egyre hatékonyabbak, de az erőforrásaik végesek. Ha a robotok felesleges oldalakra pazarolják az idejüket a webhelyeden, a valóban fontos tartalmaid rejtve maradhatnak. A logfájlok elemzése segít azonosítani ezeket a „szűk keresztmetszeteket”.
A szervernaplók vizsgálata olyan felismerésekhez vezet, amelyeket más SEO eszközökkel képtelenség elérni. Nézzük a legfontosabb területeket:
A logfájlok elemzése során keresd azokat az URL-eket, amelyeket a Googlebot rendszeresen látogat (magas kúszási gyakoriság), de a Google Search Console adatai szerint nulla kattintást és minimális megjelenítést generálnak. Ezek a „zombi oldalak” értékes kúszási keretet emésztenek fel anélkül, hogy hasznot hajtanának. Megoldás: Vagy frissítsd és erősítsd meg ezeket a tartalmakat, vagy ha irrelevánsak, távolítsd el őket, és irányítsd át a botokat értékesebb oldalakra.
Bár a Google már rég átállt a mobil-első indexelésre, a logfájlokban érdemes ellenőrizni a Googlebot-Desktop és a Googlebot-Mobile arányát. Ha egy modern oldalnál még mindig túl magas az asztali robot aktivitása, az jelezheti, hogy a mobil verzió technikai akadályokba ütközik (pl. lassú válaszidő vagy rossz renderelés), ami gátolja a rangsorolást.
Az árva oldalak olyan aloldalak, amelyekre nem mutat belső link a webhelyeden, így a felhasználók és a legtöbb SEO szoftver számára láthatatlanok. Azonban a logfájlokból kiderülhet, hogy a Googlebot – korábbi linkek vagy külső hivatkozások alapján – még mindig visszajár hozzájuk. Ezek az oldalak gyakran elavultak és gyengítik a domain tekintélyét. A logfájl az egyetlen hely, ahol ezeket biztosan lefülelheted.
A szervernaplók rögzítik a válaszidőt minden egyes kérésnél. Figyeld meg: ha a válaszidő megugrik, a Googlebot látogatási kedve általában azonnal visszaesik. A robotok „türelmetlenek”; ha a szervered lassú, kevesebb oldalt fognak feltérképezni egy etap alatt. A logfájlok alapján pontosan láthatod, mely napszakokban vagy mely fájltípusoknál (pl. nagy PDF-ek) lassul be a kiszolgálás.
A webáruházaknál a szűrők (szín, méret, ár) rengeteg paraméterezett URL-t hoznak létre (pl. ?color=blue&size=xl). A logfájlok gyakran leleplezik, hogy a Googlebot beleveszik ezekbe a végtelen kombinációkba. Ha azt látod, hogy a robot több ezer ilyen variációt tölt le ahelyett, hogy a fő kategóriaoldalakat vizsgálná, ideje beállítani a canonical tageket vagy a robots.txt korlátozásokat.
A folyamat elsőre ijesztőnek tűnhet, de szisztematikusan haladva bárki képes kinyerni az értékes információkat.
Kérd el a rendszergazdádtól vagy töltsd le az FTP-n keresztül a szerver logokat (általában access.log néven találod). A leggyakoribb formátumok az Apache vagy Nginx szervereken érhetők el.
A logfájl tartalmazza az összes látogatót. SEO szempontból nekünk a User-Agent mezőre van szükségünk, ahol a „Googlebot” kifejezésre kell szűrnünk.
Szakértői tipp: Mindig ellenőrizd a bot hitelességét (Reverse DNS lookup segítségével), mert sok spam robot próbálja magát Googlebotnak álcázni, hogy hozzáférjen az adataihoz.
A nyers szöveges fájlok értelmezése nehéz. Használj olyan specializált szoftvereket, mint:
| Probléma | Hatás a SEO-ra | Megoldás a naplók alapján |
| Pazarló kúszás | Fontos oldalak maradnak ki | robots.txt tiltása a felesleges URL-ekre |
| Gyakori 500-as hiba | Rangsorolás csökkenése | Szervererőforrás bővítése vagy kódjavítás |
| Nagy méretű képek | Lassú indexelés | Képek optimalizálása (WebP formátum) |
| Mobile-first indexelés | Mobil verzió elhanyagolása | Ellenőrizd a Googlebot-Mobile aktivitását |
Sokan azt hiszik, ha egy oldal benne van a Sitemap-ben, a Google meg is fogja találni. Tapasztalatom szerint létezik egy úgynevezett Crawl Gap (Kúszási rés). Ez az az időszak, ami eltelik a tartalom publikálása és aközött, hogy a Googlebot ténylegesen letölti az oldalt.
Ha a logfájlokban azt látod, hogy ez a rés több nap vagy hét, az oldalad belső linkstruktúrája gyenge. A megoldás nem több kulcsszó, hanem a mélyebb oldalak közelebb hozása a főoldalhoz (kevesebb kattintási távolság).
Nagyobb webáruházak (10.000+ termék) esetén hetente, kisebb blogoknál negyedévente javasolt egy technikai audit keretében.
Nem. A logfájlok elemzése utólagos folyamat, a szerver amúgy is rögzíti ezeket az adatokat, így az elemzés semmilyen plusz terhelést nem jelent a látogatók számára.
A GSC remek eszköz, de csak korlátozott betekintést enged. A logfájl SEO az „igazság forrása”, ahol nincs késleltetés és nincs adatkorlátozás.
A logfájl SEO nem csupán a technikai szakemberek játékszere, hanem az egyik legbiztosabb út a keresőmotorok és a webhelyed közötti kapcsolat javításához. Ha megérted, hová látogat a Googlebot és miért, kezedbe veheted az irányítást a webhelyed indexelése felett.
Szeretnéd, hogy segítsek értelmezni egy konkrét hibaüzenetet a szervernaplóból, vagy készítsek egy ellenőrzőlistát a következő technikai auditodhoz?