Ebben a bejegyzésben a technikai SEO alapjaival foglalkozunk. A technikai SEO alapjainak tárgyalása ellentmondásosnak tűnhet. Mindazonáltal a SEO technikai oldalának néhány alapvető ismerete jelentheti a különbséget egy magasan rangsorolt és egy egyáltalán nem rangsorolt oldal között. A technikai SEO nem könnyű, de elmagyarázzuk – a laikusok nyelvén -, hogy milyen szempontokra kell (megkérni a fejlesztődet, hogy) figyelj, amikor a weboldalad technikai alapjain dolgozol.

Mi a technikai SEO?

A technikai SEO egy weboldal technikai szempontjainak javításával foglalkozik, hogy növelje az oldalak rangsorolását a keresőmotorokban. A weboldal gyorsabbá, könnyebben feltérképezhetővé és a keresőmotorok számára érthetőbbé tétele a technikai optimalizálás alappillérei. A technikai SEO az on-page SEO része, amely a webhely elemeinek javítására összpontosít a magasabb helyezések elérése érdekében. Ez az ellentéte az off-page SEO-nak, amely arról szól, hogy más csatornákon keresztül nyilvánosságot teremtsen egy weboldalnak.

Miért érdemes technikailag optimalizálni az oldalad?

A Google és más keresőmotorok a lehető legjobb eredményeket szeretnék a felhasználóknak a lekérdezéseikre. Ezért a Google robotjai számos tényező alapján végigmásszák és értékelik a weboldalakat. Egyes tényezők a felhasználói élményen alapulnak, például azon, hogy milyen gyorsan töltődik be egy oldal. Más tényezők segítenek a keresőrobotoknak felfogni, hogy miről szólnak az Ön oldalai. Többek között erre szolgálnak a strukturált adatok. A technikai szempontok javításával tehát segít a keresőmotoroknak feltérképezni és megérteni az oldalát. Ha ezt jól csinálod, magasabb helyezésekkel jutalmazhatnak. Vagy akár gazdag eredményeket is kiérdemelhetsz!

Ez fordítva is működik: ha komoly technikai hibákat követsz el az oldaladon, az sokba kerülhet neked. Nem te lennél az első, aki teljesen megakadályozza, hogy a keresőmotorok feltérképezzék webhelyét, ha véletlenül rossz helyen adsz hozzá egy zárójelet a robots.txt fájlban.

De ne gondolja, hogy a keresőmotorok kedvéért a weboldal technikai részleteire kell koncentrálnia. Egy weboldalnak elsősorban a felhasználók számára kell jól működnie – gyorsnak, áttekinthetőnek és könnyen használhatónak lennie. Szerencsére az erős technikai alapok megteremtése gyakran egybeesik a felhasználók és a keresőmotorok számára egyaránt jobb felhasználói élménnyel.

Melyek a technikailag optimalizált weboldal jellemzői?

A technikailag kifogástalan weboldal gyors a felhasználók számára, és könnyen feltérképezhető a keresőrobotok számára. A megfelelő technikai beállítás segít a keresőmotoroknak megérteni, hogy miről szól egy webhely. Emellett megakadályozza a például a duplikált tartalmak okozta zavart. Ezenkívül nem küldi sem a látogatókat, sem a keresőmotorokat a nem működő linkek okozta zsákutcába. Itt röviden kitérünk a technikailag optimalizált webhely néhány fontos jellemzőjére.

1. Gyors

Manapság a weboldalaknak gyorsan kell betöltődniük. Az emberek türelmetlenek, és nem akarnak várni egy oldal megnyitására. Már 2016-ban egy kutatás kimutatta, hogy a mobil weboldalak látogatóinak 53%-a elhagyja a weboldalt, ha az nem nyílik meg három másodpercen belül. És ez a tendencia nem tűnt el – egy 2022-es kutatás szerint az e-kereskedelmi konverziós arány nagyjából 0,3%-kal csökken minden egyes plusz másodperc után, ami egy oldal betöltéséhez szükséges. Ha tehát a webhelye lassú, az emberek frusztráltak lesznek, és továbbmennek egy másik webhelyre, Ön pedig lemarad a forgalomról.

A Google tudja, hogy a lassú weboldalak nem nyújtanak optimális élményt. Ezért a gyorsabban betöltődő weboldalakat részesítik előnyben. Így egy lassú weboldal a keresési eredmények között is hátrébb kerül, mint gyorsabb megfelelője, ami még kevesebb forgalmat eredményez. 2021 óta a Page experience (az, hogy az emberek mennyire gyorsnak tapasztalnak egy weboldalt) hivatalosan is a Google rangsorolási tényezőjévé vált. Tehát az elég gyorsan betöltődő oldalakkal rendelkezni most fontosabb, mint valaha.

2. A keresőmotorok számára feltérképezhető

A keresőmotorok robotokat használnak a webhely feltérképezéséhez, vagyis a pókok feltérképezéséhez. A robotok követik a linkeket, hogy felfedezzék az Ön webhelyének tartalmát. Egy nagyszerű belső linkstruktúra biztosítja, hogy megértsék, mi a legfontosabb tartalom az oldaladon.

De több módja is van a robotok irányításának. Megakadályozhatja például, hogy bizonyos tartalmakat feltérképezzenek, ha nem szeretné, hogy oda menjenek. Azt is megengedheti nekik, hogy feltérképezzenek egy oldalt, de megmondhatja nekik, hogy ne jelenítsék meg ezt az oldalt a keresési eredményekben, vagy ne kövessék az adott oldalon található linkeket.

Robots.txt fájl
A robots.txt fájl segítségével utasításokat adhatsz a robotoknak a webhelyeden. Ez egy hatékony eszköz, amellyel óvatosan kell bánni. Ahogy az elején említettük, egy apró hiba megakadályozhatja, hogy a robotok feltérképezzék webhelyed (fontos részeit). Előfordul, hogy az emberek akaratlanul blokkolják webhelyük CSS és JS fájljait a robots.txt fájlban. Ezek a fájlok olyan kódot tartalmaznak, amely megmondja a böngészőknek, hogyan kell kinéznie és működnie a webhelyednek. Ha ezek a fájlok blokkolva vannak, a keresőmotorok nem tudják megállapítani, hogy webhelye megfelelően működik-e.

Mindent egybevetve, azt javasoljuk, hogy igazán merüljön el a robots.txt-ben, ha meg akarja tanulni, hogyan működik. Vagy talán még jobb, ha egy fejlesztőre bízza, hogy kezelje ezt Ön helyett!

A meta robots tag
A robots meta tag egy olyan kódrészlet, amelyet látogatóként nem fogsz látni az oldalon. A forráskódban található, az oldal úgynevezett head részében. A robotok ezt a részt olvassák, amikor megtalálnak egy oldalt. Ebben fedeznek fel információkat arról, hogy mit találnak az oldalon, vagy mit kell csinálniuk vele.

Ha azt szeretné, hogy a keresőrobotok feltérképezzenek egy oldalt, de valamilyen okból kifolyólag ne kerüljön be a keresési eredmények közé, a robots meta taggel közölheti velük. A robots meta taggel arra is utasíthatja őket, hogy feltérképezzenek egy oldalt, de ne kövessék az oldalon található linkeket. 

3. Nincs (sok) holt linkje

Már megbeszéltük, hogy a lassú weboldalak frusztrálóak. Ami talán még a lassú oldalnál is bosszantóbb a látogatók számára, az az, ha egy olyan oldalon landolnak, amely egyáltalán nem is létezik. Ha egy link egy nem létező oldalra vezet a webhelyeden, az emberek egy 404-es hibaoldallal találkoznak. Oda a gondosan kidolgozott felhasználói élmény!

Ráadásul a keresőmotorok sem szeretik megtalálni ezeket a hibaoldalakat. Ráadásul hajlamosak még több halott linket találni, mint amennyivel a látogatók találkoznak, mivel minden linket követnek, amibe belebotlanak, még akkor is, ha az rejtett.

Sajnos a legtöbb webhelyen vannak (legalább néhány) halott linkek, mivel egy webhely folyamatos munka: az emberek dolgokat készítenek és törnek el. Szerencsére léteznek olyan eszközök, amelyek segíthetnek a webhelyen található halott linkek visszakeresésében. 

A felesleges halott linkek elkerülése érdekében mindig át kell irányítania egy oldal URL-címét, amikor törli vagy áthelyezi azt. Ideális esetben egy olyan oldalra irányítod át, amely a régi oldalt helyettesíti. 

4. Nem zavarja össze a keresőmotorokat a duplikált tartalmakkal.

Ha a webhelyed több oldalán – vagy akár más webhelyeken is – ugyanaz a tartalom található, a keresőmotorok összezavarodhatnak. Mert ha ezek az oldalak ugyanazt a tartalmat mutatják, akkor melyiket rangsorolják a legmagasabbra? Ennek eredményeképpen előfordulhat, hogy az azonos tartalommal rendelkező oldalakat alacsonyabb rangsorolásban részesítik.

Sajnos előfordulhat, hogy duplikált tartalommal kapcsolatos problémái vannak anélkül, hogy tudna róla. Technikai okok miatt a különböző URL-ek ugyanazt a tartalmat jeleníthetik meg. A látogató számára ez nem jelent különbséget, de a keresőmotor számára igen; ugyanazt a tartalmat más URL-címen látja.

Szerencsére van technikai megoldás erre a problémára. Az úgynevezett kanonikus link elemmel jelezheted, hogy mi az eredeti oldal – vagy az az oldal, amelyet a keresőmotorokban szeretnél rangsorolni. 

5. Biztonságos

A technikailag optimalizált weboldal biztonságos weboldal. Manapság alapkövetelmény, hogy a felhasználók számára biztonságos legyen a weboldal, hogy garantálja a magánéletüket. Sok mindent tehetsz azért, hogy (WordPress) webhelyed biztonságos legyen, és az egyik legfontosabb dolog a HTTPS bevezetése.

A HTTPS biztosítja, hogy senki ne tudja lehallgatni a böngésző és a webhely között átküldött adatokat. Így például, ha az emberek bejelentkeznek az oldaladra, a hitelesítő adataik biztonságban vannak. A HTTPS implementálásához egy SSL-tanúsítványra van szüksége. A Google elismeri a biztonság fontosságát, és ezért a HTTPS-t rangsorolási jellé tette: a biztonságos webhelyek előkelőbb helyen szerepelnek, mint a nem biztonságos megfelelőik.

A legtöbb böngészőben könnyen ellenőrizheti, hogy webhelye HTTPS-sel rendelkezik-e. A böngészője keresősávjának bal oldalán egy lakatot lát, ha biztonságos. Ha a „nem biztonságos” feliratot látja, akkor Önnek (vagy a fejlesztőjének) van mit tennie!

6. Strukturált adatokkal rendelkezik

A strukturált adatok segítenek a keresőmotoroknak jobban megérteni webhelyét, tartalmát vagy akár vállalkozását. A strukturált adatokkal megmondhatod a keresőmotoroknak, hogy milyen terméket árulsz, vagy milyen receptek vannak az oldaladon. Ráadásul lehetőséget ad arra, hogy mindenféle részletet megadjon ezekről a termékekről vagy receptekről.

Van egy meghatározott formátum (a Schema.org oldalon leírtak szerint), amelyben ezeket az információkat meg kell adnod, hogy a keresőmotorok könnyen megtalálják és megértsék azokat. Ez segít nekik abban, hogy az Ön tartalmát egy nagyobb képbe helyezzék. 

A strukturált adatok bevezetése nem csak a keresőmotorok jobb megértését hozhatja el. Tartalmadat a gazdag találatokra is alkalmassá teszi; azokra a csillogó, csillagokkal vagy részletekkel ellátott találatokra, amelyek kiemelkednek a keresési eredmények közül.

7. XML oldaltérképpel rendelkezik

Egyszerűen fogalmazva, az XML sitemap a webhelye összes oldalának listája. A keresőmotorok számára útitervként szolgál az Ön webhelyén. Segítségével gondoskodik arról, hogy a keresőmotorok ne hagyjanak ki semmilyen fontos tartalmat az oldaláról. Az XML szitemap gyakran posztok, oldalak, címkék vagy más egyéni poszttípusok szerint van kategorizálva, és minden oldal esetében tartalmazza a képek számát és az utolsó módosítás dátumát.

Ideális esetben egy webhelynek nincs szüksége XML szittérképre. Ha olyan belső hivatkozási struktúrával rendelkezik, amely minden tartalmat szépen összekapcsol, a robotoknak nem lesz rá szükségük. Azonban nem minden webhely rendelkezik nagyszerű szerkezettel, és az XML-szitemap megléte nem árthat. Ezért mindig azt tanácsoljuk, hogy legyen egy XML oldaltérkép a webhelyén.

8. A nemzetközi webhelyek hreflangot használnak

Ha webhelye egynél több országot vagy több olyan országot céloz meg, ahol ugyanazt a nyelvet beszélik, a keresőmotoroknak szükségük van egy kis segítségre, hogy megértsék, mely országokat vagy nyelveket próbálja elérni. Ha segítesz nekik, akkor a keresési eredményekben a területüknek megfelelő webhelyet jeleníthetik meg az embereknek.

A Hreflang címkék éppen ebben segítenek. Segítségükkel meghatározhatja, hogy az egyes oldalak melyik országot és nyelvet hivatottak kiszolgálni. Ez egy lehetséges duplikált tartalomproblémát is megold: még ha az amerikai és az egyesült királyságbeli webhelye ugyanazt a tartalmat mutatja is, a Google tudni fogja, hogy különböző régiók számára íródtak.

Ezek Is Érdekes Cikkek…

A HTTP/2 protokoll

  A HTTP/2 az internetes protokollok legújabb verziója, amely 2015. május 14-én került bevezetésre. Az Internet...