Ján Fečík


osobná stránka · blog

Dátum: sobota, 20. apríla 2024
Čas: 04:49:52, 1713581392, @159
Meniny má: Marcel, Hvezdoň
IP adresa: 3.21.248.47

Časté chyby pri SEO optimalizácii

Optimalizácia pre vyhľadávače (ďalej SEO optimalizácia) je v tejto dobe dôležitou súčasťou (nie len) obchodnej stratégie na internete. Každá firma či akákoľvek web stránka by mala byť vhodne optimalizovaná pre úspešnú propagáciu, aby dosahovala čo najlepšie umiestnenia vo vyhľadávačoch ako je Google, Bing, Seznam, Yandex a pod. To znamená, že ak ponúkate služby trebárs už pre spomínanú optimalizáciu pre vyhľadávače (SEO optimalizácia), tak chcete aby sa po zadaní kľúčového slova resp. spojenia "SEO optimalizácia" bola vaša web stránka na prvých či aspoň popredných miestach v SERPe (SERP - označuje stránku s výsledkami hľadania vo vyhľadávačoch, z anglického Search Engine Result Page) a nie napríklad na dvanástej strane.

Tipy a triky pre optimalizovanie PHP  ·  Tipy a triky pre optimalizovanie webu

Pri optimalizácii pre vyhľadávače (SEO optimalizácia) existuje niekoľko chýb, na ktoré by ste si mali dávať pozor. Veľa ľudí robí pri optimalizácii základné chyby, ktorým by ste sa mali vyvarovať (a to aj napriek množstvu informácií o SEO, ktoré sú on-line na internete). Často sú spravené tieto chyby v snahe dosiahnuť lepšie pozície vo vyhľadávačoch za akúkoľvek cenu a niektoré chyby sú robené z nedostatočných znalostí o SEO optimalizácii. V istých prípadoch sa tým dá pokojne spraviť aj väčšie zlo.Časté chyby pri SEO optimalizáciiV prvom rade má veľký vplyv nie len na pozície vo vyhľadávačoch, ale aj na samotného návštevníka rýchlosť webu. Veľa ľudí si neuvedomuje, že existuje viac rôznych hodnôt, na ktoré je potrebné si dávať pozor a každá hodnota má v tejto problematike veľký vplyv na umiestnenie v SERPe. Ako prvé spomeniem TTFB (Time To First Byte), čo je čas od požiadavky internetového prehliadača, ktorý ju pošle na server, do doby kým dostane prvý bajt naspäť. V podstate sa jedná o spracovaní skriptu na serveri, než môže naservírovať stránku bez ďalších elementov návštevníkovi. Aká je ideálna doba? To sa dá ťažko povedať, ale ideálna doba je pod tých 100ms, čím menej tým lepšie. Jednoducho povedané, s každou desatinou sekundy vám ubúdajú návštevníci, takže je dobré sa tejto problematike určite povenovať. Ďalšia hodnota je celková doba (čas) za ktorý je webová stránka zobrazená a pripravená pre návštevníkov. Výsledok záleží na rýchlosti internetového pripojenia návštevníka, objemu prenesených dát ale aj dostupnosti a rýchlosti serverov na ktoré sú smerované jednotlivé requesty. Ideálna celková doba je individuálna pre jednotlivé weby a hlavne pre návštevníka, keďže niekto vydrží počkať na vygenerovanie web stránky sekundu a niekto iný aj 5 sekúnd či viac. Každý externý prvok na web stránke sa musí načítať, pričom prehliadač má obmedzené množstvo prostriedkov pre súbežné načítavanie jednotlivých prvkov zo stránky. Takže ak je na stránke 3x CSS súbor, 2x JavaScript a 16x obrázok, tak je pre zobrazenie web stránky potrebných 21 requestov ak správne počítam. Stránka s veľkým množstvom requestov aj pri malej veľkosti môže spôsobovať za určitých okolností problémy a je dobré sa aj tomuto povenovať. Tiež je dosť vhodné používať cache plugin ak používate nejaký redakčný systém a ak ním samozrejme disponuje. Výpadky, či častá nedostupnosť webovej stránky má taktiež vplyv na poradie v SERPe, čiže je vhodne mať web stránku umiestnenú na stabilnom mieste a nie u niekoho v pivnici.

Ako je na tom vaša webová stránka si môžete odmerať trebárs na tools.pingdom.com, či www.webpagetest.org alebo vám poprípade pomôže odstrániť chyby aj priamo Google PageSpeed Insights.

Z pohľadu vyhľadávačov sú subdomény považované za samostatné domény a preto je lepšie ak napríklad web pre blog presuniete zo subdomény do podadresáru na vašej web stránke. Je to z hľadiska SEO optimalizácie výhodnejšie. Neprináša samotnému webu, ktorý majú posilniť žiadne plusové body, pretože sú webom samotným. Toto potvrdil aj Rand Fishkin z MOZ. Po presune návodov pre nováčikov z guides.moz.com na moz.com/beginners-guide-to-seo došlo k výraznému zlepšeniu na sledovanej frázy.

Ďalšou chybou je duplicitný obsah kvôli zlému nastavenie domény v .htaccess (Apache), web.config (ISS)... Problém je v tom, že obsah webovej stránky je na variante s www. aj bez www, čo znamená zbytočnú duplicitu. V horšom prípade sú všetky subdomény smerovane priamo do domény a potom sa zobrazuje obsah web stránky pri akomkoľvek tvare subdomény, pričom takých web stránok je tiež neskutočne veľa, ale vo väčšine prípadoch to nie je ani tak chyba prevádzkovateľa web stránky ako skôr je za tento problém zodpovedný prevádzkovateľ webhostingu. Podobný problém môže byť aj s HTTP a HTTPS protokolom, čo vyhľadávače tiež považujú za dva odlišné weby, takže je dobre si toto všetko ošetriť a snažiť sa všetko nepoužívané presmerovať do hlavnej domény aj s hlavičkou 301, čo znamená permanentné presmerovanie, alebo pomocou iných metód ošetriť a tým zabrániť možnej duplicite. Bežne sa tiež môžete stretnúť s tým, že je indexovaný web na dočasné adrese webhostingu.

Canonical je často pridaný všade alebo naopak vôbec nikam, poprípade je tam kde nemusí byť a tam kde by sa zišiel tak chýba alebo obsahuje nesprávny odkaz. Účelom Canonical je povedať vyhľadávačom, ktorú z duplicitných stránok máju brať ako hlavnú. Ľudia ho najčastejšie používajú zle, napríklad namiesto stránkovania, nekontrolujú či sú použité správne odkazy, vkladajú Canonical do tela stránky medzi body, vyhýbajú sa používaniu Canonical naprieč doménami, nahrádzajú tým permanentné presmerovanie s hlavičkou 301, alebo ho preventívne vkladajú všade do webu. Používa sa hlavne vtedy, keď máme web stránku, ktorá je dynamická ako napríklad nejaký eshop a ten istý produkt ma viac rôznych foriem adries skrz väčšinou zle napísanej aplikácie. Takže pomocou tohto tagu presne povieme vyhľadávačom, že má indexovať len jednu a ostatné ignorovať. Dôvodov je ale samozrejme viac, len to by som tu o tom napísal jednu celú stranu.

Dĺžka URL adresy nad odporúčaných 74 znakov nie je jediným problémom. Treba brať ohľad aj na hierarchiu adries. Pekné URL adresy sa naučili robiť tvorcovia MFA, ale na firemných weboch na to nikto neberie moc ohľad a nie len na firemných. Dnes je už síce situácia iná ako bola v minulosti, prepisovanie na pekné URL adresy už zvláda pomaly každá Open Source aplikácia. Ďalej je častým problémom používanie _ (podtržník) namiesto - (pomlčky), čo odporúča priamo aj Google . Veľa tvorcov web stránok si ale myslí že Google berie _ (podtržník) tak isto ako - (pomlčku), ale nie je tomu tak. Google zoberie "seo_optimalizácia" ako jedno slovo, pričom "seo-optimalizácia" bude považovať za dve slová a to platí ako v texte, tak aj v URL adrese. Pokojne si to môžete overiť, ak tomu neveríte :-)

Ak použijete nástroj na meranie rýchlosti, ktorý som spomenul vyššie od pingdom.com, zistíte koľko rôznych vecí sťahujete od tretích strán. Často o tom ani netušíte a pritom každá z týchto strán si môže k vášmu návštevníkovi ukladať koláčiky (cookies) a pracovať s nimi. Ostatne ako myslíte, že taký Facebook monitoruje aktivitu používateľov na internete? Vďaka like tlačidlám, ktoré sme si veľmi ochotne dali na svoje web stránky. Všetky tieto skripty ktoré sa sťahujú z tretích strán by mali byť správne umiestnené v spodnej časti stránky hlavne kvôli rýchlosti. Tým, že budú na začiatku brzdia nahrávania web stránky a prehliadač čaká kým sa stiahnu.

Takže hlavnou úlohou optimalizácie pre vyhľadávače (SEO optimalizácia) je dostať čo najväčší počet dobre cielených návštevníkov a tým bude spojené samozrejme aj zvýšenie ziskov v prípade eshopu či nejakej firmy. Optimalizácia pre vyhľadávače (SEO optimalizácia) prináša lepšie umiestnenie vo vyhľadávačoch, vyššiu návštevnosť webových stránok z dlhodobého hľadiska, vyššie zisky pre internetové obchody či iný biznis ktorý máte a v poslednom rade to úplne najdôležitejšie čím je internetová reklama úplne zadarmo. Trvalé udržanie web stránky na popredných miestach vo výsledku vyhľadávania je dlhodobou záležitosťou. Základom úspechu je v prvom rade kvalitný obsah na web stránke, dobre spracované prevedenie web stránky a neustála aktualizácia obsahu, identifikovanie dôležitých kľúčových slov pomocou tagov H1, H2, H3, H4, H5, H6, atď., zmapovanie konkurencie a dostatočný počet spätných odkazov (spätný odkaz je definovaný ako odkaz smerujúci z inej web stránky na vašu web stránku). Existuje niekoľko spôsobov, ako budovať spätné odkazy a to napríklad registráciou do katalógov, výmenou odkazov s partnerskými portálmi, vydávaním tlačových správ, publikovaním článkov na iných portáloch či účasťou v diskusných fórach a internetových konferenciách. Môžete sa ale na dosť veľa weboch stretnúť aj s tým, že daná web stránka kde publikujete nejaký obsah aj so svojim odkazom na vašu web stránku bude obsahovať aj rel="nofollow" a takýto odkaz vám bude úplne nanič. Sám prevádzkujem asi najväčšie a najnavštevovanejšie diskusné fórum na Slovensku o informačných technológiách a tento parameter má každý odkaz smerovaný mimo domény fóra. Ja to beriem ako ochranu voči rôznym spamerom, keďže vyhľadávače budú takýto odkaz ignorovať.

Môžem spomenúť aj Black Hat SEO techniky, ktoré síce vedia krátkodobo zvýšiť pozície web stránky na kľúčové slová v SERPe, no z dlhodobého hľadiska majú veľmi negatívny vplyv na web stránku. Často vedú k penalizácii webu zo strany vyhľadávačov a penalizácia sa prejavuje trebárs stratou PageRanku či v tom horšom prípade môže vyhľadávač danú web stránku natrvalo odstrániť z výsledkov vyhľadávania (zo SERPu). Najčastejšie formy Black Hat metód sú napríklad neviditeľný alebo veľmi malý text na web stránke. Spomeniem aj Cloaking, čo je vytváranie web stránok špeciálne pre vyhľadávacie roboty. Robot vidí úplne iný obsah ako návštevník web stránky. Ďalej môžem spomenúť obrovskú hustotu kľúčových slov na web stránke, či nadmerné množstvo odkazov v päte stránky, ktoré nemajú žiadnu súvislosť s obsahom vašej web stránky.

Väčšina web stránok má tiež veľké problémy s title tagom (titulok webu), pričom title tag je jeden z najdôležitejších on page faktorov pri SEO optimalizácii. Každá stránka webu by mala obsahovať unikátny title tag a nemal by mať viac ako 70 znakov (vrátane napríklad " | názov domény"), čiže by mal obsahovať stručný popis danej web stránky. Najčastejšie chyby v title tagu je nevyplnenie title tagu, duplikácie, krátke a príliš dlhé titulky či titulky bez kľúčových slov. Google prikladá relatívne vysokú váhu aj kľúčovým slovám v URL adrese. Často sa dôležitosť "peknej URL adresy" podceňuje, niekedy aj preceňuje. Dynamické názvy stránok sa vyskytujú pomerne často, ale kľúčové slová v URL adresy dokumentu sú skôr výnimkou ako pravidlom.

Majitelia web stránok sa radi vidia na popredných pozíciách pre najbežnejšie používané kľúčové slová ako autá, mobilné telefóny, topánky alebo nábytok. Žiaľ na tieto kľúčové slová je obrovská konkurencia a nové weby sa iba ťažko dostanú na popredné miesta. Návštevníci viac vyhľadávajú long-tailové frázy, teda konkrétne mená kníh, konkrétnych modely áut, značky a typy telefónov (napríklad ľudia skôr hľadajú výrazy ako: "galaxy s6 cena" a nie mobilný telefón).

Existuje niekoľko metód ako kontrolovať, že ktoré podstránky má vyhľadávací robot indexovať a ktoré nie. Vyššie som spomenul Canonical, no najrozšírenejším spôsobom je zápis určitých podstránok do súboru robots.txt, samozrejme to nemusia byť len presné podstránky, dá sa tam pracovať aj s dynamickým obsahom. Súbor robots.txt je textový súbor umiestnený v koreňovom adresári web stránky a správnym zápisom do tohto súboru sa dá teda povedať robotom, že nemá indexovať napríklad adresár /admin alebo nejaké formy duplicitných URL adries keď je zle napísaná aplikácia môže zobrazovať na rôznych URL adresách totožný odkaz, čo je chyba. Takže najrýchlejším spôsobom ako toto ošetriť je použitie trebárs robots.txt, či vyššie spomenutého tagu Canonical, alebo opraviť aplikáciu aby k duplicitám nedochádzalo, čo je ale asi časovo náročnejší spôsob. Napríklad ak aplikácie pracuje s peknými URL adresami, ale v niektorých častiach sa vyskytujú aj neprepísané adresy a nie sú presmerované na pekné adresy, čiže na prd napísaná aplikácia. Tiež sa dá zlým nastavením súboru robots.txt úplne vymazať zo SERPu a vyhľadávače, resp. roboti web stránku nebudú vôbec indexovať.

Snáď som týmto článok niekomu pomohol ak bol v tejto problematike stratený :-)

Článok bol zobrazený 6136 krát a obsahuje 1879 slov
Pridané 13. marca 2015