Technické SEO by mělo být jedním z prvních kroků při optimalizaci webu pro vyhledávače. Díky němu zajistíte, že bude váš obsah viditelný a čitelný nejen pro uživatele, ale i pro vyhledávače.
V tomto článku se dozvíte, které aspekty technického SEO jsou nejdůležitější, jestli je to tak náročné, jak o tom lidé mluví, a jak si zkontrolovat technické SEO na vašem webu pomocí Marketing Mineru krok za krokem.
Co je technické SEO?
Technické SEO je část SEO, která má na starosti to, aby váš web vyhledávače objevily, procházely, zaindexovaly a v konečnom důsledku také zobrazovaly ve výsledcích vyhledávání.
Splněním technických požadavků vyhledávačů (většinou jsou tyto požadavky standardizované, takže nemusíte pro každý vyhledávač dělat jinou úpravu), zajistíte, aby váš web crawler našel rychleji a snáze.
Technické SEO faktory
Mezi nejdůležitější technické SEO faktory patří:
- Architektura webu
- Struktura URL adres
- XML sitemap
- Robots.txt
- Kanonizace a duplicitní obsah
- Přesměrování a nefunkční stránky
- Mobile friendly
- SSL certifikát (HTTPS)
- Rychlost načítání
- Strukturovaná data
- Optimalizace procházení crawleru přes web (crawl budget)
- Hreflang – pro multijazyčné weby
Nejdříve si však pojďme vysvětlit, jak fungují vyhledávače a jaký proces se skrývá za objevením, zaindexováním a zobrazováním vaší stránky ve vyhledávání.
Vyzkoušejte Marketing Miner nyní:
Crawling, rendering a indexace
Toto jsou asi 3 nejdůležitější slova, která byste v rámci technického SEO, ale i obecně v rámci SEO měli poznat. Jedná se o principy, na kterých je postaveno fungování vyhledávačů.
Crawling
Crawling – procházení webu robotem. Aby se mohl váš web zobrazovat ve výsledcích vyhledávání, musí ho nejdříve robot (crawler) objevit. Ten se po internetu pohybuje pomocí odkazů, díky kterým objevuje nové stránky.
Procházení webu můžete ulehčit a ovlivnit následujícími faktory:
- Vytvořením souboru robots.txt
- Optimalizací průchodu crawleru webem – blokování přístupu crawleru do sekcí, kde není důležitý obsah (admin sekce, uživatelská sekce…)
- Navržením správné architektury webu
- Vytvořením XML sitemap a jejím napojením do Google Search Console
- Optimalizací interního prolinkování
Podrobněji si jednotlivé kroky popíšeme níže.
Rendering
Rendering – vykreslování vašeho webu robotem. Rendering je proces, při kterém crawler načítá a vykreslí váš web. Rendering používá vyhledávač v malém procentu případů, kdy si vyrenderuje celý obsah webu včetně JavaScriptu. U JS webů tak vidí, co se reálně na nich nachází.
Ve většině případů však vyhledávače nepřistupují k renderingu, a proto je potřebné mu naservírovat důležitý obsah na stránce bez JS v HTML.
Pokud chcete zjistit, jako vidí Googlebot (nebo jiný crawler) váš web bez renderingu, vypněte si na stránce na chvíli JavaScript.
V případě prohlížeče Google Chrome vypněte JS ve vývojářské konzole. Přejděte do Console (pravý klik -> Inspect) a následně klikněte na ozubené kolečko.
Teď už jen v podsekci Debugger klikněte na Disable JavaScript, obnovte stránku a uvidíte váš web tak, jak by ho viděl vyhledávač, kdyby nepoužil rendering.
Takto vypadá stránka https://www.marketingminer.com/cs/features/keyword-research se zapnutým JavaScriptem (takto by ji viděl Googlebot, kdyby si ji celou vyrenderoval včetně JS):
A takto vypadá po vypnutí JS (takto by ji viděl Googlebot ve většině případů, kdyby ji nevyrendroval):
Všimli jste si toho rozdílu?
Kromě vyhledávacího políčka profileru (což by nebyl problém) zmizel i hlavní nadpis H1 “Analýza klíčových slov”, který se generuje pomocí JS. To už problém je, protože vyhledávač může mít problém s pochopením toho, o čem tato stránka je.
INFO: K 13.12.2022 je už tento problém opravený, takže ho neuvidíte :)
Pamatujte tedy na to, abyste důležitý obsah na stránce (nadpisy, podnadpisy, tabulky, odstavce, popisky…) generovali vždy přímo do zdrojového kódu pomocí HTML, a ne JS.
TIP: Pokud se chcete dozvědět víc o renderingu, doporučuji přečíst si tento článek: https://www.searchenginejournal.com/rendering-seo-introduction/330399/
Indexace
Indexace – uložení stránky do databáze. Pokud jsou splněné dva výše uvedené kroky a crawler prošel váš web, úspěšně si ho vyrendroval a vyhodnotil, že obsah na dané stránce je hodnotný, zařadí ho do indexu.
Indexem se na straně vyhledávačů myslí databáze obsahu, kterou si vyhledávač uloží a používá ji ve výsledcích vyhledávání.
TIP: Celý proces crawlingu, renderingu a indexace webu najdete na obrázku níže:
Zdroj obrázku: https://developers.google.com/search/docs/crawling-indexing/javascript/javascript-seo-basics
Architektura webu
Tak jako každý dům i webstránka potřebuje mít navrženou správnou architekturu. Architektura webu by měla vycházet z analýzy klíčových slov.
Architektura webu je to, jak máte hierarchicky zorganizované jednotlivé vstupní stránky na webu.
Obrázek níže vám napoví, jak by měla být ideálně navržená architektura webu:
Díky propojení jednotlivých vstupních stránek pomocí interních odkazů (např. homepage -> kategorie -> podkategorie -> produkt) zajistíte, že se crawler dostane na každou stránku, kterou od něho chcete, aby zaindexoval.
Naopak tento návrh struktury webu je nesprávný:
Vznikl tam tzv. orphan pages, to jsou stránky, na které nevede žádný interní odkaz z nadřazené stránky v rámci architektury webu a vyhledávací robot se na ni v tomto případě nedostane a nemá šanci zařadit ho do indexu.
Jsou to stránky:
- Produkt 1, 2 a 3, které sice jsou navzájem prolinkované, ale robot, který přijde na hlavní stránku, je nemá jak najít, protože z hlavní stránky tam nevede žádný interní odkaz.
- Produkt 10 – také nevede na něj žádný interní odkaz.
TIP: Pokud už máte existující web, můžete si udělat vizualizaci architektury svého webu pomocí tohoto nástroje: http://www.visualsitemapper.com/
Ukázka pro web https://www.marketingminer.com
Struktura URL adres
Základním pravidlem při vytváření URL adres je to, aby se v průběhu času nikdy neměnily.
URL adresy by měly být jednoduché a smysluplné, aby z nich bylo možné zjistit, co čeká uživatele na dané stránce.
Vhodné je to především tehdy, když sdílíte danou URL adresu na sociálních sítích.
Určitě dříve pochopíte, co se na dané stránce nachází, když sdílíte tuto URL adresu:
https://www.marketingminer.com/sk/blog/analyza-klicovych-slov.html
Než kdybyste měli tuto URL adresu:
https://www.marketingminer.com/sk/blog/p=?12389
Víc informací o struktuře URL adres najdete přímo na Google blogu: https://developers.google.com/search/docs/crawling-indexing/url-structure
XML sitemap
Sitemap (mapa stránky) je XML soubor, který by měl obsahovat informace o všech vašich důležitých vstupních stránkách, souborech, obrázcích nebo videích, které chcete, aby Google objevil, prošel a zaindexoval.
Sitemap je druhým nejdůležitějším zdrojem pro Googlebota při hledání nových URL adres. Takže pokud ještě nemáte sitemap vytvořenou, je nejvyšší čas.
Většina redakčních systémů automaticky vytváří sitemap soubor a přidává nově vytvořené vstupní stránky do sitemapy.
Po vytvoření sitemapy ji nezapomeňte přidat i do Google Search Console v sekci Soubory Sitemap. Tam se také dozvíte, zda je vaše sitemap validní:
Víc informací o tom, jak si vytvořit sitemap, na co si dát pozor a jak ji přidať do GSC, najdete v tomto článku: https://help.marketingminer.com/cs/clanek/co-je-to-sitemap-xml-a-jak-ji-vytvorit/
Robots.txt
Robots.txt je textový soubor, kterým můžete usměrnit, které webové stránky nebo soubory má robot (nejčastěji crawler vyhledávačů) procházet nebo neprocházet. Dobrým standardem je také uvádění umístění sitemap souborů v robots.txt.
Níže vidíte ukázku MM souboru robots.txt, kterou najdete na této URL: https://www.marketingminer.com/robots.txt.
V případě zablokování určité stránky nebo sekce v robots.txt se crawler ani nepokusí dané URL stahovat a tím pádem šetří čas. Kdežto v případě nasazení noindex si danou URL musí nejdříve stáhnout a potom vyhodnotit.
Pokud tedy chcete zabránit indexaci nějaké sekce (např. administrace, uživatelský profil…), je lepší sáhnout po blokaci v robots.txt než nasazení noindex tagu.
TIP: Zajímá vás, jaká je správná syntax v robots.txt a jak ověřit její funkčnost? Přečtěte si náš komplexní návod k robots.txt: https://help.marketingminer.com/cs/clanek/robots-txt-co-to-je-a-jak-funguje/
Kanonizace a duplicitní obsah
Duplicitní obsah vzniká často při technických problémech na webu. K duplicitnímu obsahu dochází tehdy, když se na více různých URL adresách nenachází unikátní obsah (identický obsah, nebo obsah se stejnou přidanou hodnotou pro uživatele).
Příklady, co nejčastěji způsobuje duplicity na webu, které je třeba technicky vyřešit:
- Přepínání měn a jazyků
- Mobilní a desktop verze
- AMP a non-AMP verze
- www a non-www verze
- URL adresy dostupné přes malá i velká písmena
- Jeden článek/produkt dostupný v různých kategoriích
- URL parametry, které nijak nemění obsah na stránce (ale pouze jeho vzhled, např. dlaždicový výpis) a zároveň neobsahují canonical tag
- Sledovací parametry v URL adresách
- Neošetřené URL adresy s lomítkem “/” a bez lomítka “/” na konci
- …
Toto všechno by mělo být ošetřené v rámci technického SEO použitím canonical tagu.
Canonical (nebo také rel=”canonical”) je HTML prvek, díky kterému prodáváte informaci crawlerovi, že URL adresa, kterou prochází, je duplicitní a na jaké URL adrese se nachází její originální verze.
Díky správnému nasazení canonicalu můžete zabránit problémům s duplicitním obsahem a nasměrovat crawlera k používání korektní verze obsahu.
TIP: Jak správně nasadit canonical tag, se dočtete v tomto článku: https://www.marketingminer.com/cs/blog/canonical-jak-spravne-pouzivat-kanonizaci.html
Přesměrování a nefunkční stránky
Kontrola funkčnosti především interních (ale i externích) odkazů na vaší stránce by měla patřit k pravidelným činnostem v rámci technického SEO. Pokud odkazujete na svém webu na neexistující stránky, můžete si snížit autoritu v očích nejen vyhledávačů nebo i uživatelů.
Odkazy na neexistující stránku často nevznikají vaším zaviněním. Na webu se někdo mohl prokliknout a zadat nesprávnou URL nebo stránka, na kterou odkazujete, už skutečně neexistuje a nebyla ani přesměrovaná na existující stránku.
V tom případě se uživatel ani vyhledávač nedostanou tam, kam se chtěly dostat, což může být problém především při objevování dalších stránek pomocí navigace crawleru na vašem webu.
TIP: Přečtěte si tento návod, jak krok za krokem zkontrolovat nefunkční odkazy na vašem webu pomocí Marketing Mineru: https://help.marketingminer.com/cs/clanek/kontrola-funkcnosti-odkazu-broken-link-checker/
Důležitá je také kontrola přesměrování, abyste zbytečně nemátli crawlera nesprávnými stavovými kódy nebo neplýtvali crawl budgetem redirect chainy.
Zkontrolujte na vašem webu:
- Přesměrování se stavovým kódem 302 a ověřte, že skutečně jde jen o dočasné přesměrování. Pokud ne, použijte místo toho stavový kód 301.
- Zda máte na webu redirect chainy, a pokud ano, odstraňte je přesměrováním z původní stránky na finální stránku pomocí 301 stavového kódu (bez dalších zbytečných přesměrování, které zatěžují crawlera a prodlužují čas načítání stránky).
TIP: Jak zkontrolovat stavové kódy krok za krokem, najdete tady: https://help.marketingminer.com/cs/clanek/kontrola-stavovych-kodu-a-presmerovani/
Uživatelský zážitek (Page Experience)
V posledních letech přidává Google mezi hodnotící signály stále víc a víc metrik, které ovlivňují uživatelský zážitek. Jako například:
- Použitelnost v mobilech (mobile friendly)
- Bezpečné procházení stránek (HTTPs zabezpečení)
- Rychlost načítání (Core Web Vitals)
S úpravami a vyladěním těchto metrik byste se měli zabývat i v rámci technického SEO.
Níže si je popíšeme podrobněji.
Mobile friendly
Drtivá většina návštěv dnes chodí z mobilních zařízení, a proto je optimalizace vašeho webu pro mobilní zařízení nutností.
Zda je váš web optimalizovaný pro mobily, najdete v GSC v sekci Použitelnost v mobilních zařízeních:
SSL certifikát (HTTPS)
Protokol HTTPS chrání komunikaci mezi prohlížečem a serverem před manipulací ze strany útočníků.
Existují různé bezplatné SSL certifikáty jako například Let’s encrypt, který vám tuto šifrovanou komunikaci zajistí.
Váš web by měl tedy běžet na HTTPS, a ne HTTP.
Rychlost načítání (Core Web Vitals)
Rychlost načítání stránek se postupně stává jedním ze základních stavebních kamenů použitelného webu. Uživatelé se stávají náročnějšími a web už dlouhou dobu směřuje od komplexity k rychlosti a jednoduchosti. Proto je dobré kontrolovat rychlost načítání svého webu, optimalizovat ji a identifikovat slabá místa.
Rychlost načítání stránky má vliv i na SEO. Pokud se stránka nenačítá dostatečně rychle, uživatel ji opustí a vrátí se na výsledky vyhledávání, což může mít negativní vliv na vaše pozice.
V roce 2021 přidal Google také nové hodnotící signály Core Web Vitals, které jsou založené na uživatelském zážitku (UX). O které konkrétní metriky se jedná, najdete na obrázku níže:
Zdroj: https://webmasters.googleblog.com/2020/05/evaluating-page-experience.html
Rychlost načítání i Core Web Vitals metriky si můžete otestovat pomocí nástroje PageSpeed Insights: https://pagespeed.web.dev/
Tento nástroj vám napoví, které věci zpomalují váš web a jak byste je měli opravit. S tímto reportem se můžete obrátit na vašeho vývojáře, který by vám s nimi měl pomoci.
Pár způsobů jak zrychlit načítání webu:
- Optimalizovat velikost a rozměry obrázků
- Cachování
- Gzip komprese
- Snížení počtu HTTP requestů
- Minifikace JS, CSS a HTML
- Odstranění redirect chainů
- Odstranit render-blocking JavaScript
- Snížení počtu načítaných externích scriptů
- …
TIP: Doporučuji hromadně zkontrolovat rychlost načítání vašeho celého webu pomocí Marketing Mineru a vylepšit nejpomalejší (nebo z byznysového hlediska nejdůležitější) vstupní stránky: https://help.marketingminer.com/cs/clanek/kontrola-rychlosti-nacteni-stranek-a-jejich-pouzitelnosti/
Strukturovaná data
Nasazení strukturovaných dat nemá přímý vliv na zlepšení hodnocení vašich stránek. Má to však vliv na zlepšení míry prokliku (CTR) z vyhledávání, protože oproti klasickým textovým výsledkům jsou zajímavější a zabírají také víc místa v SERPu.
Stránka Schema.org obsahuje standardizovaný seznam značek, které podporují všechny hlavní vyhledávače – Google, Bing, Yahoo a Yandex. Schema.org podporuje mnoho formátů značek, ale nejběžnější jsou:
- JSON-LD
- Microdata
- RDF
Ukázka výsledku vyhledávání se strukturovanými daty:
Který výsledek vyhledávání vás víc zaujal?
První web má nasazená strukturovaná data (hvězdičky, hodnocení, počet recenzí, obrázek…), a druhý ne.
Stránka Schema.org obsahuje standardizovaný seznam značek, které podporují všechny hlavní vyhledávače – Google, Bing, Yahoo a Yandex. Schema.org podporuje mnoho formátů značek, ale nejběžnější jsou:
- JSON-LD
- Microdata
- RDF
TIP: Podívejte se, které značky strukturovaných dat Google podporuje a jak se zobrazují ve vyhledávání: https://developers.google.com/search/docs/appearance/structured-data/search-gallery
Crawl budget
Crawl budget je objem URL adres, které dokáže crawler projít během určitého časového období. Jeho míra je nejčastěji udávaná jako počet URL, které dokáže projít crawler za jeden den. Udává ji mnoho faktorů. Mezi nejdůležitější patří:
- kvalita a poměr nově objeveného unikátního obsahu
- rychlost načítání stránek
- struktura interního prolinkování.
Vyhledávače přidělují crawl budget webu primárně na základě jeho autority (odkazového portfolia) a množství unikátního/kvalitního obsahu, které jsou schopné získat.
V rámci průchodu crawleru webem je třeba řešit tzv. crawl waste. Crawl waste jsou dotazy crawleru, které jdou na neexistující stránky či stránky, které nechceme indexovat.
TIP: Víc informací o crawl budgetu najdete v tomto návodu: https://help.marketingminer.com/cs/clanek/co-je-crawl-budget/
Hreflang
V případě, že spravujete multijazyčný web, vaším pomocníkem bude hreflang atribut. Ten vám pomůže zlepšit mezinárodní, regionální cílení a také řešení jazykových duplicit.
Všechno, co potřebujete vědět o vícejazyčných webech a implementaci hreflangu, se dočtete v oficiálních instrukcích od Google.
Nejčastější problémy týkající se technického SEO
Mezi nejčastější problémy týkající se technického SEO, na které můžete narazit na vašem webu, jsou:
- Problémy s indexací stránky – zablokované procházení v robots.txt (často se setkáváme s tím, že vývojáři v robots.txt zablokují procházení celého webu) nebo nasazený noindex.
- HTTP verze – web běží na nezabezpečené HTTP verzi
- Pomalé načítání stránky – velké obrázky, na redakčních systémech hodně pluginů, které načítávají externí JS scripty
- Nesprávně nasazený canonical tag
- Redirect chainy
- Nefunkční stránky
- Neresponzivní weby – neoptimalizované pro mobilní zařízení
Marketing Miner a technické SEO
Pokud řešíte technické SEO, tak vám bude Marketing Miner vynikajícím pomocníkem. Využijete předevší sekci Reporty, kde si zvolíte, jaká data má pro vás MM získat:
- Stavový kód
- Rychlost načítání
- Validaci zdrojového kódu
- Hreflang Checker
- Structured Data Checker
- Kontrolu indexovatelnosti
- Kontrolu indexace
- Kontrolu nefunkčních odkazů
Následně v dalším kroku vložte sitemap vašeho webu:
Už jen stačí zkontrolovat vložená data a kliknout na Zpracovat report.
Marketing Miner vám vygeneruje report s aktuálně získanými daty v přehledné tabulce, kterou si můžete stáhnout do Excelu a ověřit, jak a zda máte výše uvedené věci správně implementované.
TIP: Ukázkový MM report: https://www.marketingminer.com/cs/report/55173ab334db08b8ce5327d5042269fae9e18c3a6861a151597cc2a10bf135fd/visualize
Vyzkoušejte Marketing Miner nyní:
Nástroje na technické SEO
Tyto SEO nástroje vám pomohou a ulehčí práci, když řešíte technické SEO:
- Marketing Miner – hromadné získání dat o URL adresách
- Google Search Console – technické problémy, na které narazí Googlebot při procházení vašeho webu
- Screaming Frog SEO Spider – desktop crawler
- Visual Site Mapper – vizualizace architektury webu
- PageSpeed Insights – kontrola rychlosti načítání a Core Web Vitals metrik
- Chrome DevTools – vhodné spíše pro vývojáře
- Schema Validator – nástroj na otestování strukturovaných dat
Závěr: Je technické SEO náročné?
Často se setkáváme v diskusích s tím, že technické SEO je náročné a měli by ho řešit především vývojáři, kteří naopak hážou tuto problematiku zpět na SEO specialisty.
Dnešní redakčné systémy nebo e-shopová řešení mají ve většině případů správně vyřešené technické SEO a existuje celá řada pluginů a SEO audit návodů, které vám ulehčí optimalizaci webu i bez nutnosti vývojářů (např. různé pluginy na generování sitemap, nasazení strukturovaných dat, hreflang atributu…).
Pokud však váš web běží na vlastním řešení nebo si nejste jistí s nějakou technikálií, vždy je lepší obrátit se na vývojáře, aby vám s tím pomohl, než riskovat následné problémy s viditelností ve vyhledávání, která může mít v konečném důsledku i negativní vliv na vaše zisky.