Technische SEO: wat heeft de meeste prioriteit?

Technische SEO is een ruim begrip en bestaat uit meerdere elementen. Door technische SEO op verschillende niveaus consequent en passend door te voeren, kan je ervoor zorgen dat je website beter presteert in de zoekmachine. Wel is er sprake van prioritering binnen het technische vlak van SEO. Waar leg je de nadruk op, en welke technische aspecten hebben minder invloed op de kwaliteit van een website? In deze blog bespreken we de elementen van technische SEO in 2022.

Crawlability

De crawlability van een website geniet de hoogste prioriteit binnen technische SEO. Crawlability is de mate waarin de Google bots jou pagina’s kunnen doorzoeken (=crawlen). Is de content, menu structuur en diepgang van de website onvoldoende, dan kan dit de zoekmachine weerhouden van een goede screening van de website. Jammer, want het kan er ook voor zorgen dat cruciale en/of sterke content niet gevonden wordt. Dat heeft weer gevolgen voor de ranking van je website in de zoekmachine. Onder crawlability vallen verschillende werkzaamheden die Google ondersteunen in het beoordelen van jouw pagina:

  1. Het maken van een XML-sitemap
  2. Het maximaliseren van je crawl-budget
  3. Het optimaliseren van je informatie-structuur
  4. Opzetten van robot.txt.

Crawl-budget

De zoekmachine is dagelijks bezig met het crawlen van miljoenen websites. Zij hebben hiervoor niet ongelimiteerde voorzieningen, en dat is de reden dat er een crawlbudget is opgesteld. Een crawlbudget is het aantal pagina’s van jouw website die Google doorloopt binnen een bepaald tijdbestek. Binnen dit tijdsbestek wil je natuurlijk dat Google jouw meest relevante webpagina’s altijd meeneemt. Per website is het weer verschillend hoeveel crawlbudget er beschikbaar is. De frequentie, voorkeuren van de eigenaar, de populariteit van de URL en hoe vaak deze wordt bijgewerkt bepalen de uiteindelijke crawlability. Je kunt een kleine inschatting maken van je eigen crawlbudget door de crawlstatistieken te raadplegen. Deze zijn te vinden in Google Search Console.

Maximaliseren van je crawl-budget

Om het maximale uit je crawl-budget te halen, is het handig om een aantal dingen op orde te hebben. Zo is het belangrijk om ervoor te zorgen dat je geen dubbele pagina’s hebt, zodat Google hier geen tijd aan verspilt. Zorg er daarnaast voor dat je CSS en javascript ‘te crawlen’ zijn, en let goed op dat je geen kapotte links in je eigen website hebt verwerkt. Dit kan je overigens ook ontdekken aan de hand van Search Console en de XML-sitemap, die we in het volgende punt bespreken.

Het maken van een XML-sitemap

Een XML-sitemap is een schematische inhoudspagina van alle webpagina’s op je website. Het is eveneens een belangrijk onderdeel van de technische SEO. De sitemap maakt het namelijk mogelijk voor de Googlebot om de structuur van jouw website beter te begrijpen, waarmee crawlen efficiënter plaatsvindt. De XML-sitemap wordt automatisch aangemaakt als je beschikt over een WordPress website. Deze is echter wel vrij standaard. Om een uitgebreidere sitemap te maken kun je kiezen voor de Premium-versie van de plug-in Yoast SEO. Om er zeker van te zijn dat Google jouw sitemap kan vinden, kun je de sitemap indienen via Search console.

Hoe sitemap toevoegen?

Surf naar Google Search Console. Hier kan je inloggen op je gepersonaliseerde omgeving. Vervolgens zie je aan de linkerkant de optie ‘sitemaps’. Onder ‘Add a new sitemap’ kan je vervolgens de sitemap code invullen. De automatisch gegenereerde sitemap heet ’sitemap.xml’. Voeg de sitemap toe, druk op Enter en bekijk onder ‘Submitted sitemaps’ of de sitemap correct is ingevuld. Gelukt? De zoekmachine kan nu aan de hand van de sitemap een website van hoog naar laag crawlen.

Optimaliseren van je informatiestructuur

De informatiestructuur, ook wel sitestructuur genoemd, is de organisatie van alle pagina’s op jouw website. Deze pagina’s worden opgebouwd vanaf de homepage en dienen een hiërarchische volgorde te hebben. De meest relevante webpagina’s zouden zo dicht mogelijk bij de homepage moeten staan, met inbegrip van zichtbare interne links. Vanuit je homepage kan je bijvoorbeeld linken naar de kennisbank of een belangrijke dienst, die op zijn beurt weer linkt naar dieper gelegen pagina’s. Deze structuur helpt de bots relaties tussen de pagina’s te herkennen.

Door een duidelijke informatiestructuur te creëren, beïnvloed je ook de duidelijkheid van de URL-structuur. Een duidelijke URL-structuur is van belang om de Googlebot de structuur en hiërarchie van je website te laten begrijpen. Ook geeft het weer waar de pagina over gaat.

Zie als voorbeeld de URL op de website van Zichtbaar24. Je kunt duidelijk de structuur zien vanuit de homepage naar de dienst SEO, die weer verwijst naar een pagina met uitleg over SEO.

Opzetten van robot.txt

Door het opzetten van het Robot Exclusion Protocol kun je specifieke crawlbots verbieden om je website te crawlen. Niet alle crawlbots zullen relevant voor jou zijn en het crawl-proces kan leiden tot een (te) lange laadtijd van de website. Ook is het mogelijk om webpagina’s uit te sluiten tijdens het crawl-proces. Hierdoor kun je je crawl-budget zo optimaal mogelijk besteden aan de belangrijkste pagina’s en pagina’s uitsluiten waarvan je niet wil dat de content in de zoekmachines terecht komt. De robot.txt zet je in de hoofdmap van je website neer, ook wel de root genoemd. Voor Zichtbaar24 zou dit dus https://zichtbaar24.nl/robots.txt zijn.

Maar hoe zet je nu een robot.txt bestand op? De robot.txt staat als het volgt beschreven:

User-agent:
Disallow:

User-agent is in dit geval de crawlbot waarvoor de robot.txt bestemd is. Elke zoekmachine heeft zijn eigen crawlbot. Wanneer je alle zoekmachines in 1 keer wilt targetten, dan gebruik je:

User-agent: *
Disallow:

In deze situatie worden alle zoekmachines verzocht om de gehele website te crawlen. Mocht je echter willen dat bijvoorbeeld de zoekmachine Bing niet jouw website bezoekt, zet je het volgende neer:

User-agent: BingBot
Disallow: /

Het symbool / betekend dat de toegang tot de gehele website wordt ontzegd. Via deze manier kun je dus ook specifieke zoekmachines uitsluiten voor bepaalde pagina’s. Denk er echter wel om dat wanneer een crawlbot een interne link vindt naar de pagina op de website, hij deze alsnog zal bezoeken.

User Experience

Nadat je de belangrijkste factoren van de crawlability hebt geoptimaliseerd en je vindbaar bent voor de crawlbots, kun je je focussen op de User Experience van de website. Voor het optimaliseren van de User Experience behandelen we de onderwerpen laadsnelheid en mobile responsive websites.

Laadsnelheid

Om de laadsnelheid van de website te testen kun je meerdere tools gebruiken, één van deze tools is https://pagespeed.web.dev/ van Google. Deze kijkt naar de laadsnelheid van de mobiel en desktop. Bij de uitslag zullen een aantal termen naar voren komen die we kort zullen uitleggen

First Contentful Paint (FCP)

De FCP meet hoelang het duurt voordat de eerste vorm van content zichtbaar is op de pagina. Een goede User Experience wordt hier behaald wanneer dit minder dan 1.8 seconden duurt.

Largest Contentful Paint (LCP)

Dit geeft aan wanner het grootste gedeelde van de content zichtbaar is. Voor een goede user experience mag niet dit langer dan 2.5 seconden zijn.

Cumulative Layout Shift (CLS)

We kennen allemaal wel het probleem van knoppen op een pagina die beginnen met verschuiven, net als je deze wilt aanklikken. CLS meet de opmaakverschuivingsscore van de pagina.

Om de laadsnelheid van je website te verbeteren kun je kijken naar:

  • De grootte van je afbeeldingen
  • Gebruik maken van op maat gemaakte thema’s
  • Gebruik maken van de nieuwste plug-ins
  • Gebruik maken van cache plug-ins

Mobile responsive websiteMobile responsive website

Wanneer je gebruik maakt van een responsive design, past jouw website zich aan, aan het scherm van het apparaat dat je gebruikt tijdens het bezoeken van de website. Op deze manier hoef je bijvoorbeeld niet eindeloos in te zoomen wanneer je een site bezoekt op bijvoorbeeld je telefoon.

Hoe zorg je ervoor dat je een responsive webdesign hebt?

Om ervoor te zorgen dat je pagina’s geoptimaliseerd zijn voor verschillende apparaten, zul je een meta viewport tag in de head van het document moeten plaatsen. Deze geeft de browser instructies om de schaal en afmetingen van de pagina te regelen.

Naast het gebruik van responsive design zijn er nog meer dingen belangrijk tijdens het maken van een mobiel-vriendelijke website.

  • Gebruik maken van grote call-to-action knoppen
  • Korte en overzichtelijke navigatie
  • Optimaliseren van je foto’s

Naast deze factoren zijn er nog veel meer technische SEO factoren waarmee je je website kan optimaliseren. De prioritering van je werkzaamheden zou echter bij deze factoren moeten liggen.

z in de kleuren paars en blauw logo zichtbaar24