6 Voordelen van een quickscan

Quickscan
Kelly Jongeneelen
Auteur: Kelly Jongeneelen
12 min
20 februari 2017

Je hebt de stap gezet om, samen met Discover, jouw website beter vindbaar te maken in de zoekmachines. Proficiat!

Tijdens een eerste meeting, de kick-off meeting, gaan we heel concreet bespreken wat de volgende stappen zijn in jouw project. Eén van de eerste dingen die we concreet ondernemen, is een eerste analyse van jouw website, de zogeheten “Quickscan”. De benaming zegt het zelf, we “scannen” jouw website op verbeterpunten die jij, wij en of jouw webbouwer, snel kunnen aanpassen en verbeteren. Kleine verbeterpunten hebben niet zelden een grote impact op de resultaten van jouw website!

Maar, welke zaken nemen we tijdens zo’n analyse onder de loep en welke winsten liggen daarbij voor het grijpen? Ik lijst ze even op:

 

1. Clean Index

We streven naar een clean index. Wanneer we op pagina’s stoten die er vreemd uitzien in Google of pagina’s die gebruikers naar een 404-pagina sturen, zorgen we er samen met jouw developer voor dat ze niet meer in de zoekresultaten verschijnen.

Samen met de webbouwer zorgen we ervoor dat de oude verwijzingen naar deze pagina’s linken naar inhoudelijk relevante bestemmingspagina’s.
Vreemde pagina’s zijn bijvoorbeeld bedanktpagina ’s, tekstpagina’s of bijvoorbeeld de back-end van de websites. Deze willen we natuurlijk niet zien in de organische zoekresultaten.

Voorbeeld
www.voorbeeld.com/bedankt.html
www.voorbeeld.com/wp-admin/ 

Een webdeveloper moet er daarom altijd voor zorgen dat alle pagina’s die geïndexeerd* worden door Google, ook daadwerkelijk live staan en zichtbaar mogen zijn.  Om hiervoor te zorgen moet de robots.txt correct zijn en moeten de 404-pagina’s, de bezoekers doorsturen naar een zo relevant mogelijk werkende URL.

Win 1: enkel beschikbare en werkende pagina’s die bestemd zijn voor bezoekers worden vertoond in de zoekresultaten
 

*Voordat een pagina opgenomen kan worden in de zoekresultaten van Google moet deze worden opgenomen in hun database
 

2. Robots.txt

Zoals zonet vermeld is een correcte robots.txt belangrijk. Hiermee kan je de zoekrobots namelijk instructies geven om bepaalde pagina’s binnen jouw website af te schermen voor indexatie. Wanneer jouw nieuwe website nog in volle ontwikkeling is, wil je uiteraard alle pagina’s nog afschermen. Soms gebeurt het wel eens dat een developer de robots.txt niet wijzigt bij livegang. Na enkele weken, in sommige gevallen gelukkig al na een paar dagen, kan je een opvallende daling zien in bezoekers via organisch zoekverkeer.
Het is daarom zeer belangrijk om zeker bij livegang te controleren of de robots.txt geen belangrijke pagina’s van indexactie uitsluit.  

Voorbeeld
Wanneer je via https://www.voorbeeld.com/robots.txt onderstaande ziet op deze pagina,  is dit in 99% van de gevallen niet ok:
User-agent: *
Disallow: /
User-agent is ‘de zoekrobot’ en een asterisk betekent ‘alle’. Met disallow geef je aan: bezoek niet, de ‘/’ geeft aan: alle URL’s.
Je zegt met bovenstaande robots.txt dus letterlijk dat geen enkele zoekrobot een URL van jouw website mag indexeren. In de meeste gevallen wil je dit absoluut niet zien en moet dit zo snel mogelijk aangepast worden naar bijvoorbeeld enkel de development pagina’s en moet de robots.txt als volgt aangepast worden:
User-agent: *
Disallow: /wp-admin/
Nu geef je aan dat alle URL’s die ‘/wp-admin/’ bevatten, niet geïndexeerd mogen worden en dus niet in de zoekresultaten mogen vertoond worden.


Win 2: door het gebruik van een correcte robots.txt geven we aan welke pagina’s belangrijk zijn  om aan te geven in de organische zoekresultaten
 

3. XML sitemap

Je merkt het intussen wel, alle technische aanpassingen zijn onlosmakelijk met elkaar verbonden. En zo ook de XML sitemap. Een XML sitemap laat aan de zoekmachines weten uit welke URL’s jouw website is opgebouwd. Dat wil zeggen dat jouw XML sitemap alleen URL’s van werkende pagina’s mag bevatten.

Wanneer je een XML sitemap hebt, laat je deze ook aan de robots.txt toevoegen. Dit bevordert de indexatie van je website. De zoekrobots lezen dit bestand.

Een XML sitemap controleren we dan ook eerst op de meest voorkomende fouten:

  • URL’s zijn met https terwijl je website http is of andersom. Wat het verschil tussen beide is, lees je in dit blogartikel
  • Dubbele URL’s
  • Foute URL’s
  • URL’s die redirecten (doorsturen naar een andere pagina binnen de website)
  • Niet canonieke URL’s

Win 3: zoekmachines weten uit welke url’s en afbeeldingen jouw website is opgebouwd, waardoor het crawlen hierdoor een stuk sneller gaat

 

4. Canonicals

Soms kan een bepaald product via meerdere URL’s beschikbaar zijn omdat deze via verschillende opties te vinden is. Het CMS (Content Management Systeem) kan bijvoorbeeld meerdere URL’s aanmaken wanneer je een product in meerdere categorieën plaatst of wanneer een product gevonden is doordat de bezoeker de zoekfunctie op jouw website heeft gebruikt.

Het is daarom belangrijk om aan jouw developer te laten weten dat hij aan iedere pagina een canonical mee geeft.

Een canonical tag vertelt een zoekmachine wat de primaire URL van een pagina is. Google toont graag de meest kwalitatieve resultaten aan haar gebruikers en filtert daarom alle dubbele resultaten.

 

Voorbeeld
Een product kan beschikbaar zijn via onderstaande URL’s
https://www.voorbeeld.com/producten?category=sneakers&kleur=roze
https://voorbeeld.com/sneakers/nieuwe-collectie?gclid=ABCD
https://www.voorbeeld.com/sneakers/roze/rozesneakers.html

Wanneer je graag wil dat de URL https://www.voorbeeld.com/sneakers/roze/rozesneakers.html  in de zoekresultaten vertoond wordt, moet de developer die 3 pagina’s de volgende tag mee te geven:

<link rel="canonical" href=" https://www.voorbeeld.com/sneaker/roze/rozesneakers.html" />

 

Let wel, je geeft hiermee een voorkeur aan, waar Google rekening mee probeert te houden, maar ze kunnen niet garanderen dat deze URL standaard zal vertoond worden als zoekresultaat voor dit product.

Win: door het invoeren van canonicals, bepaal je zelf welke URL belangrijk is en voorrang heeft in de zoekresultaten

 

5. URL-structuur

Dat de opbouw van een URL belangrijk is, klinkt misschien erg logisch. Toch komen we nog vaak tegen dat de URL-structuur van veel websites niet logisch is opgebouwd. Een complexe URL-structuur zorgt er trouwens ook voor dat je website niet goed te indexeren is.

Meestal maakt een goed CMS automatisch een juiste URL aan. Maar het is altijd handig om dit zelf te kunnen aanpassen (of door jouw developer te laten aanpassen).

Een checklist voor een succesvolle structuur:

  • Zorg voor leesbare URL’s: als jouw URL bestaat uit losse tekens en letters, dan is deze voor jouw bezoekers en Google niet goed leesbaar
  • Gebruik zoekwoorden in de URL: laat de belangrijkste zoekwoorden van de pagina terugkomen in de URL. Beperk je tot één zoekwoord of slechts een aantal zodat de inhoud van de pagina duidelijk blijft
  • Koppeltekens bij meerdere woorden: bestaat jouw URL uit meerdere woorden? Maak dan gebruik van streepjes of koppeltekens
  • Alleen kleine letters gebruiken: het gebruik van hoofdletters zorgt voor verwarring in jouw URL-structuur, voor zowel bezoekers als de zoekmachine
  • Ga foute URL’s tegen

Win 5: Een goede URL-structuur zorgt voor een betere rangschikking in Google en meer verkeer en interactie op jouw website. Dat leidt uiteindelijk weer tot een hogere conversie. Met een succesvolle URL bereik je meer zichtbaarheid, vindbaarheid en bezoekers op jouw website.

 

6. Breadcrumbs

Iedereen kent het doel van de broodkruimels in het sprookje van Hans & Grietje, namelijk het vormen van een spoor om het pad terug te vinden.

Wel, op een website hebben breadcumbs hetzelfde doel: jouw bezoeker laten weten via welke (klik)paden ze terecht zijn gekomen op deze pagina en ook snel weer terug kunnen naar de hoger gelegen pagina’s.

Trouwens, Google laat de breadcrumbs ook zien in de zoekresultaten. Zo weten gebruikers onder welke categorie de bestemmingspagina behoort. Hierdoor ziet jouw pagina er binnen de zoekresultaten nog opvallender uit en verhoogt het jouw kans op meer bezoekers.

Win 6: naast gebruiksvriendelijkheid voor jouw bezoekers, zorg je er met de breadcrumbs opnieuw voor dat zoekmachines jouw website sneller kunnen crawlen.

 

Kortom, ook jouw website kan dus waarschijnlijk een grote win behalen en voor meer bezoekers zorgen door een aantal technische aanpassingen/ingrepen op jouw website. De voorbeelden die ik heb aangehaald zijn maar het topje van de ijsberg en zullen/kunnen voor jouw website anders zijn.

Wil je graag dat wij jouw website onder de loep nemen, neem dan gerust contact met ons op.

 

Reactie toevoegen

Discover marketing gebruikt cookies om jouw surfervaring op deze website aangenamer te maken.