HomeKennisbankFilters: Canonical, Noindex, AJAX of Robots.txt?
kennisbank bas filter

Filters: Canonical, Noindex, AJAX of Robots.txt?

Pagina’s waarop je kunt filteren is een onderdeel waar je met een enigszins grote website al snel mee te maken krijgt. Vooral wanneer je op een webshop veel producten aanbiedt is het voor bezoekers handig wanneer je producten kunt filteren. Er zijn verschillende manieren om je categoriepagina’s te filteren, maar welke pas je toe? En welk effect heeft dit op je rankings in Google? In dit artikel lees je de best practices zodat jij de beste keuze kunt maken. Lees dan snel verder!

Wanneer je op een webshop een filter aanvinkt, zie je dit meestal terug in de URL in de vorm van een parameter: https://www.webshop.nl/grasmaaiers?kleur=groen. Vaak kun je op verschillende manieren filteren, zoals op prijs, materiaal, kleur, maat etc. en kun je meerdere filters tegelijk aanvinken om alleen de producten te zien die je wilt zien. Je kunt je voorstellen dat er ontzettend veel combinaties te maken zijn van mogelijke filterconfiguraties. Het wordt een probleem wanneer je deze parameter URL’s niet goed uitsluit van Google’s zoekresultaten.

Duplicate content

De pagina’s hieronder laten voor een deel andere producten zien maar zijn verder hetzelfde. Ze hebben dezelfde headings, metadata, tekst en zoekwoordfocus. Hierdoor kan het zomaar zijn dat je per categorie tientallen pagina’s hebt die vrijwel hetzelfde zijn. Google kan hierdoor lastig bepalen welke pagina er getoond moet worden bij een relevante zoekopdracht.
https://www.webshop.nl/grasmaaiers?kleur=groen,
https://www.webshop.nl/grasmaaiers?kleur=blauw
https://www.webshop.nl/grasmaaiers?type=elektrisch

Crawl budget

Google crawlt niet elk uur elke pagina van elke website. Dit is niet haalbaar en kan veel te veel kosten. Google moet dus slim omgaan met het aantal pagina’s dat ze crawlen. Ze zullen de homepage van een nieuwssite bijvoorbeeld vaker crawlen, omdat de inhoud hiervan vaak vernieuwd wordt. Een artikel diep in een archief dat al drie jaar niet is gewijzigd zal in tegenstelling nog maar zelden worden gecrawled.

Op het moment dat Google al je filterpagina’s kan crawlen en indexeren zal Google sneller door het “crawl budget” heengaan. Hoe meer pagina’s Google moet crawlen, hoe groter de kans Google minder belangrijke pagina’s crawlt en niet aan belangrijke pagina’s toekomt.

Filters uitsluiten met rel=canonical

Met het linkelement “rel=canonical” kun je van pagina’s die erg op elkaar lijken een “canonical-versie” aangeven. Zo weet Google welke van de pagina’s het origineel is en welke aan Google’s index moet worden toegevoegd. Zo geef je bijvoorbeeld op:
https://www.webshop.nl/grasmaaiers?kleur=groen, https://www.webshop.nl/grasmaaiers?kleur=blauw en
https://www.webshop.nl/grasmaaiers?type=elektrisch de categoriepagina https://www.webshop.nl/grasmaaiers als canonical-versie aan.

Voordelen filters uitsluiten met rel=canonical

  • Vaak eenvoudig in te stellen en veel content management systemen ondersteunen dit goed
  • Veel vrijheid in welke pagina je door Google laat indexeren
  • Waarde van de pagina (linkjuice) wordt deels overgedragen aan de canonical-versie

Nadelen filters uitsluiten met rel=canonical

  • Hoewel Google filterpagina’s niet meer zal indexeren kunnen ze nog steeds gecrawled worden, het zal dus weinig besparen op je crawl budget
  • Google zal je er geen penalty voor geven maar Rel=canonical is eigenlijk bedoeld voor identieke pagina’s, dit is bij filtering en paginering niet het geval
  • Rel=canonical is voor Google een suggestie, het kan dus genegeerd worden

Filters uitsluiten met noindex

Met de metatag noindex kun je voorkomen dat pagina’s worden opgenomen in Google’s index. Wanneer je deze metatag toevoegt zal Google de pagina nog wel crawlen, maar niet tonen in de zoekresultaten.

Voordelen filters uitsluiten met noindex

  • Google kan de pagina’s niet indexeren en dus ook niet tonen in de zoekresultaten
  • Je kunt per pagina bepalen of Google deze wel of niet mag indexeren

Nadelen filters uitsluiten met noindex

  • Minder eenvoudig te implementeren dan rel=canonical
  • Gevoelig voor fouten wanneer een belangrijke pagina een noindex metatag bevat, deze zal dan niet geïndexeerd worden
  • In tegenstelling tot rel=canonical wordt er geen waarde van de pagina (linkjuice) overgedragen; dit lekt dus als het ware weg

Filters uitsluiten met robots.txt

Een robots.txt is een tekstbestand waar regels in staan die bepalen tot welke pagina’s of bestandspaden Google toegang heeft. Wanneer je toegang tot filterpagina’s voor zoekmachines blokkeert zal Google de pagina’s niet meer crawlen. Als er op de website, in de sitemap of op andere websites naar filterpagina’s gelinkt wordt kan Google alsnog besluiten de pagina’s te indexeren. Google heeft de pagina’s dan niet gecrawled of bekeken, en bepaalt aan o.a. de linktekst en URL waar de pagina waarschijnlijk over gaat

Voordelen filters uitsluiten met robots.txt

  • Eenvoudig te implementeren, je hoeft het maar op één plek in te stellen
  • Je kunt Google toegang ontzeggen voor hele delen van je website
  • Goed voor het crawl budget

Nadelen filters uitsluiten met robots.txt

  • Je ontzegt Google alleen toegang voor het crawlen, pagina’s kunnen alsnog in de index belanden
  • Gevoelig voor fouten; een klein foutje kan er al voor zorgen dat hele delen van je website niet meer vindbaar zijn in de zoekmachine
  • Kan lastig te implementeren zijn als URL’s van bijvoorbeeld gepagineerde content op dezelfde manier zijn opgebouwd als filter URL’s (https://www.webshop.nl/grasmaaiers?pagina=2)

Filtering met AJAX

Met AJAX worden er na het selecteren van filteropties andere content getoond op dezelfde URL, zonder dat de pagina hoeft te verversen. Dit heeft een positieve invloed op zowel de laadtijden als de gebruikerservaring.

Voordelen filtering met AJAX

  • Snellere laadtijden
  • Betere gebruikerservaring
  • Goed voor het crawl budget omdat er geen aparte URL’s zijn voor filterpagina’s
  • Geen duplicate content

Nadelen filtering met AJAX

  • Niet eenvoudig te implementeren
  • Geen aparte URL’s voor filterpagina’s, je kunt dus niet linken naar een categoriepagina waar al filters zijn geselecteerd in je nieuwsbrieven, advertenties e.d..

Beste manier om filters uit te sluiten

Deze verschillende manieren om te voorkomen dat Google onnodig veel pagina’s crawlt en indexeert hebben allemaal hun voor- en nadelen. Dus welke manier kun je het beste toepassen?

Het belangrijkste is dat je Google niet onnodig veel pagina’s laat crawlen en laat kiezen welke pagina er in de zoekresultaten moet worden getoond. Filteren met AJAX of het uitsluiten met rel=canonical zal voor je organische vindbaarheid het beste zijn. Ga dus met je webbouwer zitten en overleg wat de mogelijkheden zijn.

Bonus tip: maak landingspagina’s van bepaalde filtercombinaties

Als je één van bovenstaande opties hebt gekozen zal Google geen filterpagina’s meer tonen in de zoekresultaten. Hiermee sluit je echter ook pagina’s uit waar mogelijk veel behoefte naar is. Duik dus de zoekwoordplanner van Google Ads in om er achter te komen naar welke filtercombinaties veel gezocht wordt. Denk aan stadsfietsen van een bepaald merk, Bosch wasmachines met 1200 of 1400 toeren motor enz.. Maak voor deze pagina’s een nieuwe landingspagina met een schone URL (bijv. /stadsfietsen/batavus/) en relevante metadata, titel, introtekst etc.. Link deze pagina vervolgens op relevante plekken (bijv. bovenliggende en gerelateerde categorieën) zodat bezoekers makkelijk naar de pagina kunnen navigeren, dit zal ook helpen met de vindbaarheid in Google.

Wil je meer weten over de filtering en SEO? Stuur dan een mailtje naar info@epurple.nl of neem geheel vrijblijvend contact op met een van onze specialisten. Zij helpen je graag! Heb je nog een aanvulling? Laat hem achter in de comments!

Vrijblijvend adviesgesprek

Laat hier je gegevens achter en er wordt binnen één uur contact met je opgenomen.