oglebot zal op uw site kruipen voordat u vertrekt, dus crawl budget optimalisatie zorgt ervoor dat Googlebot geen tijd verspilt aan het kruipen door uw onbelangrijke pagina’s en het risico loopt uw belangrijke pagina’s te negeren. Crawl budget is het belangrijkst op zeer grote sites met tienduizenden URL’s, maar het is nooit een slecht idee om crawlers te blokkeren van de toegang tot de inhoud waar je zeker niet om geeft. Zorg er wel voor dat je de toegang van een crawler tot pagina’s waar je andere richtlijnen aan hebt toegevoegd, zoals canonieke of geen index tags, niet blokkeert. Als Googlebot is geblokkeerd van een pagina, kan hij de instructies op die pagina niet zien. Dit artikel wordt mede mogelijk gemaakt door Ralf van Veen, freelance SEO specialist bij https://ralfvanveen.com. Niet alle webrobots volgen robots.txt. Mensen met slechte bedoelingen (bijvoorbeeld e-mailadreskrabbers) bouwen bots die dit protocol niet volgen. Sommige slechte acteurs gebruiken zelfs robots.txt-bestanden om te vinden waar u uw privé-inhoud hebt gevonden. Hoewel het misschien logisch lijkt om crawlers van privépagina’s zoals inlog- en beheerpagina’s te blokkeren, zodat ze niet in de index verschijnen, betekent het plaatsen van de locatie van die URL’s in een publiek toegankelijk robots.txt-bestand ook dat mensen met kwaadwillige bedoelingen ze gemakkelijker kunnen vinden. Het is beter om deze pagina’s te NoIndexen en ze achter een aanmeldingsformulier te plaatsen in plaats van ze in uw robots.txt-bestand te plaatsen. U kunt meer details hierover lezen in het gedeelte robots.txt van ons leercentrum. URL-parameters definiëren in GSC
Hoe weet Google welke versie van de URL te dienen voor zoekers? Google doet het vrij goed in het uitzoeken van de representatieve URL op zijn eigen, maar u kunt de URL-parameters functie in Google Search Console gebruiken om Google precies te vertellen hoe u wilt dat ze uw pagina’s behandelen. Als u deze functie gebruikt om Googlebot te vertellen “crawl geen URL’s met ____ parameter,” dan vraagt u in wezen om deze inhoud te verbergen voor Googlebot, wat kan resulteren in het verwijderen van die pagina’s uit de zoekresultaten. Dat is wat u wilt als die parameters dubbele pagina’s maken, maar niet ideaal als u wilt dat die pagina’s worden geïndexeerd. Kunnen crawlers al uw belangrijke inhoud vinden? Soms zal een zoekmachine in staat zijn om delen van uw site te vinden door te kruipen, maar andere pagina’s of secties kunnen om de een of andere reden verborgen zijn. Het is belangrijk om ervoor te zorgen dat zoekmachines in staat zijn om alle inhoud die u wilt geïndexeerd te ontdekken, en niet alleen uw homepage. Vraag jezelf dit af: Kan de bot door uw website kruipen, en niet alleen naar uw website? Een ingestapte deur, die een site voorstelt die wel kan worden aangekruipen, maar er niet doorheen kan worden gekropen. Vertrouw je op zoekformulieren? Is tekst verborgen binnen niet-tekstuele inhoud? Kunnen zoekmachines de navigatie op uw website volgen? Een afbeelding van hoe pagina’s waarnaar gelinkt wordt, gevonden kunnen worden door crawlers, terwijl een pagina waarnaar niet gelinkt wordt in de navigatie op uw site bestaat als een eiland, onontdekt is. |
https://ralfvanveen.com |