Een Google-crawlprobleem oplossen in de blogpost van een klant



We beginnen met SEO vanaf nul omdat de website gloednieuw is. Blogs zijn een manier om bezoekers naar de site te trekken, daarom ben ik begonnen met het schrijven van nieuwe inhoud met mijn inhoudsteam. Google weigerde echter de bloginhoud te crawlen en te indexeren, wat onhandig was gezien het ontbreken van een Google Search Console-functie voor het indienen van URL's. Ik besloot het probleem te onderzoeken omdat het ongeveer een week duurde nadat ik de blogartikelen had geüpload. Dit zijn de procedures die ik heb gevolgd om ervoor te zorgen dat de blogs werden gecrawld en geïndexeerd door Google.


In het robots.txt-gedeelte van Google Search Console en Bing Webmaster Tools kunt u elke URL testen. Het concept achter deze tool is dat Google en Bing u waarschuwen als een filter voorkomt dat ze een bepaalde URL crawlen. Ik was er zeker van dat het robots.txt-bestand niet het probleem was omdat de website nog zo jong was. Ik heb vastgesteld dat de robots.txt niet het probleem was na evaluatie van de blogs in beide programma's.


Controleer op NOINDEX-tags


Een NOINDEX-tag kan de oorzaak zijn van inhoud die niet in Google of Bing verschijnt. Wanneer Google en Bing de inhoud crawlen, waarschuwt de NOINDEX-tag hen om dit stuk inhoud van hun SERP te verwijderen. Ik heb de tag in de broncode niet opgemerkt, wat aangeeft dat dit niet het probleem was.


Controleer de canonieke tag


Ik ging verder met de canonieke tag nadat ik had vastgesteld dat het niet-indexeren niet te wijten was aan de robots.txt- of metarobots-tags. Ik heb gezien dat Shopify af en toe de verkeerde canonieke tag op een pagina stuurde, wat resulteerde in indexeringsproblemen. Ik kon vaststellen dat er geen probleem was na het onderzoeken van de Canonical Tag.


Controleer een niveau hoger


De twee blogberichten staan ​​op de startpagina van de blog van mijn klant. Misschien werd de fout veroorzaakt door de bovengenoemde problemen in het blogartikel, daarom heb ik het dubbel gecontroleerd. Er was geen probleem met die pagina, zo bleek. Ik ging naar Google Search Console om te bevestigen of de blog in de index van Google stond, wat het ook was.


XML-sitemap indienen + twee directe links in de voettekst

Ik gaf de zoekmachines een direct kanaal om de informatie te crawlen en te indexeren nu ik deze waarschijnlijke problemen op de site kon elimineren. Een methode die ik bij klanten heb gebruikt, is om directe links naar blogposts in de voettekst op te nemen. Het idee achter deze methode is dat Google en Bing hierdoor de hele website crawlen op links, waardoor de blogs gevonden worden.


Ik controleerde Google en Bing nadat ik de footer-links had toegevoegd om te zien of de blogs in de index stonden. Het materiaal werd geïndexeerd zodra die footer-links waren toegevoegd, wat toekomstig SEO-verkeer betekent. Ik ben me ervan bewust dat het tijd kost om naar de eerste pagina van Google te gaan voor de doelzoekwoorden met deze nieuwe site. Het opnemen van inhoud in de index is daarentegen de eerste fase in het rangschikkingsproces.


De resultaten volgen

Een blogbericht laten crawlen en indexeren in Google


SEMRush is wat ik gebruik om dagelijks de trefwoordranglijsten van mijn klanten bij te houden. Hier is een voorbeeld van een zoekwoord dat nooit eerder op hun website stond, maar nu op pagina 3 staat. Over een maand of zo verwacht ik op de eerste pagina van Google te staan, maar voor nu is dit een overwinning.


Als u uw zoekwoorden gratis wilt bijhouden, kunt u SEMRush 14 dagen gratis proberen!


Conclusie


Om dit soort problemen op te lossen, kunt u de hulp inroepen van een deskundige team technician, neem contact op met Google Bellen Nederland.