lbv3

Google bevestigt drie manieren om Googlebot meer te laten crawlen

Inhoudsopgave

Gary Illyes en Lizzi Sassman van Google bespraken drie factoren die ervoor zorgen dat Googlebot meer crawlt. Hoewel ze de noodzaak van constant crawlen bagatelliseerden, erkenden ze dat er manieren zijn om Googlebot aan te moedigen een website opnieuw te bezoeken.

1. Impact van inhoud van hoge kwaliteit op de crawlfrequentie

Eén van de dingen waar ze het over hadden was de kwaliteit van een website. Veel mensen hebben last van het ontdekte niet-geïndexeerde probleem en dat wordt soms veroorzaakt door bepaalde SEO-praktijken die mensen hebben geleerd en waarvan ze denken dat ze een goede praktijk zijn. Ik doe al 25 jaar aan SEO en één ding is altijd hetzelfde gebleven: de door de industrie gedefinieerde best practices lopen over het algemeen jaren achter op wat Google doet. Toch is het moeilijk te zien wat er mis is als iemand ervan overtuigd is dat hij alles goed doet.

Gary Illyes deelde een reden voor een verhoogde crawlfrequentie na 4:42 minuten en legde uit dat een van de triggers voor een hoog crawlniveau signalen van hoge kwaliteit zijn die de algoritmen van Google detecteren.

Gary zei het na 4:42 minuten:

“…als de inhoud van een site van hoge kwaliteit is en nuttig is en mensen de site in het algemeen leuk vinden, dan heeft Googlebot (nou ja, Google) de neiging om meer van die site te crawlen…”

Er zit veel nuance in de bovenstaande verklaring die ontbreekt, bijvoorbeeld wat zijn de signalen van hoge kwaliteit en behulpzaamheid waardoor Google besluit vaker te crawlen?

Nou, dat zegt Google nooit. Maar we kunnen speculeren en de volgende zijn enkele van mijn weloverwogen gissingen.

We weten dat er patenten bestaan ​​op het gebied van merkzoekopdrachten, waarbij merkzoekopdrachten van gebruikers als impliciete links worden beschouwd. Sommige mensen denken dat “impliciete links” merkvermeldingen zijn, maar “merkvermeldingen” zijn absoluut niet waar het patent over spreekt.

Dan is er het Navboost-patent dat al bestaat sinds 2004. Sommige mensen stellen het Navboost-patent gelijk aan klikken, maar als je het daadwerkelijke patent uit 2004 leest, zul je zien dat er nooit sprake is van klikfrequenties (CTR). Het gaat over signalen van gebruikersinteractie. Klikken waren begin jaren 2000 een onderwerp van intensief onderzoek, maar als je de onderzoekspapers en de patenten leest, kun je gemakkelijk begrijpen wat ik bedoel als het niet zo eenvoudig is als ‘aap klikt op de website in de SERP’s, Google rangschikt deze hoger, aap krijgt banaan.”

Over het algemeen denk ik dat signalen die erop wijzen dat mensen een site als nuttig beschouwen, kunnen helpen een website beter te laten scoren. En soms kan dat mensen geven wat ze verwachten te zien, mensen geven wat ze verwachten te zien.

Site-eigenaren zullen me vertellen dat Google rommel rangschikt en als ik kijk, begrijp ik wat ze bedoelen: de sites zijn nogal rommel. Maar aan de andere kant geeft de inhoud mensen wat ze willen, omdat ze niet echt weten hoe ze het verschil moeten zien tussen wat ze verwachten te zien en daadwerkelijke inhoud van goede kwaliteit (ik noem dat het Froot Loops-algoritme).

Wat is het Froot Loops-algoritme? Het is een gevolg van de afhankelijkheid van Google van gebruikerstevredenheidssignalen om te beoordelen of hun zoekresultaten gebruikers tevreden stellen. Dit is wat ik eerder publiceerde over het Froot Loops-algoritme van Google:

“Heb je wel eens door het graangangpad van een supermarkt gelopen en gezien hoeveel met suiker beladen soorten ontbijtgranen er in de schappen staan? Dat is gebruikerstevredenheid in actie. Mensen verwachten suikerbommetjes in hun ontbijtgranen en supermarkten voldoen aan die intentie van de gebruiker.

Ik kijk vaak naar de Froot Loops op het gangpad met ontbijtgranen en denk: “Wie eet dat spul?” Blijkbaar doen veel mensen dat, daarom ligt de doos in het schap van de supermarkt – omdat mensen verwachten hem daar te zien.

Google doet hetzelfde als de supermarkt. Google toont de resultaten die gebruikers het meest waarschijnlijk tevreden zullen stellen, net als dat graangangpad.”

Een voorbeeld van een rommelige site die gebruikers tevreden stelt, is een populaire receptensite (die ik niet zal noemen) die eenvoudig te bereiden recepten publiceert die niet authentiek zijn en snelkoppelingen zoals champignonroomsoep uit blik als ingrediënt gebruikt. Ik ben redelijk ervaren in de keuken en die recepten doen me ineenkrimpen. Maar mensen die ik ken zijn dol op die site omdat ze echt niet beter weten, ze willen gewoon een eenvoudig recept.

Waar het gesprek over behulpzaamheid eigenlijk over gaat, is het begrijpen van het online publiek en hen geven wat ze willen, wat iets anders is dan hen geven wat ze zouden moeten willen. Begrijpen wat mensen willen en dat aan hen geven is, naar mijn mening, wat zoekers nuttig zullen vinden en de hulpsignalen van Google doen rinkelen.

2. Verhoogde publicatieactiviteit

Een ander ding dat volgens Illyes en Sassman ertoe zou kunnen leiden dat Googlebot meer gaat crawlen, is een hogere publicatiefrequentie, bijvoorbeeld wanneer een site plotseling het aantal pagina’s publiceert dat wordt gepubliceerd. Maar Illyes zei dat in de context van een gehackte site die plotseling meer webpagina’s begon te publiceren. Een gehackte site die veel pagina’s publiceert, zou ervoor zorgen dat Googlebot meer pagina’s crawlt.

Als we uitzoomen om die uitspraak vanuit het perspectief van het bos te onderzoeken, is het vrij duidelijk dat hij impliceert dat een toename van de publicatieactiviteit een toename van de crawlactiviteit kan veroorzaken. Het is niet zo dat de site is gehackt waardoor Googlebot meer crawlt. Het is de toename in publicaties die dit veroorzaakt.

Hier noemt Gary een uitbarsting van publicatieactiviteit als trigger voor Googlebot:

“…maar het kan ook betekenen dat, ik weet het niet, de site is gehackt. En dan zijn er een heleboel nieuwe URL’s waar Googlebot enthousiast over wordt, en dan gaat het uit en dan kruipt het als een gek.”​

Veel nieuwe pagina’s zorgen ervoor dat Googlebot enthousiast wordt en een site ‘als een gek’ doorzoekt, is de afhaalmogelijkheid. Er is geen verdere uitwerking nodig, laten we verder gaan.

3. Consistentie van inhoudskwaliteit

Gary Illyes vermeldt verder dat Google de algehele sitekwaliteit kan heroverwegen, wat een daling van de crawlfrequentie kan veroorzaken.

Dit is wat Gary zei:

“…als we niet veel crawlen of als we langzamerhand langzamer gaan crawlen, kan dat een teken zijn van inhoud van lage kwaliteit of dat we de kwaliteit van de site opnieuw hebben bekeken.”

Wat bedoelt Gary als hij zegt dat Google “de kwaliteit van de site opnieuw heeft bekeken?” Mijn mening is dat de algehele sitekwaliteit van een site soms achteruit kan gaan als er delen van de site zijn die niet aan dezelfde standaard voldoen als de oorspronkelijke sitekwaliteit. Naar mijn mening, gebaseerd op de dingen die ik door de jaren heen heb gezien, kan de inhoud van lage kwaliteit op een gegeven moment zwaarder gaan wegen dan de goede inhoud en de rest van de site meeslepen.

Als mensen naar mij toe komen en zeggen dat ze een probleem hebben met “inhoudskannibalisme”, als ik ernaar kijk, hebben ze in werkelijkheid last van een probleem met de inhoud van lage kwaliteit in een ander deel van de site.

Lizzi Sassman vraagt ​​zich rond de zes minuten af ​​of het een impact heeft als de inhoud van de website statisch is, niet verbetert of verslechtert, maar simpelweg niet verandert. Gary weigerde een antwoord te geven en zei eenvoudigweg dat Googlebot terugkomt om de site te controleren om te zien of deze is veranderd en zegt dat Googlebot ‘waarschijnlijk’ het crawlen zou kunnen vertragen als er geen wijzigingen zijn, maar kwalificeerde die verklaring door te zeggen dat dit niet het geval was. weten.

Iets dat ongezegd is gebleven, maar verband houdt met de consistentie van de inhoudskwaliteit, is dat het onderwerp soms verandert en als de inhoud statisch is, kan deze automatisch aan relevantie verliezen en de ranglijst beginnen te verliezen. Het is dus een goed idee om regelmatig een Content Audit uit te voeren om te zien of het onderwerp is veranderd en zo ja, om de inhoud bij te werken, zodat deze relevant blijft voor gebruikers, lezers en consumenten wanneer zij gesprekken over een onderwerp voeren.

Drie manieren om de relatie met Googlebot te verbeteren

Zoals Gary en Lizzi duidelijk hebben gemaakt, gaat het niet echt om het porren van Googlebot om hem rond te krijgen, alleen maar om hem te laten crawlen. Het gaat erom na te denken over uw inhoud en de relatie ervan met de gebruikers.

1. Is de inhoud van hoge kwaliteit?
Gaat de inhoud over een onderwerp of gaat het over een trefwoord? Sites die een op trefwoorden gebaseerde inhoudsstrategie gebruiken, zijn degenen die ik zie lijden in de kernalgoritme-updates van 2024. Strategieën die op onderwerpen zijn gebaseerd, leveren doorgaans betere inhoud op en zijn door de algoritme-updates heen gegaan.

2. Verhoogde publicatieactiviteit
Een toename van de publicatieactiviteit kan ervoor zorgen dat Googlebot vaker langskomt. Ongeacht of het komt omdat een site is gehackt of omdat een site meer kracht zet in zijn strategie voor het publiceren van inhoud, een regelmatig schema voor het publiceren van inhoud is een goede zaak en is altijd een goede zaak geweest. Er bestaat geen “stel het in en vergeet het” als het gaat om het publiceren van inhoud.

3. Consistentie van inhoudskwaliteit
De kwaliteit, actualiteit en relevantie van de inhoud voor gebruikers in de loop van de tijd zijn een belangrijke overweging en zullen ervoor zorgen dat Googlebot langs zal blijven komen om hallo te zeggen. Een daling van een van deze factoren (kwaliteit, actualiteit en relevantie) zou van invloed kunnen zijn op het crawlen van Googlebot, wat op zichzelf een symptoom is van de belangrijker factor, namelijk hoe het algoritme van Google zelf de inhoud beschouwt.

Luister naar de Google Search Off The Record Podcast vanaf ongeveer 4 minuten:

Uitgelichte afbeelding door Shutterstock/Cast Of Thousands