lbv3

Het wijzigen van URL’s op grotere sites kost tijd om te verwerken

Inhoudsopgave

Iemand op Reddit stelde een vraag over het aanbrengen van een sitebrede wijziging in de code voor een website met tien talen. John Mueller van Google gaf algemeen advies over de valkuilen van veranderingen op de hele site en vertelde over de complexiteit (wat de waarde van eenvoud impliceert).

De vraag had betrekking op hreflang, maar het antwoord van Mueller had, omdat het algemeen van aard was, een bredere waarde voor SEO.

Hier is de vraag die werd gesteld:

“Ik werk aan een website die 10 talen en 20 cultuurcodes bevat. Laten we zeggen dat blog-abc in alle talen is gepubliceerd. De hreflang-tags in alle talen verwijzen naar de blog-abc-versie op basis van de lang. Voor nl kan het en/blog-abc zijn

Ze hebben een update gemaakt naar die in de Engelse taal en de URL is bijgewerkt naar blog-def. De hreflang-tag op de Engelse blogpagina voor en wordt bijgewerkt naar en/blog-def. Dit wordt echter niet dynamisch bijgewerkt in de broncode van andere talen. Ze zullen nog steeds verwijzen naar en/blog-abc. Om hreflang-tags in andere talen bij te werken, zullen we deze ook opnieuw moeten publiceren.

Omdat we proberen de pagina’s zo statisch mogelijk te maken, is het mogelijk geen optie om hreflang-tags dynamisch bij te werken. De opties die we hebben zijn de hreflang-tags periodiek bijwerken (bijvoorbeeld één keer per maand) of de hreflang-tags naar de sitemap verplaatsen.

Als je denkt dat er een andere optie is, zal dat ook nuttig zijn.

Het duurt lang voordat wijzigingen op de hele site zijn verwerkt

Ik heb onlangs iets interessants gelezen in een onderzoeksartikel dat me deed denken aan de dingen die John Mueller zei over hoe het tijd kost voordat Google begrijpt dat bijgewerkte pagina’s verband houden met de rest van internet.

In het onderzoeksartikel werd vermeld dat bij bijgewerkte webpagina’s de semantische betekenis van de webpagina’s (de insluitingen) opnieuw moest worden berekend en dat vervolgens voor de rest van de documenten moest worden gedaan.

Dit is wat het onderzoekspaper (Pdf) zegt terloops over het toevoegen van nieuwe pagina’s aan een zoekindex:

“Denk eens aan het realistische scenario waarin voortdurend nieuwe documenten aan het geïndexeerde corpus worden toegevoegd. Het bijwerken van de index in op dual-encoder gebaseerde methoden vereist het berekenen van insluitingen voor nieuwe documenten, gevolgd door het opnieuw indexeren van alle documentinsluitingen.

Indexconstructie met behulp van een DSI omvat daarentegen het trainen van een Transformer-model. Daarom moet het model elke keer dat het onderliggende corpus wordt bijgewerkt, opnieuw worden getraind, wat onbetaalbaar hoge rekenkosten met zich meebrengt in vergelijking met dual-encoders.”

Ik noem die passage omdat John Mueller in 2021 zei dat het Google maanden kan kosten om de kwaliteit en de relevantie van een site te beoordelen en vermeldde hoe Google probeert te begrijpen hoe een website past in de rest van het web.

Dit is wat hij in 2021 zei:

“Ik denk dat het een stuk lastiger is als het gaat om zaken rond kwaliteit in het algemeen, waarbij het beoordelen van de algehele kwaliteit en relevantie van een website niet zo eenvoudig is.

Het kost ons veel tijd om te begrijpen hoe een website past in de rest van het internet.

En dat kan gemakkelijk, ik weet het niet, een paar maanden, een half jaar, soms zelfs langer dan een half jaar duren voordat we significante veranderingen in de algehele kwaliteit van de site herkennen.

Omdat we er vooral op letten…hoe past deze website in de context van het totale web en dat kost gewoon veel tijd.

Dus dat is iets waarvan ik zou zeggen dat het, vergeleken met technische problemen, veel langer duurt voordat de zaken op dat vlak zijn vernieuwd.”

Dat deel over het beoordelen van hoe een website in de context van het internet als geheel past, is een merkwaardige en ongebruikelijke uitspraak.

Wat hij zei over het passen in de context van het algehele web leek verrassend veel op wat het onderzoekspaper zei over hoe de zoekindex “vereist computerinsluitingen voor nieuwe documenten, gevolgd door het opnieuw indexeren van alle documentinsluitingen.”

Hier is Reactie van John Mueller op Reddit over het probleem met het bijwerken van veel URL’s:

“Over het algemeen zal het enige tijd duren voordat het wijzigen van URL’s op een grotere site is verwerkt (daarom raad ik graag stabiele URL’s aan… iemand zei ooit dat coole URL’s niet veranderen; ik denk niet dat ze SEO bedoelden, maar ook voor SEO). Ik denk niet dat een van deze benaderingen daar significant verandering in zal brengen.”

Wat bedoelt Mueller als hij zegt dat grote veranderingen tijd nodig hebben om verwerkt te worden? Het zou vergelijkbaar kunnen zijn met wat hij in 2021 zei over het opnieuw evalueren van de site op kwaliteit en relevantie. Dat relevantiegedeelte zou ook vergelijkbaar kunnen zijn met wat het onderzoekspaper zei over computerinbedding, wat betrekking heeft op het creëren van vectorrepresentaties van de woorden op een webpagina als onderdeel van het begrijpen van de semantische betekenis.

Zie ook: Vector Search: optimaliseren voor de menselijke geest met machinaal leren

Complexiteit brengt kosten met zich mee op de langere termijn

John Mueller vervolgde zijn antwoord:

“Een meer metavraag zou kunnen zijn of je genoeg resultaten ziet van deze ietwat complexe opzet om überhaupt tijd te besteden aan het onderhouden ervan, of je de hreflang-setup kunt laten vallen, of dat je zelfs de landversies kunt laten vallen en zelfs kunt vereenvoudigen meer.

Complexiteit voegt niet altijd waarde toe en brengt op de lange termijn kosten met zich mee.”

Het creëren van sites met zoveel mogelijk eenvoud is iets wat ik al meer dan twintig jaar doe. Müller heeft gelijk. Het maakt updates en vernieuwingen zoveel eenvoudiger.

Uitgelichte afbeelding door Shutterstock/hvostik