Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces questions : tous les TLD se valent-ils ? Les hausses et baisses de crawl sont-elles liées aux updates de Google ?

Goossip #1

Évitez les TLD qui ont mauvaise réputation

John Mueller recommande de privilégier un TLD traditionnel (à l’image de .com), même si cela oblige à intégrer un tiret dans le nom de domaine, plutôt que d’opter pour un TLD réputé « cheap » ou problématique comme .xyz. Selon lui, les extensions associées à beaucoup d’abus ou de spam peuvent ralentir l’indexation, générer une mauvaise réputation et compliquer le référencement. Mieux vaut donc choisir un domaine un peu moins parfait, mais sur un TLD fiable, même s’il contient un tiret, que risquer de longs efforts pour prouver la légitimité d’un site sur un TLD mal réputé.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Certains TLD ont moins bonne réputation que d’autres : .work, .link, .zip… Ces TLD peuvent susciter de la méfiance chez les internautes ou ne pas passer les filtres antispam, même si certains domaines associés ne posent aucun problème en soit. Il est donc plus prudent de se tourner vers des TLD historiques ou reconnus comme .com, .org, .net…

Goossip #2

Les changements de crawl sont indépendants des updates

John Mueller a de nouveau affirmé que les variations dans les fréquences de crawl (exploration) ne sont pas liées au lancement ou à la préparation des grandes mises à jour d’algorithme Google. Cette indépendance a été confirmée à plusieurs reprises par Google : une hausse ou une baisse du crawl n’annonce pas un update, et inversement. Les variations d’activité de Googlebot sont donc indépendantes et ne doivent pas être interprétées comme un signal d’un changement de classement ou d’une mise à jour à venir.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

C’est un point sur lequel Google revient régulièrement : il faut en effet distinguer les variations de crawl et les updates d'algorithme. Une baisse ou une hausse de crawl peut être liée à une mise à jour du contenu d’un site, les performances de son serveur, la popularité, l’actualité, des changements techniques ou structurels…