Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : l’utilité de désavouer des liens toxiques, la validation des corrections des erreurs 404 et les attentes de Google.

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

Désavouer des liens toxiques ne fera pas revenir votre classement
Sur Reddit, John Mueller a déclaré qu’il ne suffisait pas de désavouer les liens toxiques listés dans les rapports Semrush pour retrouver son classement dans les SERPs. À de nombreuses reprises, Google a conseillé de ne pas utiliser l’outil de désaveu de liens, suggérant qu’il pouvait faire plus de mal que de bien. Concernant les rapports de liens toxiques : « Ignorez-les. Ignorez le rapport Semrush. Laissez votre concurrent dépenser ces 5 dollars pour rien. Soyez heureux qu’il n’investisse pas cette somme dans l’amélioration de son propre site. Cela dit, si vous avez le temps de parcourir et de prendre au sérieux les rapports de ces outils, vous ne passez probablement pas assez de temps à créer un site vraiment génial. »
Source : Search Engine Roundtable
Taux de fiabilité :
Rien de vraiment nouveau avec cette déclaration. Cela fait un certain temps que Google, notamment par l’intermédiaire de John Mueller, conseille de privilégier l'amélioration de la qualité de son site au lieu de passer du temps à désavouer des liens toxiques.

Search Console : à quoi sert la validation des corrections d’erreurs 404 ?
John Mueller a précisé que la validation des corrections des erreurs 404 dans la Search Console était davantage un outil de suivi permettant aux éditeurs de vérifier s’il existe des pages manquantes, notamment si elles ont été supprimées par accident ou en cas de problème technique. Valider la correction d’une erreur 404 dans la Search Console permet alors de noter simplement que le problème a été traité. John Mueller a également indiqué qu’il n’était pas forcément nécessaire de chercher à résoudre toutes les erreurs 404, surtout si cela n’a pas d’impact particulier sur le trafic.
Source : Search Engine Journal
Taux de fiabilité :
Comme l’a déjà précisé Google, certaines erreurs 404 sont normales et ne nécessitent pas forcément d’action (comme une redirection), sauf si elles impactent négativement l’expérience de l’internaute ou le trafic du site.

Google Search veut ce que les utilisateurs de votre site veulent
Sur X, Danny Sullivan a souligné que Google Search souhaitait avant tout ce que les internautes veulent. Autrement dit : il conseille de se concentrer sur ce qui peut plaire aux utilisateurs qui arrivent sur une page plutôt que chercher à satisfaire à tout prix le moteur.
Source : Search Engine Roundtable
Taux de fiabilité :
Bien que cette déclaration ne verse pas dans l’originalité, Danny Sullivan a au moins pris le temps d’expliciter un peu ce que Google s’efforce de répéter depuis des années. Derrière ses propos, on comprend que les conseils donnés par Google doivent toujours être interprétés en fonction des attentes de la cible, au cas par cas. En somme, inutile d’appliquer « bêtement » des règles qui n’ont pas forcément de poids ou d’intérêt dans certains cas spécifiques. Le principe a évidemment ses limites, comme le reconnaît lui-même Danny Sullivan : « oui, nos systèmes ne sont pas parfaits. Oui, du contenu insatisfaisant peut faire surface. C’est quelque chose sur lequel nous travaillons d’arrache-pied. »