Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : les signatures des auteurs sont-elles considérées comme des facteurs de classement ? Comment gérer un piratage occasionnant des milliers de nouvelles pages ? Est-il utile de désavouer des liens spammy ou toxiques générés par IA ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

Les signatures des auteurs ne sont pas un facteur de classement
Dans une récente déclaration sur le réseau X, le compte Google’s Search Liaison a démonté une idée fausse concernant l’influence supposée des signatures/présentations des auteurs sur le classement de moteurs, idée erronée véhiculée par une publication importante. La précision apportée est la suivante : « la signature des auteurs n’est pas un outil pour Google et ne permet pas d’améliorer le classement. C’est quelque chose que vous faites pour vos lecteurs – et les publications qui le font peuvent également présenter des caractéristiques que nos systèmes de classement considèrent comme alignées avec les principes d’un contenu utile. »
Source : Search Engine Journal
Taux de fiabilité :
En effet, comme précisé dans le message publié X, il serait quelque peu naïf de penser que Google se fit à une simple description associée à un auteur pour juger de son niveau d’expertise. Il est donc plus raisonnable de considérer cette signature comme un élément purement informatif à destin et de prouver cette expertise avec du contenu à l'avenant.

John Mueller à propos du japanese keyword hack
À la suite d’une attaque ayant provoqué la création de milliers de pages en japonais et en chinois, technique de piratage connue sous le nom de « japanese keyword hack », un internaute a demandé de l’aide sur Reddit. Après avoir donné quelques conseils techniques, John Mueller a ajouté cette remarque : « les anciennes pages resteront indexées pendant des mois, elles ne posent aucun problème si elles ont tendance à ne pas être vues ». L’employé de Google a également précisé qu’il n’était pas nécessaire de désavouer les backlinks pointant vers ces « pages indexées invisibles ». À la place, il préconise de concentrer ses efforts sur le nettoyage du contenu visible et d’empêcher l’indexation des résultats de recherche internes.
Source : Search Engine Journal
Taux de fiabilité :
Bien que le piratage d’un site ne soit jamais une nouvelle particulièrement réjouissante, il reste possible de prévenir et gérer au mieux le risque en procédant régulièrement à des mises à jour de sécurité et des audits de liens.

Inutile de désavouer les liens spammy ou toxiques
Sur Reddit, un propriétaire de site a fait part de son inquiétude après avoir remarqué des centaines de milliers de backlinks provenant d’articles de blog générés par l’IA pointant vers son site. En réponse, John Mueller a déclaré que ces liens pouvaient être ignorés, ajoutant qu’il ne s’agissait probablement même pas d’IA, mais « juste de la camelote habituelle ».
Source : Search Engine Roundtable
Taux de fiabilité :
Pas particulièrement fan du fichier de désaveu, John Mueller conseille régulièrement aux propriétaires de sites et aux SEO d’ignorer purement et simplement les liens spammy et même les liens clairement toxiques, comme le fait Google. Quant au fait qu’il s’agisse de contenus générés par IA, cela ne fait effectivement pas vraiment de différence, dès l’instant où ce sont des contenus de mauvaise qualité.