Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : comment identifier la présence de contenu hors-sujet pénalisé par Google ? Pourquoi Google continue-t-il d'explorer des pages définitivement supprimées ?

Goossip #1

Pour identifier du contenu hors-sujet pénalisé par Google... utilisez Bing !

Un éditeur d’un site éducatif ayant migré de javatpoint.com vers tpointtech.com a constaté une chute brutale de trafic et un déréférencement partiel sur Google. Pensant que la migration était en cause, il a demandé de l’aide sur le réseau Bluesky. John Mueller a répondu en suggérant d'effectuer une recherche sur Bing (ex : site:tpointtech.com sexy) pour détecter du contenu hors-sujet. Il s’est avéré que le site hébergeait de nombreux articles sans rapport avec sa thématique (listes people, "watch online", etc.), hérités de l’ancien domaine.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

On sait que Google a tendance à pénaliser le contenu hors-sujet ou purement optimisé pour le SEO. Même si la proposition de John Mueller peut sembler surprenante (faire une recherche sur Bing), c’est en effet une manière rapide de vérifier la présence de contenus hors sujet… et indirectement montrer que le concurrent de Google est moins rigoureux sur son indexation.

Goossip #2

Pourquoi Googlebot continue d’explorer des pages en erreur 410

Un éditeur de site a constaté une chute de visibilité sur Google après que Googlebot a effectué des millions de requêtes vers des pages inexistantes, à un niveau proche d’un DDoS. Un exemple : plus de 2,4 millions de requêtes ont visé une seule URL avec un paramètre ?feature. Bien que ces pages renvoient un code HTTP 410 (page définitivement supprimée), Googlebot continue de les explorer pour vérifier si elles reviennent. Le souci vient d’une exposition accidentelle de ces URLs via un payload JSON généré par Next.js. L’éditeur envisage d’utiliser robots.txt pour bloquer ce comportement, mais cela peut affecter le rendu des pages les plus importantes s’il est mal configuré. John Mueller invite plutôt à analyser plus en profondeur les causes de la perte de trafic plutôt que de s’arrêter à une explication superficielle.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Le cœur du message est que même si Googlebot peut sembler agressif, ce comportement est « normal », et que les problèmes d'indexation trouvent souvent leur origine dans des erreurs techniques situées du côté des éditeurs de sites.