Non, Panda et Penguin ne sont pas des pénalités !

On parle souvent de pénalité algorithmique quand on évoque les filtres Google Panda et Penguin. En fait, il faudrait plutôt selon moi parler de critères de pertinence négatif, rentrant en ligne de compte dans la note globale que le moteur de recherche octroie à une page web pour une requête donnée. Explications...

Depuis quelques années, on parle très souvent du concept de "pénalité" délivrée par Google aux sites qui tentent de manipuler son index. Dans ce domaine, on divise souvent ces pénalités en deux catégories :

- Les pénalités manuelles (officiellement appelées "actions manuelles" par Google), qui sont délivrées par la Search Quality Team (située à Dublin pour l'Europe) et donc des êtres humains qui, sur la base de règles (a priori) objectives, "appuient sur le bouton rouge" et pénalisent un site ou certaines pages pour cause de violation des consignes pour webmasters délivrées par le moteur. Un message est reçu dans la Search Console et une demande de réexamen est réalisable lorsque la faute est réparée. Bref, dans ce cas, il existe une procédure et des possibles aller-retours avec Google pour faire en sorte que les choses s'arrangent. C'est souvent long - un tantinet injuste voire incompréhensible parfois - mais, l'un dans l'autre, on y arrive... Disons que les "actions manuelles" sont balisées et que le chemin pour les traiter, même s'il est parfois complexe à suivre et/ou à comprendre, existe...

- Ce qu'on appelle le plus souvent les pénalités algorithmiques, dont les représentants les plus connus sont les filtres Panda et Penguin. Aucun être humain n'intervient dans ce cas. Tout est automatique et le flou le plus total (et entretenu par Google) règne sur les dates de lancement et l'éventuel aspect "temps réel" de fonctionnement de ces "filtres". Bref, on ne sait pas trop comment cela fonctionne et il y a fort à parier que cela convient très bien à Google, d'où l'absence quasi totale d'information officielle à ce sujet...

Selon moi, il ne faut pas voir Panda et Penguin comme des pénalités mais plutôt comme des notes de pertinence négatives. L'algorithme utilisé par Google comprend officiellement plus de 200 critères et parmi ceux-ci, on peut estimer que certains donnent des notes positives et d'autres des notes négatives.

Quelques exemples pour clarifier les choses

Prenons quelques exemples (obligatoirement très très simplistes, voire proches de la caricature, mais l'idée est avant tout d'expliquer le concept, que les puristes m'excusent donc) :

- Exemple 1 : pour une requête donnée ("seo"), une page A contient le terme dans la balise H1 (+10 points), dans le Title (+10 points), en gras dans le texte (+5 points) et dans l'URL (+2 points). La page A reçoit donc une "note de pertinence" de +27 points pour la requête donnée. Comme la contenu est de qualité et qu'aucun backlink "toxique" ne point vers elle, elle garde cette note in fine.

- Exemple 2 : même requête, même page et même optimisation pour A avec score de pertinence positif initial de +27. Mais, cette fois, les algorithmes de Google ont détecté de nouveaux liens toxiques (exemple : ancres de liens suroptimisées) qui pointent vers la page, ce qui octroie une note négative de -5. Le score global de la page passe donc à +22.

- Exemple 3 : on reprend l'exemple 2 avec la page A et son score de +22. Quelques semaines plus tard, la situation n'a pas changé au niveau des liens mais, suite à une mauvaise manipulation du webmaster, le site contient maintenant un grand nombre de contenus de faible qualité (par exemple beaucoup de duplicate content intrasite). Panda pénalise alors le site, de façon globale, d'une note de -10. Notre page A passe alors à un score de +12, à comparer à sa note initiale de +27. Evidemment, elle plonge dans les classements...

Si elle corrige son problème de duplicate content, elle regagnera +10 au prochain lancement de Panda. Si elle supprime ou désavoue les liens toxiques, elle regagnera les 5 points négatifs octroyés par Penguin lorsque ce filtre sera à nouveau lancé. Etc.

Une hypothèse qui explique beaucoup de choses

Ce mode de fonctionnement explique un certain nombre de points :
- Le fait que de nombreux porte-paroles SEO de Google (John Mueller, Gary Illyes et d'autres) aient souvent indiqué qu'une "pénalisation" Panda ou Penguin pouvait être à peine perceptible sur un site si celui-ci était de bonne qualité. En effet, si une page a des notes positives extrêmement élevées pour une requête donnée, un faible score négatif octroyé par un de ces filtres peut presque passer inaperçu.
- Le fait que ces mêmes porte-parole aient à plusieurs reprise indiqué également que le but ultime de ces filtres étaient d'être intégrés à l'algorithme de pertinence global et ne plus consister en des algorithmes spécifiques comme aujourd'hui. Cela semble en effet logique et cohérent si on suit notre raisonnement.
- Le fait que Google ne se presse pas pour faire en sorte que (ou communiquer à ce sujet) ces filtres soient lancés en temps réel. En effet, dans ce cas, il "suffirait" de spammer allègrement le moteur, puis de s'arrêter au moment de la "pénalisation" (perte de positions) pour revenir légèrement en arrière et voir la note négative supprimée. Donc, on saurait ainsi où se situerait la "ligne jaune" à ne pas franchir. Et il n'est pas certain que cela plaise à Google...

Cette notion de "critère de pertinence négatif" me semble donc intéressante car elle démystifie également cette notion de "pénalité algorithmique" tout en offrant une notion d'échelle plus ou moins grande de l'impact de ces filtres sur nos sites. Et plus nos sources d'information seront de bonne qualité, moins on aura à craindre ce type de problème !!

Et vous, qu'en pensez-vous ?

panda penguin

Source de l'image : Abondance