Définition SEO Cloaking

Définition publiée le 26/09/2023.

Le cloaking, littéralement "camouflage" en français, est une technique controversée utilisée sur certains sites web pour présenter un contenu différent aux moteurs de recherche et aux utilisateurs réels.

Pourquoi est-il important de comprendre ce concept en SEO ?

Imaginez un magicien qui montre une chose à son public, mais en cache une autre derrière son dos, réservée uniquement aux yeux des juges. C'est le principe fondamental du cloaking dans le domaine du SEO.

En d'autres termes, ce que voit le crawler d'un moteur de recherche (comme Google) lorsqu'il visite une page n'est pas nécessairement ce que voit un visiteur humain lorsqu'il consulte la même page avec son navigateur.

Comprendre ce concept est important pour deux raisons majeures :

  1. En tant que propriétaire de site ou professionnel du SEO, il est essentiel de connaître les techniques acceptables et celles qui sont pénalisées. Le cloaking fait partie de cette dernière catégorie : il est considéré par les moteurs de recherche comme une pratique “Black Hat”.
  2. En tant qu'utilisateur ou consommateur de contenu en ligne, comprendre le cloaking peut vous aider à identifier les sites qui ne jouent pas franc jeu et à privilégier ceux qui offrent une expérience authentique.

L’histoire du cloaking

Origines

Les origines du cloaking remontent aux premiers jours des moteurs de recherche. À l'époque, le référencement était une discipline naissante, et les moteurs de recherche utilisaient des méthodes plus rudimentaires pour indexer et classer les sites.

Certaines entreprises ont rapidement compris qu'en montrant un contenu optimisé aux moteurs de recherche (rempli de mots-clés pertinents, par exemple) tout en présentant un contenu différent ou plus attrayant aux utilisateurs, elles pourraient gagner en visibilité dans les résultats de recherche.

Évolution

Avec le temps, les algorithmes des moteurs de recherche, tels que Google, sont devenus de plus en plus sophistiqués. Progressivement, l'utilisation de techniques trompeuses comme le cloaking a été déconseillé et même pénalisé.

La raison est simple : l’objectif principal d’un moteur de recherche est de fournir aux utilisateurs les résultats les plus pertinents possible. Or, si un site présente un contenu différent au moteur de recherche que celui vu par l'utilisateur, il va à l'encontre de cet objectif.

Malgré les sanctions potentielles, certaines entreprises et professionnels du SEO continuent d'utiliser le cloaking, cherchant constamment des moyens de tromper les moteurs de recherche. Cependant, avec les avancées technologiques et les mises à jour régulières des algorithmes, le cloaking est devenu une technique risquée et sévèrement sanctionnée.

Objectifs généraux de cette tactique

Améliorer le classement

L'objectif principal du cloaking est souvent d'obtenir un meilleur positionnement dans les résultats des moteurs de recherche. En affichant un contenu optimisé pour les robots, les sites espèrent se classer plus haut pour des mots-clés spécifiques.

Personnaliser l'expérience utilisateur

Bien que parfois utilisé de manière trompeuse, le cloaking peut aussi avoir pour but de fournir une expérience personnalisée aux utilisateurs en fonction de leur localisation, langue ou autre critère, tout en conservant une version standardisée pour l'indexation. 

Protéger le contenu

Dans certains cas, cette technique de camouflage est utilisée pour protéger des éléments de contenu des concurrents ou d'autres parties, en ne les rendant visibles qu'à certains visiteurs.

Existe-t-il un “bon cloaking” ?

Théoriquement, non : le cloaking est proscrit par Google. Cependant, avec les nouveaux défis posés par la navigation mobile, les méga menus et la navigation à facettes, les sites ont dû chercher un équilibre entre SEO et expérience utilisateur (UX). Ainsi, certaines méthodes ont émergé et sont aujourd'hui tolérées par Google, tant qu'elles servent à optimiser l'UX.

La plus courante est le ciblage géographique : elle identifie d'où vient un visiteur et lui montre la page correspondant à sa ville. Les robots, eux, sont dirigés vers une page standard, car ils ne sont liés à aucun lieu précis. Ce ciblage permet également d’afficher à l’utilisateur une page traduite dans la bonne langue en fonction de son pays d’origine.

L'obfuscation de lien est aussi une méthode courante, notamment sur les gros sites de e-commerce. Elle "masque" des liens internes aux robots pour mieux gérer le budget crawl. C'est utile pour les sites ayant une navigation à facettes, qui peut créer de nombreuses pages superflues pour le SEO. En cachant ces liens, le robot d’indexation se concentre sur les pages essentielles, tout en offrant aux utilisateurs des options de filtrage.

Quoi qu’il en soit, même si vos motivations sont louables, il est nécessaire de pratiquer le cloaking avec précaution car c’est un sujet sensible pour les moteurs de recherche. Pour optimiser votre positionnement sur la SERP, il est recommandé de se concentrer sur des tactiques White Hat qui privilégient l’expérience utilisateur.

Comment fonctionne le cloaking ?

Explication technique simplifiée

Le fonctionnement du cloaking repose sur la détection du visiteur. Si le visiteur est identifié comme un robot d'indexation (par exemple, le robot de Google), le serveur lui présente un contenu spécifique. Si c'est un utilisateur humain, un autre contenu est affiché.

Les différents types de cloaking

Le cloaking à partir du user agent

Cette méthode consiste à détecter le "user agent" du visiteur (généralement un navigateur ou un robot d'exploration de moteur de recherche) et à afficher un contenu différent selon le user agent détecté.

Elle est souvent utilisée pour cibler spécifiquement les robots des moteurs de recherche avec du contenu optimisé pour le SEO. C’est une pratique qui est très bien détectée par les algorithmes des moteurs de recherche et donc risquée. 

Le cloaking basé sur l’adresse IP

Le contenu est délivré en fonction de l'adresse IP (ou “l’IP Delivery”) du visiteur. Cette pratique est relativement similaire à celle du user agent. Les adresses IP des robots de moteurs de recherche sont souvent connues et peuvent être ciblées spécifiquement pour délivrer un autre contenu à l’utilisateur humain. 

Le cloaking via Javascript, Flash ou Dhtml

Cette méthode repose sur le fait que les robots de moteurs de recherche ont historiquement eu du mal à interpréter le contenu généré par Javascript, Flash ou Dhtml. Le contenu visible pour les utilisateurs (via ces technologies) peut donc différer de celui accessible aux robots.

Ce cloaking est principalement utilisé lorsque les créateurs de sites souhaitent afficher du contenu riche et interactif pour les utilisateurs tout en présentant un contenu simplifié et optimisé pour les robots.

Le cloaking avec du texte invisible

C’est une technique ancienne qui consiste à masquer du texte (souvent surchargé de mots-clés) en le mettant de la même couleur que l'arrière-plan de la page, le rendant ainsi invisible pour les utilisateurs mais lisible par les robots.

Elle a été très utilisée pour surcharger une page avec des mots-clés afin d'améliorer le classement sans altérer l'expérience visuelle de l'utilisateur. Cependant, les moteurs de recherche ont depuis longtemps identifié cette tactique et la pénalisent systématiquement.

Le cloaking via le HTTP_Referer et l’HTTP Accept-language

Cette méthode détecte d'où vient un utilisateur (par le biais du referer) et identifie sa langue préférée (via l'entête Accept-language) et affiche en conséquent un contenu adapté.

Elle peut être utilisée pour proposer un contenu spécifique à une audience ou à une région géographique, mais si elle est utilisée pour tromper les moteurs de recherche, elle peut être considérée comme une forme de cloaking Black Hat.

Les risques associés au cloaking

Le cloaking, bien que tentant pour certains en raison de ses avantages potentiels, présente des risques significatifs qu'il faut prendre en considération.

Un service de signalement pour les webmasters

Les moteurs de recherche, dont Google, offrent un moyen pour les webmasters et les utilisateurs de signaler des sites qui utilisent des techniques contraires à leurs directives, y compris le cloaking. Cela signifie que même si un site semble bénéficier temporairement du cloaking, tout concurrent ou utilisateur mécontent peut le signaler, augmentant ainsi les risques que le site soit examiné et potentiellement sanctionné.

Les sanctions possibles de la part des moteurs de recherche

Un des exemples les plus célèbres des conséquences du cloaking est le cas de BMW.de en 2006. Google a découvert que le site allemand de BMW utilisait une technique de cloaking pour tromper ses robots d'indexation. En conséquence, Google a supprimé BMW.de de son index, ce qui signifie que le site n'apparaissait plus dans les résultats de recherche de Google. Ce n'est qu'après que BMW.de a corrigé le problème et demandé une réexamination de son site que Google a levé la sanction.

Pourquoi cela peut nuire à votre réputation en ligne ?

Sanctions publiques : Si un site de grande envergure est sanctionné, comme dans le cas de BMW.de, cela peut devenir une nouvelle largement diffusée, nuisant ainsi à la réputation de la marque.

Perte de confiance : Les utilisateurs qui découvrent que vous utilisez des techniques trompeuses peuvent perdre confiance dans votre marque ou votre contenu.

Impact sur le trafic : Une suppression de l'index d'un moteur de recherche ou une baisse significative du classement peut entraîner une baisse drastique du trafic, ce qui peut avoir des conséquences économiques pour les entreprises.

Signes révélateurs du cloaking

Différences de contenu : Si, lors de la navigation sur un site, vous remarquez un contenu différent selon que vous utilisez un navigateur standard ou des outils simulant un robot, cela peut être un signe de cloaking.

Changements fréquents de contenu : Si le contenu d'une page semble changer fréquemment sans raison apparente, surtout si ces changements semblent optimisés pour des mots-clés spécifiques, cela peut être un indicateur.

Différences dans le code source : Une analyse du code source de la page peut révéler des segments de texte ou des liens cachés qui ne sont pas visibles pour l'utilisateur, mais qui le sont pour les moteurs de recherche.

Présence de scripts suspects : Si le code source contient des scripts qui semblent détecter le type d'utilisateur (par exemple, un robot par rapport à un humain) ou l'adresse IP, cela peut être un signe de cloaking.