Google veut-il tuer le référencement naturel et ses acteurs économiques ? Cette question, je me la suis effectivement posée lorsque Matt Cutts a encensé le SEO, il y a quelques semaines de cela. Pourquoi cette communication, qui a surpris beaucoup de monde ? Sachant que, chez Google, rien n'est jamais fait par hasard, je me suis réellement demandé quelle était la cause de cette soudaine déclaration d'amour pour une profession que, jusqu'à présent, Google ne regardait que de loin, d'un oeil parfois même réprobateur (souvenons-nous des pages d'aide et des conseils du moteur aux webmasters, à une certaine époque).

N'y avait-il pas, dans cette vidéo, un message à double langage ? Cette vidéo cachait-elle quelque chose ? Difficile à dire, bien sûr... Mais, au cours de cette réflexion, une idée m'est venue, que je voulais vous exposer ici...

Avant de continuer, revenons aux fondamentaux du référencement naturel (au temps des dinosaures, quand tout cela ne s'appelait pas encore SEO... 🙂 ) et de la manière dont, historiquement, nous avons mesuré notre travail et les tâches réalisées sur un site web pour le rendre plus visible.

La notion de positionnement, en perte de vitesse

Mon statut de "grand ancien", voire de "papy" 🙂 du domaine me fait me souvenir, que, depuis bien longtemps, la première mesure du SEO a été le positionnement : voir une page de son site web bien classée sur les moteurs de recherche pour les requêtes visées a longtemps été notre cible principale, notre Graal quotidien !

Or aujourd'hui, qu'en est-il ? Tous les moteurs majeurs ont mis en place des concepts de contextualisation de la requête (géolocalisation grâce à l'adresse IP de l'internaute, préférences linguistiques grâce aux infos renvoyées par le navigateur, saisonnalité, etc.) et de personnalisation (historique des recherches, sites précédemment consultés, préférences du cercle social de l'internaute, etc.). Si vous ajoutez à cela que, selon le datacenter interrogé, la pages de résultats (SERP) peut changer, on s'aperçoit vite que, dès aujourd'hui, aucun internaute n'a la même SERP à moteur et requêtes égaux... Et que cela ne fait que commencer....

On le sait, on le sent, la notion de positionnement vit donc ses derniers jours comme critère UNIQUE de mesure de la qualité d'un référencement. Elle restera sans doute une notion complémentaire, intéressante et "neutre", mais de moins en moins fiable au fil du temps. Il apparaît en tout cas clairement utopique, dès aujourd'hui, de se baser UNIQUEMENT sur le positionnement pour mesurer son référencement.

La prise en compte de l'historisation en deux étapes

Il est d'ailleurs intéressant de voir comment Google a mis en place son système de stockage de l'historique des internautes dans le cadre de son projet de personnalisation : tout d'abord, il n'a été mis en oeuvre que pour les personnes loguées sur leur compte, puis, plusieurs mois après, Google a installé un cookie sur la machine des non-logués pour prendre en compte 100% - ou presque - des internautes... Parmi les "non-personnalisés" aujourd'hui, il ne reste plus que ceux qui ne sont pas logués ou qui n'ont pas de compte Google et qui refusent systématiquement les cookies. En clair, une marge infime des internautes actuels....

Donc, comme le positionnement perdait petit à petit de son intérêt, on s'est tourné de façon logique vers l'analyse du trafic généré par les moteurs sur un site : avec quels mots clés (dits "referers") les internautes nous ont-ils trouvé ? Avec lesquels ne nous ont-ils pas trouvé ? Le trafic généré transforme-t-il bien ? Après tout, peu importe le positionnement, l'important n'est-il pas d'obtenir un trafic de qualité sur son site, générant donc un taux de transformation efficace ? Bien sûr, tout cela vient d'un positionnement au départ, mais il semble plus logique, et surtout bien plus efficace, de mesurer les effets plutôt que la cause...

CQFD donc, nous mesurerons à l'avenir la qualité du trafic généré par Google, Bing et consorts grâce à une analyse fine et pointue des outils de mesure d'audience sur notre site.

L'avénement du trafic "not provided"

Or, qu'apprenons-nous il y a quelques semaines de cela ? Google chiffre maintenant son moteur et ses SERP aux Etats-Unis et ne transmet donc plus les mots clés referers ni aucune information pour les internautes logués sur leur compte. La mesure devrait, logiquement, arriver en France sous peu (même si, pour le moment, aucune annonce de ce type n'a été faite par Google, mais le moteur annonce habituellement plus sur ce qui a déjà été fait que sur ce qui va se faire...).

Résultat : plus de 10% (et parfois bien plus pour certains sites) du trafic est devenu "not provided" aux Etats-Unis, c'est-à-dire non fourni par le moteur, rendant invisible les mots clés "referers" et rendant complexe, voire faussée, l'analyse du trafic. Sur de nombreux sites français, cet effet se fait déjà sentir...

Bon, me direz-vous, il reste encore 80 à 90% du trafic pour effectuer des mesures fiables. Certes, mais qu'adviendra-t-il si Google, à l'instar de ce qu'il a fait pour l'historisation des recherches (voir ci-dessus), se met à chiffrer TOUTES ses SERP, pour TOUS les internautes ? Catastrophe !! Plus aucun mot clé referer à se mettre sous la souris !!! Plus de possibilité de mesurer le trafic "organique" généré, sauf pour les liens sponsorisés Adwords (au travers des outils dédiés fournis par Google), qui seront ainsi mis en avant. Mais sans doute est-ce une coïncidence... Ou alors, peut-être faudra-t-il utiliser une version "premium" et payante de Google Analytics pour avoir accès à ces si précieuses infos ?

Un point à surveiller de près en 2012...

Alors, bien sûr, il ne faut pas paniquer, et Google n'a certainement pas chiffré ses SERP dans l'unique but de tuer une nouvelle façon de mesurer la qualité d'un travail de SEO et, ainsi, mettre en avant ses solutions publicitaires. Ne faisons donc pas d'anti-Googlisme primaire et respirons un brin... Google n'a peut-être aucune envie de "killer" une profession au sein de laquelle il existe de vrais professionnels, travaillant de façon honnête et loyale pour faire en sorte que les sites soient mieux construits, ce dont Google tire tous les avantages...

Ceci dit, il semble important de tout faire pour que Google revienne en arrière dans sa politique de chiffrement des SERP, car il prive tout le monde - ou presque - de données importantes et parfois capitales pour une stratégie globale d'e-marketing.

Bien sûr, des pétitions existent, mais je doute de leur impact... La solution viendra peut-être des gros annonceurs Adwords, qui devraient faire pression auprès du moteur pour qu'il revienne en arrière. Car, sans ses gros clients publicitaires, Google est fragilisé...

Enfin, nous verrons bien ce qu'il en est en 2012 (qui, de toutes façons, devrait nous réserver bien des surprises si on en croit les Mayas 🙂 ), en espérant que tout cela ne sera que divagations de fin d'année, causées par une trop forte dose de vin d'Alsace (et notament de Klevener, bien sûr !) sur les 12 derniers mois... 🙂

Bref, restons vigilants quand même... Et continuons à décrypter les vidéos de Matt Cutts 🙂

PS : d'ici là, Joyeux Noël à tous (moi, j'ai commandé l'album d'Astérix : "La SERP d'or" :)) )!!!!