En novembre 2005, les sites web de plusieurs sociétés de référencement françaises, ainsi que ceux de certains de leurs clients, avaient été mis en "liste noire" par Google, provoquant un raz de marée important, circonscrit cependant au microcosme du référencement hexagonal.

Puis, début 2006, c'était le site allemand de BMW qui était blacklisté pendant quelques heures, générant un "buzz" énorme, cette fois auprès des entreprises européennes et notamment françaises.

Aujourd'hui, c'est au tour de plusieurs sociétés belges comme Heytens ou Nextiraone et bien d'autres qui ont disparu depuis plusieurs jours de l'index de Google. Toutes ces sociétés étaient clientes d'une grosse société de référencement outre-Quiévrain dont le site a également disparu du moteur... Bref, ça dégage pas mal en Belgique en ce moment, comme Google l'avait annoncé d'ailleurs, 2006 devant être l'année du "nettoyage" de l'index européen dans les langues autres que l'anglais... On en a aujourd'hui la preuve. On en parle d'ailleurs assez peu en France, mais le nombre de sites web mis en liste noire par Google dans l'Hexagone depuis le début de l'année, pour des périodes plus ou moins longues, est considérable...

Une chose me gène pourtant. Je fais de nombreuses formations au référencement naturel et à l'optimisation de sites web pour les moteurs et, à cette occasion, je rencontre de très nombreux responsables et décideurs d'entreprise. Et j'ai pu m'apercevoir depuis de nombreuses années à quel point la méconnaissance du domaine du référencement est considérable en France. Il ne s'agit pas ici de savoir pourquoi cette méconnaissance est si forte, mais plutôt de s'apercevoir que l'entreprise, jusqu'à maintenant, achètait le plus souvent à la société de référencement une "boîte noire" ayant pour objectif de générer du trafic sur son site. Le contenu de cette "boîte" étant le plus souvent totalement inconnu du client final qui, il faut bien le dire également, ne s'en souciait parfois que très peu...

Les temps ont changé et les clients vont certainement y regarder à deux fois avant de signer un contrat de référencement avec un prestataire. Ceci dit, la méconnaissance du domaine reste énorme. Qu'est-ce qui est interdit ? Qu'est-ce qui est autorisé ? Quelles techniques sont-elles pénalisées par les moteurs ? Des entreprises "de bonne foi" peuvent encore se faire "abuser" par des sociétés de référencement allant trop loin et vendant encore de la page satellite à tire-larigot... Car s'il existe des sociétés de référencement très sérieuses sur le marché, faisant un travail remarquable, d'autres sont, disons, un peu moins fiables. On m'a dernièrement rapporté le cas d'une société "experte" qui basait ses méthodes de référencement uniquement sur les balises meta "Keywords". Authentique... Difficile de crédibiliser un marché avec ce type d'abus...

Dans ce cadre, pourquoi les moteurs de recherche ne mettraient-ils pas en place une "liste grise", contenant des sites "fautifs", expliquant, par exemple en les classant par grandes familles ("contenu caché", "mots clés sans rapport avec le contenu du site", "utilisation de technologies de cloaking", etc.) les raisons de leur "disgrâce". Ces sites pourraient encore apparaître dans les résultats de recherche pendant, disons, trois mois, mais leur présence dans la "liste grise" signifierait une mise en liste noire automatique à la fin du délai indiqué si aucune action n'était faite. Cette "liste grise" pourrait, d'ailleurs, être commune aux moteurs de recherche majeurs qui collaborent déjà, rappelons-le, sur plusieurs autres projets (aucun de ceux-ci ne touchant cependant au spamdexing)...

Bien sûr, il subsiste dans cette idée une sorte de "mise au pilori" un peu malsaine, j'en conviens. Peut-être y aurait-il possibilité de "cacher", d'une façon ou d'une autre, l'intitulé du site incriminé dans cette liste grise "publique"... Mais celle-ci aurait une fonction "éducative" et positive qui pourrait être significative. D'autre part, le client final pourrait être prévenu à temps du problème et aurait ainsi la possibilité de réagir sans que cela ne lui nuise. Google avait lancé une initiative dans ce sens il y a quelques mois, prévenant les webmasters d'une possible future désindexation. Il semblerait qu'elle ait fait long feu. Dommage...

Pour résumer ce long post, deux voies de réflexion me semblent intéressantes dans le domaine de la lutte contre le spamdexing aujourd'hui :
- La mise en commun des listes de sites fautifs par les moteurs majeurs.
- La mise en place de "listes intermédiaires" ou plus simplement de systèmes d'alertes permettant, dans certains cas, aux éditeurs de sites web de réagir avant une procédure de blacklist automatique...

Les moteurs se lanceront-ils dans cette voie ? C'ets ce que l'avenir nous dira... Mais il me semble que tout le monde aurait à y gagner...

PS : l'image qui illustre ce post est issu du site de Molly Hatchet, excellent groupe américain, pour ceux qui sont fans de Lynyrd Skynyrd, 38 Special et de toute la famille VanZant en général... 🙂