Le but de ce blog est de poser un certain nombre de questions sur les moteurs de recherche et le référencement et de susciter le débat sur ces interrogations*. Dans ce cadre, je parlais dans l'un de mes précédents posts du fait que les éditeurs et web-agency ne prenaient pas en compte les contraintes des moteurs de recherche dans leur processus de création de site. Un lecteur faisait remarquer avec raison, dans son commentaire, que l'inverse pouvait également être vrai : pourquoi les moteurs ne s'adaptent-ils pas à la réalité de la création de sites en indexant le format Flash, en suivant les liens JavaScript, etc.

Cela m'a fait penser qu'effectivement, les moteurs de recherche, depuis leur création, accusent un retard d'environ deux ans entre la façon dont ils indexent les sites et la manière dont ces derniers sont créés. Il y a quelques années de cela, la "norme" était de créer des sites web avec des "frames" (ou cadres). Et certains moteurs, comme Excite, refusaient purement et simplement ce type de site. Les autres les indexaient mal. Puis est venu l'époque des sites dynamiques, dont les urls "exotiques" affichaient moult point d'interrogation, esperluettes et autres caractères synonymes de passage de paramètres qui rendaient l'indexation difficile voire impossible.

Aujourd'hui, les sites avec frames ne posent plus vraiment de problèmes à partir du moment où le nécessaire a été fait pour leur référencement. La problématique des sites dynamiques est en voie d'être résolue car les urls "exotiques" sont mieux comprises. D'autre part, les système de réécriture d'url permettent également d'obtenir une situation plus "propre"... Mais depuis plusieurs années, le format Flash et la langage JavaScript sont devenus des standards de fait dans la création de site. Et ils posent toujours des problèmes aux moteurs. Est-ce réellement normal ?

Pourtant, Macromedia, inventeur du Flash, propose un SDK (Software Development Kit) pour les moteurs de recherche, permettant à ces derniers d'indexer les contenu des animations créées. Rien n'empêche vraiment les Google et consorts de s'en servir pour mieux indexer ce format. D'autre part, le fait que des robots sachent suivre des liens écrits en JavaScript ne doit pas non plus être insurmontable lorsqu'on résoud au quotidien des problèmes bien plus importants de volume de données, d'algorithme de pertinence pointu ou autres problématiques réseau...

Alors, qu'est-ce qui fait que les moteurs ont le plus souvent ces deux ans de retard sur les standards de fait de la création de site web ? Difficile de le dire... Mais Google, dont l'un des credos est de "rendre accessibles et utiles les informations du réseau mondial à tous les internautes" ne faillit-il pas à sa mission en "comprenant" mal ces "nouveaux" - le terme n'est que relatif - formats ? Il en est d'ailleurs de même des autres moteurs... Avant de chercher à indexer les vidéos, les blogs, la musique, et tous les autres formats de cette planète, ne faudrait-il pas s'attacher à une plus grande exhaustivité de l'indexation web ? Ou les moteurs désirent-ils avant tout dicter leurs propres "lois" de création de site ? Il est certain que si les web-agencies ne tiennent pas compte des contraintes actuelles des moteurs et que ces derniers ne font pas de gros efforts pour indexer les formats en cours, la situation a peu de chance d'évoluer rapidement. C'est certainement aux deux parties de faire un effort conjoint...

A l'heure où on nous parle à tout va du Web 2.0, jusqu'à quand les moteurs en resteront-ils à sa version 1.0 ? L'avenir le dira certainement...

* J'en profite d'ailleurs pour remercier les lecteurs de ce blog pour leurs commentaires, le plus souvent - et à de rares exceptions près - très constructifs, argumentés et intéressants...