Les moteurs de recherche rivalisent actuellement d'ingéniosité pour sortir des logiciels, outils et sites web originaux, pétris d'innovations et de nouveautés. C'est une bonne chose car cela induit une "spirale de l'excellence" générée par une irrépressible envie de faire mieux et d'être plus inventif que son concurrent...

Mais cette spirale a également un côté négatif, qui n'est pas nouveau hélas, notamment sur l'Internet : chaque nouveau projet est créé par les moteurs "dans leur coin", le plus souvent sans soucis de mettre en place des standards, des normes auxquels pourraient se rattacher les autres acteurs du marché.

Chacun travaille dans ses laboratoires et lance des outils "perso", basés sur des technologies "boîte noire" le plus souvent totalement opaques... On voit ainsi Google, Yahoo!, Microsoft et Ask proposer chacun leur outil de cartographie basé sur des images satellites, développé selon des procédures, des voies de réflexion et des formats de données différents. Que se passera-t-il lorsque, par exemple sur des systèmes de navigation embarqués à bord de véhicules, un besoin de normalisation des données échangées se fera sentir ?

On pourrait avoir la même réflexion sur des projets comme les moteurs "locaux" (de type Google Local ou Yahoo! Local) , tous les systèmes actuels de folksonomie, de "Desktop Search", de recherche dans les fils d'actualité, ou des outils comme Yahoo! Q, Mindset, Instant Search ou Google SiteMaps, les différentes barres d'outils de chaque acteur et bien d'autres... On redoute un système similaire à Google Sitemaps proposé par Yahoo! et Msn, chacun demandant une structure de fichier XML différente. D'où, pour le webmaster, trois fois plus de travail à faire pour mieux référencer son site...

Mais les choses bougent également parfois... On pourra par exemple noter l'initiative de Google dans le cadre, justement, de son système SiteMaps sous la forme d'une licence Creative commons...

Mais n'y aurait-il pas moyen d'aller plus loin, d'être plus ambitieux à ce sujet ? Pourquoi ne pas imaginer une sorte de consortium auquel participeraient tous les acteurs de la recherche d'information sur le Web et qui dicterait un certain nombre de "guidelines" et de standards du domaine, un peu à l'exemple de ce que propose le W3C sur le Web ?

Bien sûr, il est évident que le but à atteindre ne serait pas que chacun fasse la même chose que l'autre, et surtout y perde de son inventivité et de son potentiel d'innovation, mais plutôt que chacun travaille sur les mêmes fondations, garantissant une plus forte pérennité des projets qui seraient développés sur des bases solides, saines et partagées par tous... Le travail à engager est immense, à l'aube d'une époque qui pourrait bien voir encore plus de concurrence entre les acteurs... Ne serait-ce pas autant de temps et d'argent gagné à moyen terme ?

Est-ce utopique de penser que la création d'un tel consortium soit possible ? Après tout, ce type d'organisation existe dans la plupart des marchés mondiaux actuels, dans l'industrie, l'informatique, les télécommunications, etc. Pourquoi pas dans le "search" ? L'avenir dirait, en tout cas, si ce type de projet est une vue de l'esprit ou une forte nécessité... Comme dit un proverbe alsacien, "Qui sème la discorde, travaille pour la grange du diable". 🙂