Les semaines et jours qui viennent de s'écouler ont amené plusieurs annonces concernant l'offre "Sitemaps", standard de plans de sites au format XML, facilitant l'indexation des sites web par les moteurs de recherche :
- C'est tout d'abord Google qui a lancé l'idée et proposé ensuite l'outil en français.
- Yahoo! l'a suivi en proposant ce standard sur son site de shopping.
- Microsoft a rejoint le groupe en travaillant officiellement avec Google et Yahoo! au développement du standard "Sitemaps" au sein d'un consortium.
- Entre temps, Google l'avait proposé pour son moteur de recherche sur les mobiles.
- Et il a remis ça cette semaine pour son site Google News.

Le système semble donc bel et bien lancé. Le fait que les trois pus grands moteurs de recherche de la planète se rattachent à ce protocole en fait un gage de succès. Les webmasters du monde entier vont donc devoir plancher sur ce standard pour voir leur site mieux pris en compte par les moteurs (rappelons que le système "Sitemaps" n'amène qu'une meilleure indexation quantitative d'un site web et ne joue pas sur le "ranking" des pages).

On peut d'ailleurs penser que ce standard va rapidement évoluer et que d'autres types de moteurs ou méta-moteurs (comparateurs de prix, moteurs audio, vidéo, blogs, etc.) vont s'en servir. Et pourquoi pas les moteurs intra-sites aussi, d'ailleurs ? Les applications possibles dans le futur pour ce protocole semblent d'ailleurs innombrables...

Autre évolution possible : le nombre de champs dans la structure XML qui décrit les pages. Actuellement, on trouve pour chaque page :
- L'url.
- La priorité d'indexation (entre 0 et 1).
- La date de dernière modification du document.
- La fréquence de mise à jour (depuis "hourly" jusqu'à "monthly") de la page.
Mais on pourrait tout à fait imaginer que l'on puisse rajouter des champs comme l'auteur, la date de création, la langue, voire des mots clés, une description, etc. En fait, on pourrait voir au travers de ce protocole une certaine évolution des antiques balises "meta"... Pourquoi pas ?

Actuellement il existe plusieurs solutions pour créer ces fichiers "Sitemaps" : soit manuellement (pour les petits sites) soit en passant par des scripts, des sites web ou des logiciels (il en existe de très nombreux, de qualité parfois inégale). Mais l'avenir passe également par des systèmes intégrés à des CMS (Content Management Systems) ou au serveur Apache, bref un outil intégré dans la structure même de votre serveur web et qui crééra le fichier "sitemaps" de façon transparente, au fur et à mesure de la création ou modification de vos fichiers sur le site... Gageons que des solutions complètes pour fournir aux moteurs des fichiers "Sitemaps" le plus à jour possible verront le jour prochainement. Là encore, les possibilités de développement sont enthousiasmantes !

Des outils statistiques devraient également se développer pour vérifier le nombre de fois où ce fichier est lu par les robots de Google et consorts et mettre en adéquation l'indexation de nouvelles pages, par exemple, dans l'index des outils de recherche.

Il semble évident, en tout cas, que le protocole "Sitemaps" va vite devenir un incontournable du référencement, et c'est une bonne chose car cela devrait permettre non seulement d'obtenir une indexation de site de meilleure qualité mais aussi, comme c'est déjà le cas aujourd'hui, d'avoir accès à bon nombre d'informations de la part du moteur sur la façon dont il référence nos pages. Et ça, c'est peut-être la meilleure nouvelle qu'apporte ce nouveau protocole !