Yahoo! a lancé hier une nouvelle application permettant de mieux référencer les sites dynamiques. Au mois de mai, il proposait une balise meta intitulé "robots-nocontent" qui permet d'indiquer, en conjonction avec des balises comme "div", "p" ou "span", par exemple, aux robots que le contenu qui suit n'est pas le plus important dans la page et ne doit pas être indexé. Ces initiatives sont louables et indiquent un réel désir d'ouverture vers les webmasters et les référenceurs du côté du moteur de recherche. Mais ne nous demande-t-il pas de faire son travail, quelque part ?

Est-ce réellement aux webmasters d'indiquer au moteur comment indexer ses urls dynamiques ? Est-ce au référenceur de dire au moteur ce qu'il doit indexer ou non dans une page ? Ces initiatives me rappellent les offres de "paid inclusion" ou "trusted feed" qui, contre rémunération, permettent d'obtenir une garantie d'indexation (mais pas de positionnement) et de rafraîchissement de certaines pages d'un site. N'est-ce pas payer le moteur pour qu'il fasse ce qui n'est rien d'autre que son travail, finalement ?

La question n'est pas nouvelle : le moteur doit-il s'adapter aux sites web actuels ? Et dans ce cas, il est évident que le Flash et le Javascript, notamment, devraient être mieux "compris" par les spiders puisque la plupart des sites actuels, tendance "2.0" oblige, sont écrits en Ajax qui fait la part belle au JavaScript... Ou est-ce aux moteurs de "dicter leur loi" et aux éditeurs de sites de suivre ces recommandations, quitte à se brider pour être réactif par rapport aux moteurs ? Certainement un peu des deux, selon les circonstances et, comme souvent sur le Web et ailleurs, tout sera question de consensus et d'arbitrage...

Mais vos commentaires sont les bienvenus sur cette problématique...