> > ACAP : un nouveau standard pour les fichiers robots.txt ?

ACAP : un nouveau standard pour les fichiers robots.txt ?


Notez cet article

L'ACAP (Automated Content Access Protocol) a proposé fin novembre un nouveau standard d'indications sur la façon dont les moteurs de recherche doivent prendre en compte un site web. Une sorte de "robots.txt 2.0" qui n'est cependant pas encore pris en considération par les moteurs de recherche majeurs.

Les spécifications proposées par l'ACAP sont disponibles en ligne et plusieurs outils de conversions de vos fichiers robots.txt ou autres indications pour les moteurs pour les rendre compatibles sont fournies.

Ces spécifications, qui veulenet aller plus loin dans la reconnaissance de vos pages par les moteurs de recherche, ont-elles une chance d'aboutir ? Oui si les moteurs majeurs les reconnaissent dans un premier temps et les webmasters dans un second temps. L'avenir dira si ces travaux seront couronnés de succès et si la "mayonnaise" prend...

Parmi les sociétés participantes au consortium ACAP, on trouve notamment l'Agence France-Presse, Impresa, Independent News & Media Plc, Macmillan, Reed Elsevier, British Library ou Exalead (entre autres).

Source et pour en savoir plus : Search Engine Land

Les commentaires sont fermés.

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site