Google va officiellement abandonner l'ancien processus de crawl d'Ajax

L'annonce avait été faite en 2015, elle vient d'être confirmée officiellement : à partir de l'année prochaine, l'ancien système de crawl des sites en Ajax par Googlebot, à base d'escaped_fragment, sera abandonnée et les éditeurs de sites web en Ajax n'auront pas d'actions spécifiques à mettre ne place pour voir leur pages explorées par le moteur de recherche.

La nouvelle ne surprendra personne puisqu'elle avait été annoncée en octobre 2015 mais elle vient d'être confirmée avec une date : à partir du deuxième trimestre 2018, l'ancien processus de crawl des pages réalisées en Ajax va être totalement abandonné. En clair, Google assurera l'affichage de ces pages et il ne sera plus demandé aux sites de s'en charger eux-mêmes.

Cela met donc officiellement fin à la proposition d'ajout de « _escaped_fragment_ » aux URL, faite en 2009, car la compréhension du Javascript et des CSS par les algorithmes du moteur lui permet aujourd'hui de crawler plus naturellement les sites réalisés en Ajax. Il n'est donc plus besoin de passer par des "artifices" pour lui faire comprendre comment le site est structuré.

Le post à ce sujet sur le blog pour webmasters de Google donne quelques indications et conseils pour les éditeurs de sites réalisés en Ajax, afin de vérifier si le crawl s'effectuera bien dans leurs pages à l'avenir.

ajax-web-logo
Affichage de pages web en Ajax (Asynchronous Javascript And XML)... Source de l'image : DR