> > Google modifie son système d'indexation des sites en Ajax

Google modifie son système d'indexation des sites en Ajax


Google modifie son système d'indexation des sites en Ajax
4.33 (86.67%) 6 votes

Google modifie son système d'indexation des sites en Ajax

Google vient d'indiquer qu'il abandonnait la méthode qu'il avait proposé en 2009 pour indexer les sites en Ajax. En fait, il n'en a tout simplement plus besoin, sa compréhension du Javascript et des CSS étant aujourd'hui suffisante pour indexer les sites ainsi conçus...

C'était annoncé depuis le mois de mars dernier, c'est désormais officiel : Google a modifié ses conseils, proposés en ligne, concernant l'indexation des sites en Ajax.

Il met donc fin à sa proposition d'ajout de « _escaped_fragment_ » aux URL, faite en 2009, car sa compréhension du Javascript et des CSS lui permet aujourd'hui de crawler plus naturellement les sites réalisés en Ajax. Il n'est donc plus besoin de passer par des "artifices" pour lui faire comprendre comment le site est structuré.

La bonne nouvelle est donc que cela ne changera rien à l'indexation des sites en Ajax, qui devrait bien (mieux ?) se passer à l'avenir. N'oubliez pas quand même que plus un site sera techniquement simple, meilleures seront ses chances d'être parfaitement analysé par les robots de moteurs...

ajax

Source de l'image : DR

Commentaires : 7
  1. Toto 15 octobre 2015 at 14 h 00 min

    Par contre comment vont etre pris en compte les filtres de tris gérés en ajax pour du facetting sur des sites e-commerce ? La communication de Google ne parle pas vraiment de ça ...

  2. Olivier Andrieu 15 octobre 2015 at 14 h 02 min

    @ Toto : il n'y a pas de raisons qu'ils ne soient pas pris en compte en fait. Il faut donc les inhiber via d'autres façons (meta robots, x-tobots-tag notamment).

  3. Jeremy 15 octobre 2015 at 16 h 30 min

    Je pense qu'ils vont pouvoir proprement interpréter quand on passe un paramètre dans l'URL, mais je suis pas sûr qu'il prenne réellement en charge le changement de contenu sans changement d'URL. A surveiller.

  4. Arnaud 16 octobre 2015 at 9 h 21 min

    @Toto c'est l'enfer pour le crawl des sites eCommerce volumineux possédant des modules Ajax. Le robot crawle tout ce qu'il trouve et les instructions inhibantes sont hélas, comme souvent avec Google, purement indicatives. Plus difficile de bloquer Googlebot que de l'autoriser au crawl.

  5. Fabien Branchut 21 octobre 2015 at 9 h 28 min

    @arnaud : il ne s'agit pas de bloquer le bot mais de rendre les pages peu qualitative en noindex (comme par exemple les millions de pages de recherche que peut générer une navigation à facette d'un site e-commerce, même modeste).

    • Arnaud 21 octobre 2015 at 13 h 50 min

      Salut Fabien,

      C'est bien de crawl dont il s'agit. Il est fortement recommandé de bloquer le crawl de Google sur les pages de résultats de recherche (sans objectif SEO) des sites eCommerce. Sans quoi, le robot risque fort de passer son temps a explorer des pages sans intérêt (même en noindex) au lieu des pages stratégiques du site.
      Bye,

      Arnaud.

  6. Fabien Branchut 22 octobre 2015 at 11 h 31 min

    Bonjour @Arnaud,

    Supposons, je vois viens l'intérêt pour les moteurs, mais quel serait l'intérêt pour le webmaster de mettre en place un système de non crawl de pages du site sans objectif SEO ?

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site