> > 10 raisons qui rendent les Sitemaps XML vraiment inutiles !

10 raisons qui rendent les Sitemaps XML vraiment inutiles !


10 raisons qui rendent les Sitemaps XML vraiment inutiles !
5 (100%) 9 votes

10 raisons qui rendent les Sitemaps XML vraiment inutiles !

Cela fait 10 ans que les Sitemaps XML existent. Une bonne occasion pour faire un point sur ce sujet. La semaine dernière, nous avons listé 10 raisons qui les rendent réellement indispensables. Aujourd'hui, nous regardons celles qui font que ces fichiers sont totalement inutiles. Et nous concluons : les Sitemaps ont-ils un intérêt ou pas ?...

Rappelons que la plupart des moteurs de recherche majeurs se sont entendus, en 2005, sur un format XML nommé Sitemaps, proposant une liste d'URL agrémentée de certaines informations (date de dernière modification, fréquence de mise à jour, priorité d'indexation, etc.)

10 ans après l'apparition de cette fonctionnalité, il nous a semblé intéressant de faire un point à ce sujet : les Sitemaps XML sont-ils indispensables ou inutiles ? La semaine dernière, nous avons essayé de lister les aspects positifs des Sitemaps. Voici donc un avis contraire de l'autre côté de la balance, avec 10 arguments qui rendent ces fichiers XML inutiles. Ou presque...

Pourquoi les Sitemaps XML sont inutiles

1. Tout d'abord, il est clair et net que les Sitemaps XML ne servent absolument pas à obtenir un meilleur classement dans les résultats de Google. Ils n'ont tout simplement pas été conçus pour ça. Leur but est éventuellement d'obtenir une meilleure indexation des pages d'un site, mais ils n'ont aucun impact sur le positionnement.

2. La création d'un fichier Sitemap XML n'est en rien une garantie d'indexation pour les URL qui y sont soumises. Vous proposez, Google dispose !

3. Ces fichiers contiennent, pour chaque page, une URL (champ <loc>) qui est obligatoire, et plusieurs champs facultatifs : fréquence de mise à jour (<changefreq>), date de dernière mise à jour (<lastmod>) et priorité d'indexation (<priority>) entre autres. Sincèrement, on peut clairement se poser la question de l'utilité de ces champs facultatifs puisqu'en règle générale, ils ne reflètent pas la réalité (comment établir une fréquence de mise à jour fiable pour une page donnée, à part quelques cas particuliers ?) ou ce sont des données que Google possède déjà par ailleurs (date de dernière modification). Quant à la priorité d'indexation, honnêtement, Google l'a-t-il un jour prise en compte et si oui, pourquoi ?? Bref, à part l'URL, les autres champs sont, à notre avis et avec un certain recul, inutiles. Un fichier Sitemap au format texte (.txt), listant les différentes URL du site, est à nos yeux largement suffisant...

4. On entend souvent dire que le Sitemap sert à indexer des pages "orphelines", qui ne se trouvent pas dans l'arborescence du site. Peut-être. Eventuellement. Pourquoi Pas ? Mais si votre site a ainsi des pages orphelines, c'est peut-être qu'il a quelques carences au niveau de sa conception, vous ne croyez pas ? Le but et l'objectif d'un fichier XML n'est pas de corriger les erreurs de conception d'un site web. Dans ce cas, il vaut bien mieux avant tout corriger la navigation pour inclure ces pages isolées dans la navigation naturelle plutôt que de compter sur la « rustine Sitemap » pour corriger le tir.

5. Idem pour les pages profondes, atteignables à partir de 4 à 5 clics depuis la page d'accueil. Si elles sont trop profondes dans l'arborescence, il est loin d'être sûr qu'un fichier Sitemap améliorera la situation en termes de crawl. Encore une fois, ces fichiers ne sont pas là pour corriger vos erreurs de conception...

6. Pour les « petits » sites (moins de 10 000 URL indexées), un Sitemap ne sert sincèrement pas à grand chose, par expérience. Google privilégiera de toutes façons toujours la navigation naturelle en suivant les liens de l'arborescence pour crawler un site. Un plan du site pour les internautes (des pages HTML donc, conçues également pour vos visiteurs, comme ceci) bien réalisé mettra toutes les pages importantes à 3 clics maximum de la page d'accueil, permettra un crawl optimisé par les moteurs et sera bien plus efficace que tous les Sitemaps XML de la Terre !

7. Les Sitemaps XML contiennent souvent des erreurs, dûes à de nombreuses raisons, souvent techniques. C'est donc un peu dommage de fournir ainsi des URL erronées à crawler à Googlebot...

8. Dans sa Search Console, Google ne donne pas le détail des pages crawlées et (non) indexées, ce qui est réellement dommage. Dans la zone "Exploration > Sitemaps", on aimerait connaître la liste des URL du Sitemap qui ne sont pas indexées pour en comprendre la raison et corriger les problèmes éventuels. Mais elle n'est pas disponible. Du coup, c'est un des intérêts principaux des Sitemaps qui devient caduc.

9. Les Sitemaps « basiques » sont souvent gérés par défaut et sans problème par les CMS du marché. Il n'en est pas toujours de même pour ceux dédiés à Google News, au mobile, aux images, aux vidéos, etc. Cela génère donc des développements (certes pas monumentaux) qui peuvent s'avérer assez coûteux en temps/homme. Est-ce vraiment rentable ?

10. Argument souvent entendu également : un Sitemap sert à faire le travail du moteur de recherche à sa place. Normalement, les robots des moteurs doivent être capables de crawler un site sans qu'on leur fournisse un fichier pour les y aider. C'est pas faux... 🙂

Conclusion : alors, les Sitemaps XML, utile ou pas utile ?

Nous avons donc listé dans ces deux articles les différents arguments « Pour » ou « Contre » les Sitemaps. Nous pouvons alors en tirer quelques conclusions (toutes personnelles) :
- Les Sitemaps existent (et ont le mérite d'exister), il est donc dommage de ne pas les utiliser.
- Ils sont surtout intéressants pour les gros sites (plus de 10 000 URL). Pour les sites plus petits, un plan du site pour les internautes bien réalisé et optimisé suffira la plupart du temps.
- Ils sont également intéressants pour les formats comme les images, les vidéos, le mobile, les sites internationaux, etc.
- Un Sitemap n'est réellement intéressant que s'il est utilisé intelligemment, avec toutes les fonctionnalités avancées qu'il peut apporter.
- Les champs facultatifs (fréquence de mise à jour, date de dernière modification, priorité) n'ont qu'un intérêt très (très) limité. Autant les supprimer plutôt que de fournir des informations erronées ou inutiles.
- Le fait de pouvoir suivre l'indexation des URL soumises dans la Search Console est un réel avantage s'il est bien utilisé. Mais il est dommage que le détail des URL non indexées ne soit pas disponible.
- Les Sitemaps ne sont pas conçus pour corriger les carences de conception d'un site web.

Voilà, sur cette base, à vous maintenant de vous faire votre opinion. Merci pour votre lecture et à Vos Sitemaps. Ou pas... 🙂

Sitemaps

Source de l'image : DR

Commentaires : 9
  1. Mathieu Chartier 28 octobre 2015 at 11 h 02 min

    Sur les petits sites, il y a une astuce pour suivre les pages web crawlées et indexées via la Google Search Console. Il suffit de faire un sitemap index avec de petits sitemaps XML pour chaque URL (ou pour des mini groupes d'URL associées). Ainsi, comme Google fait le détail des pages indexées par URL, cela permet de savoir si telle ou telle URL est indexée. 😀

  2. Robert 28 octobre 2015 at 11 h 56 min

    L'histoire ne nous donne pas ton avis, mais je l'ai trouvé !

    http://www.abondance.com/sitemap.xml

    🙂

  3. Olivier Andrieu 28 octobre 2015 at 11 h 58 min

    @ Robert : oulalala le vieux truc... Un test (2010/2011) 🙂

  4. Denis 29 octobre 2015 at 14 h 55 min

    Si nous nous accordons sur le fait que le sitemap - ou un fil RSS ou un fichier du type urllist.txt - permet d'accélérer l'indexation, à l'occasion de la sortie de contenus d'actualités, une plus grande vitesse à indexer le contenu (à facteurs SEO constants) permettra d'arriver plus vite dans les 1ères pages des SERP, d'être plus visibles que les autres et de bénéficier de backlinks supplémentaires. La prime à la fraîcheur. En cela, le sitemap est un facteur SEO positif !

    NB J'ai même trouvé un robots.txt ;+). http://www.abondance.com/robots.txt

  5. Olivier Andrieu 29 octobre 2015 at 14 h 58 min

    @ Denis : je n'ai jamais constaté qu'un Sitemap permettait d'accélerer une indexation. Et, tout à fait sincèrement, si on a besoin d'accélerer une indexation, c'est que le site a un problème. Parce qu'avec Google, en général, on cherche plus à désindexer qu'à indexer. C'est une machine à crawler... Et si on fait bien les choses, une nouvelle page est indexée en quelques minutes. Avec ou sans Sitemap...

  6. Denis 29 octobre 2015 at 15 h 13 min

    J'ai parlé de sitemap de manière générique, incluant les fils RSS qu'on peut déclarer dans les Google Webmaster Tools, au passage. Sans fil RSS présent sur le site, je pense que Google se sert beaucoup du sitemap.xml. C'est là le leurre qui pourrait amener à croire qu'il ne sert à rien.

    Voir mon étude statistique à ce sujet : http://www.dsfc.net/internet/referencement-internet/sitemap-facteur-positif-seo/

  7. Franck Faisant 29 octobre 2015 at 15 h 15 min

    Bonjour,

    Effectivement si un site est bien conçu, concernant sa structure, il n'y a pas besoin de sitemap. D'un autre côté, si pour cette raison on décide de ne pas faire de sitemap, c'est qu'on a la prétention d'avoir un site bien conçu 😉 mais en est-on si sûr ?

    Google indexe + de 3.000.000 pages sur mon site, et j'avais supprimé mon sitemap parce que c'est très compliqué de reproduire une arborescence. Des erreurs peuvent parasiter la comparaison entre la structure sitemap et la structure des pages. Parfaitement inutile donc.

    Par contre, il y a une réelle utilité à construire un sitemap uniquement basé sur la chronologie des rafraîchissements. C'est à dire des sitemaps saucissonnés par heure, ou par jour selon la taille du site.

    Ma base de données rafraîchit environ 3.000 pages chaque heure, et l'index de sitemaps aligne seulement des paquets d'url selon l'heure à laquelle elles ont été rafraîchies.

    Le moteur sait donc immédiatement les sitemaps les plus récents, et pioche dans ce qui l'intéresse.

    Je viens de regarder, seuls les plus récents sont lus. Le moteur s'évite donc de charger au hasard, et de consommer de la bande passante pour des pages qui n'ont pas changé depuis la dernière visite.

    La base par défaut rafraîchit les url les plus datées, et leur place dans un sitemap ancien va changer pour un sitemap récent. Si je développe toute une branche de l'arborescence, plusieurs milliers d'url vont donc se retrouver en haut de la pile.

    Cette fois j'ai trouvé une utilité au sitemap. Et peut-être le moteur lui aussi.

  8. Olivier Andrieu 29 octobre 2015 at 15 h 20 min

    @ Franck faisant : bien vu, effectivement !

  9. Abdellah EL GAMRANI 14 novembre 2015 at 0 h 10 min

    Moi je suis d'avis que le plan de site bien conçue est largement suffisant.

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site