> > Infographie : Les 40 erreurs techniques les plus communes en SEO

Infographie : Les 40 erreurs techniques les plus communes en SEO



 
Infographie : Les 40 erreurs techniques les plus communes en SEO
5 (100%) 7 votes

Infographie : Les 40 erreurs techniques les plus communes en SEO

Une infographie qui donne les résultats d'une étude menée par SemRush sur 40 points plus ou moins bien pris en compte par les sites web actuels en termes d'optimisation SEO. Et le moins que l'on puisse dire est que la situation actuelle est plutôt inégale. Tous les sites ne sont pas égaux devant le Dieu Google en termes de conception ;-)...

Notre infographie du vendredi est proposée aujourd'hui par le site SemRush et nous fournit une longue liste des erreurs les plus souvent commises par les concepteurs de sites web en termes de SEO. Pour cela, SemRush a analysé 100 000 sites et 450 millions de pages grâce à son outil d'audit our en ressortir les boulettes les plus fréquentes. Cela donne 40 points (une bonne check-list de vérification si vous gérez un site web) répartis en trois grandes familles : Crawlabilité, SEO technique et SEO on-page. Même si l'infographie manque de détails dans ses explications et suscite de nombreuses questions (qu'est-ce qu'une balise Title trop longue ? Le fait de ne pas indiquer l'adresse du Sitemap XML dans le fichier robots.txt est-il vraiment une faute ? Tout comme le fait de ne pas créer de fichier Sitemap XML ? Etc.), cela alimente le débat et elle n'en est pas moins un excellent repère pour se remémorer de nombreux points à prendre en compte pour optimiser son site (cliquez sur l'image pour en obtenir une version agrandie) :

infographie-erreurs-seo-techniques
Infographie : Les 40 erreurs techniques les plus communes en SEO. Source de l'image : SemRush.

Commentaires : 7
  1. JY 18 août 2017 at 8 h 32 min Reply

    Le underscore dans les Urls... Un critère qui a la vie dure non ?

  2. Benoit P 18 août 2017 at 11 h 28 min Reply

    Pas vraiment d'accord avec le sitemap.xml non trouvé dans le robots.txt
    Le laisser apparaître = meilleur moyen de se faire scrapper son contenu / ses fiches produits

  3. Favrot Alexandre 19 août 2017 at 9 h 59 min Reply

    Très intéressant, même si comme vous l'avez dit vous-même, cela mériterait pas mal de précisions et cela peut faire débat. Et, il y a pleins d'autres erreurs possibles... Mais ceux là on les retrouvent souvent en effet dans nos audits seo...

  4. Vincent 22 août 2017 at 5 h 56 min Reply

    Certains points sont importants, mais à mon sens cette infographie est un pur linkbait sans beaucoup de valeur ajoutée, et honnêtement c'est ce que Semrush fait depuis plusieurs mois, des linkbaits moisis qui ne nous apprennent rien, mais font parler de semrush. Dire que le sitemap.xml a de l'importance pour le référencement d'un site, c'est du flanc, à moins que le référencement de votre site soit vraiment mauvais, c'est un critère vraiment mineur. Tout comme le robots.txt non trouvé. Google s'en moque totalement.

    • Anonyme 29 août 2017 at 15 h 03 min Reply

      Bonjour Vincent,
      Vous devez gérer des sites à faibles volumes de contenus (<10K), non ? Par ici on est à qlq millions...

  5. Franck FAISANT 24 août 2017 at 14 h 46 min Reply

    Bonjour, Pour l'essentiel les erreurs évoquées ici sont également signalées dans les différents tableaux de bord de la "Search Console". Une fois qu'on a corrigé tous ces problèmes, on a d'abord fait en sorte de faciliter le travail des robots en améliorant leur acuité sur le contenu. Sans forcément obtenir pour résultat d'améliorer son référencement, on a surtout réduit les chances de le voir pénalisé, ce qui n'est pas le moindre des résultats.

Laisser un commentaire

(charte de saisie de commentaire)

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site