Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google peut-il décider de ne pas afficher des résultats enrichis dans ses SERP pour un site s'il estime que ce dernier n'est pas d'assez bonne qualité ? La lutte contre le contenu dupliqué sur un site à faible échelle, pour quelques pages, donne-t-elle de bons résultats ? Le fichier de désaveu peut-il générer une soudaine chute de trafic sur un site ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Faible Qualité et Résultats Enrichis |
John Mueller a expliqué lors d'un hangout pour webmasters que Google pouvait décider de ne pas afficher de résultas enrichis (ou rich snippets) dans une SERP pour un site web donné si l'algorithme estime que le site n'est pas d'assez bonne qualité. |
Source : Search Engine Journal |
Taux de fiabilité : |
Contenus Dupliqués |
John Mueller a expliqué sur Reddit que, dans la gestion du contenu dupliqué, traiter quelques pages par ci par là ne servait pas à grand chose. En revanche, si vous pouvez réduire le nombre de contenus dupliqués d'un facteur 10, l'effort en vaudra la peine. Il a pris cet exemple : « si vous avez 100 000 produits et qu'ils ont tous 50 URL chacun, passer de 5 millions d'URL à 500 000 URL (5 URL chacun) en vaudrait la peine » en termes de SEO. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Fichier de désaveu |
John Mueller a rappelé lors d'un hangout que l'outil de désaveu de liens de Google n'amenait en rien une pénalité, et que ce n'était en rien un indice de mauvaises pratiques mises en place par le site dans le passé. C'était juste une liste de « liens que l'éditeur ne souhaite pas voir associés à son site dans les systèmes de Google » et puis c'est tout. Les liens sont ensuite pris en compte au fur et à mesure du nouveau crawl de ces liens, au fur et à mesure du processus classique d'exploration des robots. Un fichier de désaveu ne peut donc pas générer une perte de trafic importante sur un site, par exemple, car c'est très graduel sur de nombreux mois. Tous les liens du fichiers ne sont pas pris en considération à un temps T. |
Source : Search Engine Journal |
Taux de fiabilité : |
Goossips : Résultats Enrichis, Contenu Dupliqué et Fichier de désaveu. Source : Google