Goossips : Hreflang, JavaScript, Duplicate Content et Mobile First

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Peut-on faire du Negative SEO avec les balises Canonical ? Est-il sage de diviser un contenu en plusieurs parties ? Où doivent se trouver les balises de pagination dans un code source ? Faut-il faire des liens internes vers des pages désindexées ? Le boost SEO sur l'HTTPS dépend-il du type de site web ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 Canonical
Une manière de faire du négative SEO sur la base de balises "canonical" émises depuis des sites de faible qualité est ressortie ces derniers temps suite à un article à ce sujet. John Mueller a, de son côté, indiqué que depuis que cette balise existe, les webmasters ont tenté de nombreuses manipulations avec elle, mais que celle-ci ne fonctionne pas...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Possible. Nous n'avons pas testé cette technique, donc pas de commentaires ;-)...
 Contenu
John Mueller a indiqué lors d'un hangout que ce n'était pas une bonne stratégie de diviser un contenu en plusieurs pages uniquement pour augmenter le nombre de pages indexées par Google car, en faisant ça, on diminue également le volume de texte pour chaque page et donc l'analyse de Google sur son contenu.
Source : TheSemPost
Taux de fiabilité :
Notre avis : On est d'accord. Augmenter artificiellement le nombre de pages d'un site n'est déjà pas obligatoirement une bonne stratégie. Et diminuer le volume de texte des pages est en plus quasi suicidaire...
 Pagination
John Mueller a rappelé que les balises de pagination (rel=next et rel=prev) devaient être dans la partie "Head" du code sources des contenus paginés. Si ces indications se trouvent dans les liens (balise A) et donc dans le "Body", elles ne seront pas prises en compte.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Exact et on voit hélas assez souvent cette erreur commise par certains développeurs...
 Noindex
John Mueller a expliqué sur Twitter que cela ne posait pas de problèmes si un site web faisait beaucoup de liens internes vers des pages désindexées par ailleurs du moteur de recherche...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Hummm oui et non. Cela peut jouer en termes de budget crawl si la désindexation s'effectue avec la balise meta robots "noindex" (au lieu du robots.txt) et en termes de circulation du PageRank interne puisque, dans ce cas, le jus n'est pas transmis et est perdu. Cela n'est donc pas si neutre que ça...
 HTTPS
John Mueller a indiqué sur Twitter que le "boost SEO" donné au passage d'un site web en HTTPS ne dépendait pas du type de site ou de sa thématique, mais était identique pour toutes les sources d'informations...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : C'est clair. Ce boost est de toutes façons tellement faible que 99,99% des sites ne s'en apercevront pas...
logo-infos-google
Goossip (Infos Google). Source : Google