Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Peut-on forcer Googlebot à crawler un site en HTTP/2 ? Le fait qu'un autre site copie vos contenus peut-il pénaliser vos propres textes ? Un robot cliqueur dans les SERP peut-il améliorer votre classement ? Une ancre de lien longue peut-elle être bénéfique en termes de SEO ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 

HTTP/2
John Mueller a rappel sur Twitter qu'il n'était pas possible de forcer Googlebot à crawler un site en HTTP/2, suite à son annonce à ce sujet au mois de septembre dernier. C'est Google qui choisit le protocole utilisé par le robot, pas le site...
Source : Search Engine Roundtable
Taux de fiabilité :
Google l'avait dit lors de l'annonce du début du crawl de Googlebot en HTTP/2 en septembre. Rien de nouveau donc à ce sujet. En revanche, il est possible de refuser une tentative de crawl en HTTP/2 en envoyant un code 421 (Bad mapping / Misdirected Request) dans ce cas...

  

Plagiat
John Mueller a également rappelé sur Twitter que le fait que d'autres sites copient votre contenu ne va pas faire en sorte que votre contenu soit moins bien classé dans les résultats de recherche du moteur.
Source : Search Engine Roundtable
Taux de fiabilité :
C'est vrai si vous restez "canonique" dans l'analyse de contenu dupliqué du moteur. Si un plagiaire passe canonique à votre place, en revanche, bonjour les dégâts...

  

Clics dans les SERP
John Mueller a une nouvelle fois rappelé que le fait de créer une "machine à cliquer" qui taperait des requêtes sur le moteur puis cliquerait automatiquement sur le lien de votre site sans revenir dans la SERP ensuite est un non-sens en termes de SEO et n'apportera aucun bénéfice à votre site web.
Source : Search Engine Roundtable
Taux de fiabilité :
Encore une vieille croyance sur le taux de rebond, le pogosticking / Dwell time, etc. Jusqu'à quand entendrons-nous ce type de fable en SEO ?...

  

Ancres de liens
John Mueller a expliqué lors d'un hangout que le fait de proposer une ancre de lien longue pouvait être une bonne chose car cela donnait plus d'informations de contexte sur ce que propose la page distante et cela peut éventuellement améliorer légèrement la compréhension du contenu de cette page.
Source : Search Engine Journal
Taux de fiabilité :
C'est assez logique et cohérent, également dans un contexte dominé par des algorithmes comme BERT qui prennent en compte le contexte des mots entre eux. Mais bien sûr, encore faut-il que les termes de l'ancre soient explicites et descriptifs. Si l'ancre ressemble à "Cliquez ici pour savoir ce qui est dit dans la suite de cet article pour en savoir plus", cela n'aidera pas vraiment... 😉

Goossips : HTTP/2, Plagiat, Clics dans les SERP et Ancres de liens
Goossips : HTTP/2, Plagiat, Clics dans les SERP et Ancres de liens. Source de l'image : Google