Goossips : Engagement, Liens Internes et Robots.txt

Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google prend-il en compte dans son algorithme des critères d'engagement sur une page web ? L'emplacement d'un lien sortant dans une page est-il important (contenu et footer par exemple) ? Quelles sont les conséquences d'une erreur 500 renvoyée lorsqe le robot veut lire le fichier robots.txt d'un site ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

  

Engagement
John Mueller a expliqué lors d'un hangout avec des webmasters que Google ne prenait pas en compte l'« engagement » (soit les interactions : temps passé sur la page, taux de rebond, nombre de pages vues sur le site, trafic, scroll, taux de conversion, etc.) sur une page comme critère de pertinence.
Source : Search Engine Roundtable
Taux de fiabilité :
Google l'a dit 1 000 fois, donc rien de très nouveau à ce sujet, même si le sujet revient régulièrement dans la sphère SEO. Dans ce cas-là, il aurait quand même été intéressant que John Mueller explique quelle était sa version de la notion d'« engagement » et quelles interactions internaute / page web il prenait en compte dans son explication...

  

Emplacement des liens dans la page
John Mueller a expliqué lors de ce même hangout avec des webmasters que le moteur de recherche prend en compte tous les liens sortants d'une page, qu'ils soient dans le contenu éditorial ou autour de celui-ci (header, footer, sidebar, menu de navigation). Mais que l'algorithme essaie de prendre en compte avant tout le contenu éditorial pour comprendre de quoi parle la page. Mais selon lui, les liens dans ce contenu ne sont pas traités différemment et n'ont pas un poids plus ou moins important que les autres.
Source : Search Engine Journal
Taux de fiabilité :
On peut quand même en douter puisque cette différence entre la zone de contenu et ce qu'il y a autour est notamment à la base de la théorie du surfeur raisonnable et donc du PageRank actuel (ou de ce que l'on en connait). L'explication de John Mueller ne nous semble donc pas claire et réaliste...

    

Erreur 500 sur le fichier robots.txt
Toujours dans ce hangout, John Mueller a indiqué que si, lorsque le robot tente de lire le fichier robots.txt d'un site, il recevait une erreur serveur (de type 5xx) via un CDN ou pas, cela avait pour conséquence une perte de l'affichage des ses résultats enrichis (obtenus grâce à la présence dans les pages de certaines balises de données structurées : avis, étoiles, recettes de cuisine, etc.) et tout simplement l'absence de nouveau crawl : «  Si vous renvoyez une erreur de serveur pour le fichier robots.txt, nos systèmes supposeront qu'il y a peut-être un problème avec le serveur et nous n'explorerons pas le site. ».
Source : Search Engine Journal
Taux de fiabilité :
Morale de l'histoire : si votre site n'a pas de fichier robots.txt (ce qui en soit n'est déjà pas vraiment normal), vérifiez que le serveur renvoie un code 404 et pas 500. Sinon...

  

Goossips : Engagement, Liens Internes et Robots.txt
Goossips : Engagement, Liens Internes et Robots.txt. Source : Google