Goossips : Javascript, Rendu et Liens

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Comment Google indexe-t-il et analyse-t-il une page faisant appel à du Javascript ? Quelle version de Chrome Google utilise-t-il pour son moteur de rendu de page web ? Un lien en Javascript est-il compris et suivi par Googlebot ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 Javascript
Lors de l'événement Google I/O, Tom Greenaway, un ingénieur du moteur de recherche a indiqué que Google crawlait les pages en Javascript selon un processus en deux phases (en majeure partie pour des questions de gestion des ressources machine disponibles) : une première passe, puis une seconde, quelques jours plus tard, générant un rendu complet de la page après interprétation du code. Un système qui peut avoir son importance, notamment sur du contenu "chaud" (d'actualité), qui ne sera réellement analysé par le moteur que plusieurs jours après sa mise en ligne. Un problème également : dans la période entre les deux passes, certaines informations et balises importantes risquent de ne pas être lues et interprétées, d'où certains soucis là aussi non négligeables potentiellement...
Source : TheSemPost, TheSemPost
Taux de fiabilité :
Notre avis : Information intéressante que ce fonctionnement en 2 phases sur les sites utilisant le Javascript. Un point dont il faut en tout cas tenir compte sur un site web faisant lourdement appel à ce langage car les implications peuvent être très lourdes en termes de SEO...

 

 Rendu
John Mueller a également indiqué lors de l'événement Google I/O que, pour obtenir un rendu des pages web lors de l'analyse du code, Google utilisait la version 41 de Chrome, alors que le navigateur en est actuellement et officiellement à sa version 66 !>
Source : TheSemPost
Taux de fiabilité :
Notre avis : Etonnant, même si le délai entre deux versions de Chrome est très court, la version 41 date quand même de 2015 ! N'hésitez donc pas à utiliser ce site pour voir les fonctionnalités supportées par Chrome 41 (et celles qui ne le sont pas) si vous avez un doute sur du code qui serait trop récent à ce niveau...

 

 Liens
Terminons avec, encore, l'événement Google I/O et une conférence d'un ingénieur de Google indiquant quels sont sont les types de liens suivis par Googlebot dans une page web. Ainsi, seront suivis ces liens :
<a href="/good-link">Lien suivi</a>
<a href="/good-link" onclick="changePage('good-link')">Lien suivi</a>

Ceux-là, en revanche, ne seront pas suivis :
<span onclick="changePage('bad-link')">Lien non suivi</span>
<a onclick="changePage('bad-link')">Lien non suivi</a>

Bref, si l'URL du lien est générée par exemple en JS, ce lien ne sera pas suivi. Il faut que cette URL soit présente en clair dans l'attribut href pour que le lien soit compris et suivi par Googlebot.
Source : TheSemPost
Taux de fiabilité :
Notre avis : Il s'agit d'une information assez proche de ce que Google disait déjà il y a 10 ans ou presque. Le système n'a-t-il que si peu évolué depuis ce temps-là ? On peut quand même se poser la question. A notre avis, Googlebot a gagné en "intelligence" depuis cette date. Mais il est vrai que plus un lien sera complexe dans sa conception, plus les risques de non prise en compte seront élevés...

 

logo-infos-google
Goossip (Infos Google). Source : Google