Goossips : Clustering, Sandbox et Noindex

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Existe-t-il une limite maximale au nombre de liens affichés dans une SERP pour un même site ? La pénalité Sandbox existe-t-elle ? La balise meta robots noindex permet-elle de mieux gérer le crawl de votre site par les robots du moteur ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goosssips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 Clustering
John Mueller a indiqué sur Twitter qu'un même site peut apparaître plusieurs fois (avec des pages différentes) dans une même page de résultats. Il n'existe pas (plus) de limite au nombre d'URL issues d'un même site dans une SERP pour une requête donnée. L'époque de la "clusterisation" (2 URL seulement pour un même nom de domaine) est clairement terminée depuis longtemps...
Taux de fiablité :
Source : Search Engine Roundtable

 

 Sandbox
Gary Illyes a expliqué sur Twitter que Google n'avait aucun mécanisme qui pourrait être assimilé à une "sandbox". Le concept de "sandbox" est dans l'air depuis plus de 10 ans et caractériserait un algorithme spécifique de Google pénalisant plus ou moins un site au moment de sa création, lorsqu'il envoie peu de signaux (ou des signaux jugés en dehors de la norme) à Google dans les premières semaines qui suivent sa naissance. Rien n'a jamais pu être prouvé à ce sujet mais on a imaginé qu'avant d'obtenir des signaux pertinents, le moteur de recherche donnait un boost artificiel à un nouveau site (ce qui expliquerait certaines chutes de position au bout d'un certain temps, au moment où les "vraies" positions sont enfin calculées)...
Taux de fiablité :
Source : Search Engine Roundtable

 

 Noindex
John Mueller a rappelé sur Twitter que si la balise meta robots "noindex" permettait de gérer l'indexation (ou pas) d'une page sur Google, elle n'était en rien une façon de contrôler le crawl d'un site par Googlebot. Et pour cause, puisque, pour lire cette balise, il faut bien que le robot crawle la page :-)...
Taux de fiablité :
Source : Search Engine Roundtable

 

logo-infos-google
Goossip (Infos Google).
Source de l'image : Google