Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : A quoi sert l'algorithme Rankbrain et prend-il en compte des critères d'UX ? La sandbox, défavorisant des pages nouvellement créées, existe-t-elle ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 RankBrain
Gary Illyes a expliqué sur Reddit sa vision de l'algorithme RankBrain : "RankBrain est un composant de machine learning "PR-sexy" qui utilise des données de recherche historiques pour prédire sur quoi un utilisateur cliquerait le plus probablement pour une requête inédite, jamais tapée sur le moteur. Il s'agit d'un travail d'ingénierie vraiment cool qui nous a sauvé la mise à chaque fois que les algorithmes traditionnels fonctionnaient, par exemple, ainsi : "oh regardez un "not" dans la chaîne de requête ! ignorons cela !" Mais il s'appuie généralement sur des données (parfois) vieilles de plusieurs mois sur l'analyse de la page de résultats elle-même, pas sur la page de destination." Et il termine avec une petite pique à Rand Fishkin : "Le pogostocking, dwell time, CTR, quelle que soit la nouvelle théorie de Fishkin, ce sont généralement des conneries inventées. La recherche est beaucoup plus simple qu'on ne le pense"...
Source : Search Engine Journal
Taux de fiabilité :
Pour une fois, Gary Illyes est assez clair dans ce qu'il explique. Et on est entièrement d'accord avec lui : beaucoup de gens complexifient beaucoup trop la compréhension que l'on doit avoir des algorithmes des moteurs de recherche. Et non, l'UX n'est pas pris en compte par les algorithmes de pertinence de Google. Point. Une vidéo Abondance sera d'ailleurs prochainement consacrée à ce point.
 Sandbox
John Mueller a expliqué sur Twitter qu'il n'existait pas de "sandbox" sur Google, privant une page venant d'être créée de certains positionnements avant un certain délai. Sur ce sujet, sa réponse a été assez classique : "Nous utilisons une tonne de facteurs pour l'exploration, l'indexation et le classement, il est possible que dans certaines situations, certaines pages s'affichent rapidement, alors que d'autres prennent plus de temps. Il n'y a pas de règle ou de calendrier fixe.".
Source : Search Engine Journal
Taux de fiabilité :
C'est très clair. D'ailleurs, dans certains cas, de nouvelles pages ont des résultats beaucoup plus rapides que des pages anciennes, avant de revenir à un niveau inférieur au bout d'un certain temps. Il n'y a pas de règles et la sandbox est un mythe !
Goossips : Rankbrain, UX et Sandbox
Goossips : Rankbrain, UX et Sandbox. Source : Google