Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Le comportement des internautes dans les SERP influe-t-il sur le positionnement des résultats ? Google détecte-t-il de lui-même de gros changements sur un site ? Faut-il utiliser les balises Canonical avec les meta robots "noindex" ? Quand l'index Mobile First sera-t-il à 100% terminé ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Pogosticking |
John Mueller a expliqué dans un hangout que le pogosticking, ou mesure du comportement de l'internaute dans les SERP, n'était pas un critère de pertinence en termes de classement d'une page et que les allers et retours éventuels d'un utilisateur du moteur entre la SERP et ses liens bleus n'influençaient pas le positionnement des pages en question. |
Source : Search Engine Journal |
Taux de fiabilité :   |
Notre avis : Information intéressante. On peut en effet penser que le pogosticking sert avant tout à Google pour mesurer la pertinence algorithmique d'une réponse de son moteur à une requête donnée, et non pas de façon plus granulaire, pour le classement d'une page. |
Modifications sur un site |
John Mueller, cette fois sur Twitter, a expliqué que Google n'avait pas besoin d'un outil permettant aux webmasters d'indiquer au moteur de gros changements sur un site, comme lors d'une migration ou d'une refonte massive. John a expliqué que Google se rendait déjà compte de lui-même de ce type de changement massif et qu'un outil d'alerte serait inutile. |
Source : Search Engine Roundtable |
Taux de fiabilité :    |
Notre avis : Effectivement, juste après une migration, par exemple, on voit bien que Google recrawle le site de façon importante, et ce très rapidement. On peut aussi imaginer que Google n'a pas envie de fournir un tel outil qui serait immédiatement spammé dans les grandes largeurs pour recrawler des sites qui n'ont pas réellement été modifiés ! |
Noindex et Canonical |
John Mueller, sur Reddit cette fois, a indiqué que les balises Canonical et meta robots "noindex" (tout comme les Disallow: dans le fichier robots.txt) ne devaient pas être utilisées en même temps car ce sont des signaux contradictoires, ce qui amène des signaux qui peuvent parfois être peu cohérents pour le moteur. |
Source : Search Engine Roundtable |
Taux de fiabilité :    |
Notre avis : Certes, mais avec le Disallow:, il n'y a pas de crawl, donc pas de lecture de la balise Canonical (sauf, bien sûr, si on désire que cette balise soit lue par le moteur). John a certainement raison sur le principe, mais cette vision peut aussi se heurter à des modalités d'automatisation des tâches sur un site, qui ne permettent pas toujours d'avoir accès à une gestion individuelle des pages. Et parfois, ce type de doublon peut arriver... |
Index Mobile First |
Toujours John Mueller, sur Twitter, qui a expliqué que l'index Mobile First était toujours en cours de déploiement (on voit d'ailleurs arriver de façon périodique des messages à ce sujet dans la Search Console) et qu'il restait encore beaucoup de travail à mettre en place avant que l'index du moteur soit entièrement "mobile first". |
Source : Search Engine Roundtable |
Taux de fiabilité :    |
Notre avis : On peut se douter que le travail à ce niveau est graduel et qu'il reste encore du taf. On n'a pas fini de se faire spammer avec les mails Google dans la Search Console à ce sujet 😉 |
Goossip (Infos Google). Source : Google
Auteur : Olivier Andrieu.
Olivier Andrieu était consultant SEO indépendant. Il a créé la société Abondance en 1996 et le site abondance.com en 1998. En 2023, il a décidé de prendre sa « retraite SEO » pour se consacrer à son activité de scénariste de BD à temps plein.
Selon moi, Google doit se servir du pogosticking pour estimer l’UX, ce qui doit impacter + ou – sur le classement au final (difficile de le confirmer ou de l’infirmer scientifiquement). Par contre, taux de rebond et pogosticking sont 2 concepts différents, à ne pas confondre.
Étrange le message sur le pogosticking, je pensais justement que Google se servait notamment du taux de rebond pour juger de la pertinence d’une page. Donc si un internaute clique depuis la SERP et revient, Google ne s’en sert pas pour juger de la pertinence d’une page ?
Je pense qu’il y a pas mal d’intox de la part de John Mueller sur ce point précis.
Ils doivent avoir un mal fou à distinguer les comportements naturels et les comportements faussés (proxy, etc ..). Quoi de plus utile que de balancer une petite info pour repousser la majorité.
Ok merci. Car si l’UX est un critère de classement et que le pogosticking est interprété comme un signe négatif d’UX, il serait alors probable que le pogosticking agisse négativement sur le classement d’une page de manière indirecte.
Certainement pas, à chacun de faire ses tests, comme dab.
« John Mueller a expliqué dans un hangout que le pogosticking […] n’était pas un critère de pertinence en termes de classement d’une page et que les allers et retours éventuels d’un utilisateur du moteur entre la SERP […] n’influençaient pas le positionnement des pages en question. »
Est-ce une vérité uniquement parce que John Mueller le dit ?