Goossips : Cache, Sitemap XML et Attributs Id

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions (grosse fournée cette semaine) : Google va-t-il indiquer dans ses SERP le fait qu'une page web n'est pas sécurisée ? Un site responsive passera-t-il l'obstacle du Mobile First ? La fonction d'exploration comme Google de la Search Console est-elle utilisée par l'algorithme ? Google utilise-t-il les données du fichier de désaveu dans sa lutte contre le spam ? Les équipes du moteur lisent-elles tous les spam reports ? Le pogosticking est-il utilisé pour noter un site ? Les algorithmes du moteur sont-ils dynamiques ? Et la présence d'un chatbot améliore-t-elle la pertinence d'une page web ? Etc.

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 HTTPS et SERP
Gary Illyes a indiqué au salon Brighton SEO que Google n'avait aucun plan visant à indiquer dans les SERP qu'une URL n'était pas sécurisée (qu'elle était donc en HTTP et pas en HTTPS) avec un message spécifique, comme cela avait été le cas précédemment avec les URL non compatibles mobile.
Source : TheSemPost
Taux de fiabilité :
Notre avis : Google serait tout à fait capable d'afficher ce type de message dans ses SERP pour contraindre les derniers webmasters encore réticents à passer à l'HTTPS. Ce scénario pourrait donc tout à faite devenir réalité...

 

 Mobile First
Gary Illyes a également expliqué au même salon Brighton SEO que les sites responsive design n'ont pas grand chose à craindre du projet Mobile First et qu'à ce niveau, tout devrait bien se passer pour eux...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : C'est le message de Google depuis un bon moment : les sites responsive qui proposent le même contenu sur desktop et mobile devraient passer l'épisode Mobile First sans incident. Wait and see...

 

 Search Console
John Mueller a indiqué sur Twitter que la fonction "Explorer comme Google" de la Search Console, qui permet d'afficher une page comme la voient internaute et moteur, n'est pas utilisée par l'algorithme du moteur. Il s'agt avant tout d'un outil mis à la disposition des webmasters...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Certes, mais l'objectif de Google est de "voir" la page come la voit l'internaute. Donc, si l'outil de la Search Console n'est pas directement utilisé par l'algorithme, il est fortement probable qu'un système similaire est actuellement utilisé pour comprendre et analyser le rendu des pages comme sur un navigateur.

 

 Spam Report
John Mueller a expliqué lors d'un hangout que Google ne lisait pas tous les "spam reports" qui lui sont envoyés, mais que les équipes de lutte contre le spam du moteur tentent de traiter ceux qui semblent les plus importants et ceux qui ont le plus d'impact sur les résultats de recherche...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Cette information de John Mueller vient plutôt contredire le discours officiel, plusieurs fois énoncé dans le passé, qui disait que tous les rapports de spam étaient lus. En même temps, elle confirme ce que vivent de nombreux webmasters : une multitude de sites web spammant allégrement et signalés sont encore en ligne et bien placés, ce qui décourage de nombreux éditeurs de site "propres" à faire des spam reports...

 

 Désaveu
Gary Illyes a indiqué sur Twitter que les fichier de désaveu était uniquement utilisés par Googe pour ignorer certains liens (ceux désignés par le fichier) mais qu'il n'utilisait pas ces données à d'autres fins, comme le fait de détecter plus généralement des sites spammeurs. Il a ajouté que certains black hats adoreraient certainement qu'il en soit ainsi (dans le cadre de manœuvres de negative SEO par exemple) mais que ce n'était pas le cas...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Assez d'accord avec Gary. Il existe tellement de mythes et de parano sur ce fichier de désaveu répercutés par les spécialistes de la théorie du complot...

 

 HTTPS
Gary Illyes a indiqué, toujours au salon Brighton SEO, que lors d'une migration de HTTP vers HTTPS, il ne devrait quasiment plus y avoir aujourd'hui de période transition (et donc de chute) dans les classements d'un site dans les SERP de Google (auparavant, les porte-paroles du moteur parlaient de 3 à 4 semaines pour revenir à la normale). Plusieurs points ont été identifiés en interne pour accélerer le processus qui devrait aujourd'hui être transparent dans la plupart des cas ...
Source : TheSemPost
Taux de fiabilité :
Notre avis : C'est plutôt ce que nous obervons en général : si le certificat est installé "dans les règles de l'art" et que la redirection 301 est bien faite, le processus ets assez rapide et transparent...

 

 Taux de clic
John Mueller a expliqué lors d'un hangout que si Google utilisait le taux de clic dans les SERP (ou pogosticking), c'était avant tout pour évaluer et améliorer les algorithmes de pertinence, mais pas pour donner une note à une page ou une site web par rapport à une requête donnée. L'utilisation de ce critère est donc générale mais pas spécifique à l'évaluation d'un site ou un autre...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : C'est le discours de Google depuis longtemps et cette remarque de John Mueller répond à celle d'un des responsables de Google Brain à ce sujet. Notons que Vincent Courson (Google Dublin) a également dit la même chose que John dernièrement. Impossible de toutes façons de mesurer cela et il s'agit d'un critère sur lequel il est également quasi impossible de jouer. Donc...

 

 Algorithmes
John Mueller a expliqué lors d'un hangout que l'algorithme de pertinence de Google n'utilisait pas les mêmes critères avec le même poids pour toutes les requêtes et que les calculs pouvaient changer dans leur essence même en fonction des mots clés qui étaient tapés, le moment où la requête était faite, etc. Bref, l'algorithme de Google est dynamique...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Rien de nouveau ici. Un algorithme comme QDF (Query Desserves Freshness) utilisé pour les requêtes sur l'actualité en est le meilleur exemple. De nombreux critères peuvent avoir un poids différent selon le contexte. Et les systèmes d'apprentissage autmatique de Google ont certainement amélioré encore ce processus au fil des ans...

 

 Chatbots
John Mueller a expliqué lors du même hangout que le fait d'ajouter un chatbot (automate répondant en direct aux questions des visiteurs) n'améliorait pas les classements d'un site ou d'une page web sur Google..
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Si le fait d'ajouter un chatbot à une page web renforçait la pertinence de son contenu, ça se saurait. Difficile d'imaginer qu"on puisse penser qu'on sera mieux classé sur Google avec ce type de fonctionnalité. Et pourquoi pas un lien vers Gmail aussi, pur être mieux classé ? :-)...

 

logo-infos-google
Goossip (Infos Google).
Source de l'image : Google