Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Googel arrive-t-il à lire une page web qui impose l'acceptation des cookies ? Ajouter le nom du site à la fin de chaque balise Title est-il pénalisant ? Les URL contenues dans un fichier SItemap XML peuvent-elles être situées n'importe où dans le site ? Quelles dates Google affiche-t-il dans ses SERP (parfois) ? Quelle métrique utiliser pour le temps de chargement des pages ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 Cookies
John Mueller a rappelé sur Twitter que Google ne pouvait pas crawler une page si l'affichage de cette dernière nécessitait l'acceptation de cookies par l'internaute.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Ce n'est pas nouveau et c'est assez logique. attention donc, pour votre site, à penser au cas des robots qui n'ont pas la possibilité d'accepter ces cookies.
 Title
John Mueller a indiqué, toujours sur Twitter, que le fait d'ajouter le nom du site (nom de l'entreprise ou de la marque) à la fin de chaque balise Title des pages d'un site web ne posait absolument aucun problème.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Bien sûr. C'est ce que nous préconisons d'ailleurs :). Et, selon notre expérience, cela évite parfois que Google réécrive de son propre fait une partie du Title dans ses SERP.
 SiteMap XML
John Mueller a expliqué lors d'un hangout que si un fichier Sitemap XML était soumis via un ping anonyme, les URL qu'il contenait devaient être présentes dans le répertoire (et les sous-répertoires) du fichier Sitemap. En revanche, si le Sitemap est soumis via la Search Console, les règles sont beaucoup plus souples : les URL peuvent correspondre à n'importe quel emplacement du site, voir même d'un autre site.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : C'est exact, on le voit bien en analysant le contenu des Sitemap XML dans la Search Console. Mais même si les règles sont plus souples à ce niveau, on ne peut que vous conseiller d'être vous-même stricts dans la conception de vos Sitemaps XML pour ne pas faire n'importe quoi dans ce cadre. Vous y gagnerez du temps dans vos propres analyses par la suite.
 Dates
John Mueller a donné lors d'un hangout une indication intéressante sur la date affichée dans ses SERP (notamment à gauche du snippet qui reprend la plupart du temps la balise meta "desctiption") : il peut s'agir soit de la date de publication, soit la date de dernière modification du contenu, en fonction du contexte. Par exemple, si le contenu a changé de façon importante, c'est la seconde option qui sera choisie.
Source : Search Engine Journal
Taux de fiabilité :
Notre avis : C'est intéressant , car Google n'avait pas communiqué sur ce sujet jusqu'à maintenant, à notre connaissance. Mais qu'est-ce qui fait que Google passe d'une date à l'autre ? Quelle est la frontière entre les deux, et les signaux réellement pris en compte ? Nul ne le sait, en revanche ;-).
 Temps de chargement
John Mueller a expliqué sur Twitter qu'une métrique intéressante, en termes de temps de chargement des pages, pouvait être de regarder la Search Console, zone "Exploration > Statistiques sur l'exploration" puis d'essayer d'avoir la courbe "Temps de téléchargement d'une page (en millisecondes)" qui oscille aux alentours des 100 ms. En fait, selon John, plus cette moyenne sera basse et mieux Google pourra crawler votre site, selon lui.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Une métrique intéressante. Mais notre expérience montre que l'objectif d'avoir des temps de téléchargement de plus ou moins 100 ms est extrêmement difficile à tenir dans le temps. En moyenne, on voit plutôt des statistiques supérieures à 500 ms dans cette zone de la Search Console. Sans que cela impacte le SEO en quoi que ce soit. Mais ce n'est pas une raison pour ne pas essayer de les baisser, ne serait-ce que pour le confort de l'internaute...
Goossip (Infos Google). Source : Google