Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google limite-t-il le nombre de balises meta lues dans une page web ? Une balise Title peut-elle contenir un texte en plusieurs langues ? Comment Google fait-il ses choix entre action manuelle et filtre algorithmique ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 Balises meta
John Mueller a indiqué sur Twitter qu'à sa connaissance, il n'y avait pas de limite au nombre de balises meta (quelles qu'elles soient) crawlables par Google dans une page web.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Pourquoi y aurait-il une limite ? Si la balise meta "keywords" n'est pas lue, il en existe bien d'autres (description, viewport, robots, etc.) qui peuvent avoir leur importance. Et non, la balise "Title" n'est pas une balise meta :-).
 Langues
John Mueller a indiqué sur Reddit qu'il était largement préférable, dans l'immense majorité des cas, de n'utiliser qu'une langue dans une balise Title pour une page donnée.
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : C'est clair. On voit hélas parfois des pages dont le contenu est traduit dans une autre langue mais pour lesquelles d'autres champs sont oubliés et ne sont pas traduits, comme les balises Title et meta "description" ou l'URL. Une mauvaise pratique !
 Pénalités
John Mueller a expliqué lors d'un hangout que Google avait toujours tendance à privilégier des filtres algorithmiques pour lutter contre le spam, plutôt que des actions manuelles. Une action manuelle ne sera infligée (dans le cadre d'un process de groupe au sein de la Search Quality Team, de nombreuses personnes devant donner leur avis à ce sujet en interne) que s'il y a un consensus sur le fait qu'une modification de l'algorithme ne résoudra pas obligatoirement le problème de spam détecté...
Source : Search Engine Journal
Taux de fiabilité :
Notre avis : C'est exact. Et c'est souvent pour cela que les résultats des "spam reports" sont décevants : ils sont parfois lus, un spam est clairement constaté, mais la décision est prise de résoudre la problème de façon algorithmique, ce qui augmente parfois énormément le temps de prise en compte et de résolution du problème...
Goossip (Infos Google). Source : Google