
Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : l'UGC (User Generated Content) est-il pris en compte par Google comme du texte classique ? Une page qui a été désindexée sera-t-elle pris en compte différemment lorsqu'elle est à nouveau indexable ? Est-il possible de gérer un Sitemap XML manuellement sur un gros site ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
UGC |
Dans une vidéo de la série #AskGoogleWebmasters, John Mueller a expliqué que l'UGC (User Generated Content, soit le contenu créé par les visiteurs sur un site web, comme les commentaires, les avis, etc.) était pris en considération exactement de la même façon que le texte "classique" (éditorial) de la page : "Globalement, Google ne fait pas de différence entre le contenu que vous avez écrit et le contenu que vos utilisateurs ont écrit. Si vous le publiez sur votre site, nous le considérons comme un contenu que vous souhaitez faire publier. Et c'est ce que nous utiliserons pour le classement. Après tout, c'est votre site web, n'est-ce pas ? Donc, si vous avez une grande quantité de contenu généré par les utilisateurs, assurez-vous qu'il répond à vos normes de publication de contenu sur votre site web."... |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
Noindex |
John Mueller a expliqué sur Twitter qu'une page qui aurait été désindexée dans un premier temps via une balise meta robots "noindex" puis qui verrait cette balise supprimée dans un second temps, revient dans une situation "normale" d'indexation par la suite, comme si la désindexation temporaire n'avait pas existé. Elle n'est pas "pénalisée" ou autre phénomène pour cela... |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
SiteMap XML |
John Mueller a expliqué sur Reddit que, pour des sites web de grande taille, il n'était pas recommandé de créer des fichiers Sitemap XML de façon manuelle, mais de passer de préférence par un outil (plugin ou autre) du CMS utilisé... |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
Goossips : UGC, Noindex et Sitemap XML. Source de l'image : Google