Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Une même action manuelle peut-elle être infligée à un réseau de sites web ? La découverte de contenus dupliqués sur un site web peut-elle être un critère négatif en SEO ? Les indicateurs des Core Web Vitals seront-ils appliqués à l'identique pour n'importe quel type de site ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

  

Action Manuelle et Réseau de Sites
John Mueller a expliqué sur Twitter que si un site web allant à l'encontre des recommandations Google fait l'objet d'une action manuelle, et que les équipes du moteur détectent d'autres sites semblables faisant partie du même réseau, ces derniers peuvent également faire l'objet de la même pénalité qui serait alors "groupée"...
Source : Search Engine Roundtable
Taux de fiabilité :
Ça semble logique. Si un site "triche" et que Google s'en aperçoit, il n'y a pas de raisons qu'il ne pénalise pas d'autres sites similaires du même réseau. Ça semble cohérent.

  

Contenu Dupliqué
John Mueller a encore une fois indiqué lors d'un hangout avec les webmasters que le fait qu'un site web ait plusieurs contenus similaires ou identiques dans son arborescence n'est en rien un critère de pertinence négatif pour le moteur de recherche : "Avec ce genre de contenu dupliqué, il n'y a pas de score négatif appliqué. Si nous trouvons la même information sur plusieurs pages, et que quelqu'un cherche spécifiquement cette information, alors nous essaierons de trouver la page qui correspond le mieux. Ainsi, si vous avez le même contenu sur plusieurs pages, nous ne les montrerons pas toutes. Nous essaierons d'en choisir une et de la montrer. Dans de nombreux cas, il est normal que vous ayez une certaine quantité de contenu dupliqué sur certaines des pages."
Source : Search Engine Journal
Taux de fiabilité :
En cas de contenu dupliqué intrasite, Google cherchera avant tout à trouver la page la plus pertinente (la canonique) et ce sera elle qui sera visible dans les résultats de recherche. Il est parfois nécessaire de répéter encore et toujours la même information. Voir notre vidéo à ce sujet.

  

Core Web Vitals
John Mueller a également expliqué sur Twitter que dans le cadre du projet "Page Expérience", les KPI de Core Web Vitals, qui seront mis en place au moins de mai, seront les mêmes quel que soit le type de site. Ainsi, un gros site de contenu, une plaquette simple ou un site e-commerce, par exemple, seront traités à la même enseigne, il n'y aura pas de différences dans la façon dont ces indicateurs seront pris en compte.
Source : Search Engine Roundtable
Taux de fiabilité :
Cela peut sembler plus ou moins normal, ceci dit, au vu des 3 indicateurs retenus (LCP, FID, CLS), cela n'est pas illogique. Nous voilà donc prévenus : tout le monde sera traité de la même façon.

Goossips :  Action Manuelle et Réseau de Sites, Contenu Dupliqué, Core Web Vitals
Goossips : Action Manuelle et Réseau de Sites, Contenu Dupliqué, Core Web Vitals. Source de l'image : Google