Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Peut-on optimiser une page pour Discover ? Est-ce une bonne chose que de recevoir un lien depuis une page moins populaire que la sienne ? Faut-il bloquer au crawl les URL qui renvoient un code 404 ou 410 ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

   

Discover
Dans la nouvelle version de la page d'aide au sujet de sa fonction Discover, Google explique qu'"il n'y a aucun moyen de créer un contenu qui vise explicitement à répondre aux intérêts de Discover". En d'autre termes, on ne peut pas optimiser un contenu avec des règles spécifiques à Discover...
Source : Search Engine Journal
Taux de fiabilité :
En soi, c'est assez logique, puisque Discover est avant tout axé sur l'adéquation d'un contenu aux habitudes de navigation des internautes. Il s'agit donc là plus de personnalisation que d'un choix de pertinence seul. Les mêmes pratique que pour du SEO classique fonctionneront donc...

  

Backlinks
Selon John Mueller, le fait de recevoir des liens depuis des pages ayant une popularité (que vous la mesuriez avec un indicateur de type TF, CF, DA ou autre) moins bon que celui de la page recevant le lien ne pose pas de souci majeur...
Source : Search Engine Roundtable
Taux de fiabilité :
Dans un premier temps, il n'existe aujourd'hui aucun indicateur qui mesure la popularité d'une page comme le fait Google, ce qui réduit l'intérêt de la question. Et ensuite oui, on peut recevoir des liens depuis des pages peu populaires, à partir du moment où ce ne sont pas des pages de spam, bein sûr...

  

404
John Mueller a indiqué sur Twitter que ce serait une très mauvaise idée de bloquer au crawl des moteurs les pages qui renvoient des erreurs 404, ajoutant que Googlebot tente de crawler chaque jour des milliards d'URL qui renvoient des 404 et que c'est tout à fait normal...
Source : Search Engine Roundtable
Taux de fiabilité :
Le message est clair : ne bloquez pas les 404 ou 410 au crawl pour les moteurs qui doivent effectuer ce travail pour analyser et gérer ensuite dans leur index ce type d'erreur (et notamment désindexer ces URL erronées ou obsolètes)...

Goossips : Discover, Backlinks et 404
Goossips : Discover, Backlinks et 404. Source de l'image : Google