Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : requêtes incluant un nom de marque, impact de la mise en ligne de plusieurs milliers de pages, poids des liens issus de sites d'actualités, disparition sur des mots clés spécifiques et dégradation de la qualité d'un site.

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

L'intérêt des requêtes incluant un nom de marque
En réponse à une question posée par un SEO sur Mastodon, John Mueller a indiqué que le fait que des personnes puissent effectuer des requêtes incluant un nom de marque et des mots clés n’aidait en aucun cas la marque en question à mieux se positionner sur des requêtes plus génériques (c’est-à-dire sans nom de marque). « Non, je ne pense pas que cela aurait beaucoup de sens », s’est contenté de répondre l’employé de Google. Ainsi, pour reprendre l’exemple utilisé dans l’échange, « acheter chapeau Amazon » n’apporterait rien à Amazon pour se positionner sur « acheter chapeau ».
Source : Search Engine Roundtable
Taux de fiabilité :
Il fut une temps où le spam allait bon train dans Google Suggest. Depuis, la firme de Mountain View a pris des mesures, et il semble beaucoup moins efficace d’avoir recours à ce genre de technique pour s’attirer artificiellement les faveurs du moteur.

Quelle stratégie adopter pour mettre en ligne des milliers de pages ?
Sur Twitter, un internaute a demandé à John Mueller s’il devait publier les 8 000 nouvelles pages de son site d’un seul coup ou s’il ne serait pas plutôt préférable de procéder de façon progressive. Réponse de l’intéressé : « S’il s’agit d’un excellent contenu qu’Internet a manqué et que les utilisateurs attendaient, pourquoi le retarderiez-vous artificiellement ? » Dans la suite de la conversation, John Mueller précise quelque peu son propos en affirmant que le projet de son interlocuteur, des pages automatiquement générées depuis une base de données, ne semble pas vraiment aller dans le sens de ce qui est attendu par Google.
Source : Search Engine Roundtable
Taux de fiabilité :
À une époque, mettre en ligne autant de nouvelles pages pouvait potentiellement déclencher une alerte rouge chez Google. Depuis, les choses ont changé, et il semblerait que Google soit bien plus à l’aise avec une telle ouverture de vanne, à condition que la qualité et la pertinence soient au rendez-vous.

Quel poids pour les liens issus de sites d’actualités ?
À la suite d’une discussion lancée par Patrick Stox d’Ahrefs, John Mueller a indiqué que les liens issus de sites d’actualités n’étaient pas traités différemment des autres liens : « pourquoi les liens provenant de sites d’actualités seraient-ils traités différemment ? » Dans la suite de son intervention, le célèbre employé de Google précise toutefois que la manière dont sont traités les liens ne dépend pas forcément du type de site (c’est-à-dire un site d’actus ou non), mais des caractéristiques de chaque site : « un site qui publie constamment de nouveaux contenus est extrêmement différent d’un site de référence stable. Pensez au fonctionnement du PageRank, si vous voulez être technique. »
Source : Search Engine Journal
Taux de fiabilité :
La remarque de John Mueller paraît assez logique dans la mesure où la qualité de l’architecture et la pertinence des informations peuvent grandement varier d’un site d’actualités à l’autre.

Disparition d'un site sur un mot clé spécifique
Durant la dernière édition du SEO Office Hours, Gary Illyes a apporté une réponse aux propriétaires qui constatent la disparition de leur site sur certains mots clés spécifiques, alors qu’ils étaient parfois classés en première position. Même si l’analyste de Google indique qu’une telle situation n’a rien d’inhabituel, il recommande toutefois de vérifier si la tendance se confirme dans d’autres régions du monde pour voir si le problème est global ou non. Si le site n’apparaît pas sur les mots clés en question, quel que soit l’endroit où la recherche est effectuée, il y a effectivement sans doute un problème plus profond à investiguer. Parmi les potentielles raisons évoquées par Illyes : un changement dans la structure des liens internes, l’acquisition de nouveaux liens, l’utilisation de l’outil de désaveu… »
Source : Search Engine Journal
Taux de fiabilité :
À moins d’avoir identifié un problème technique évident ou une montée en puissance de la concurrence sur certains mots clés bien spécifiques, il est parfois difficile de trouver la cause d’une telle disparition. En plus des pistes évoquées par Gary Illyes, il existe de nombreux autres points, techniques ou non, qui peuvent expliquer un tel phénomène.

Rien n’est jamais acquis, même pour un site de qualité
Sur Twitter, John Mueller a répondu à un internaute qui s’étonnait de voir son site de trois ans disparaître de Google Actualités. Selon le Senior Search Analyst de Google, le fait qu’un site soit dans les petits papiers du moteur ne signifie pas que ce sera toujours le cas pour autant. Parmi les nombreuses raisons qui peuvent expliquer cette situation : une dégradation de la qualité des sites, comme c’est parfois le cas après un rachat ou lorsque la qualité du contenu n’arrive plus à s’aligner sur ce que fait la concurrence. »
Source : Search Round Table
Taux de fiabilité :
Cela peut paraitre évident, mais tout site ayant connu ses heures de gloire par le passé peut rapidement perdre sa couronne s’il stoppe ses efforts, d’autant plus lorsqu’il doit faire face à une concurrence acharnée. Sur ce point, il est toutefois fort probable que Google fasse preuve d’un peu plus d’indulgence avec un site bien installé qu’avec le premier outsider venu…