Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : comment Google parvient-il à déterminer la fiabilité d’un contenu ? Les mises à jour d’algorithme simultanées sont-elles habituelles chez Google ? Est-il judicieux de s’appuyer sur l’IA pour combler une perte de trafic ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 
Pas si simple pour Google de déterminer la fiabilité d’un contenu
Sur X, Danny Sullivan a expliqué que Google utilise des systèmes pour détecter si un contenu est fiable et s’il existe un consensus sur le web à propos de ce contenu. Cependant, bien que Google cherche à classer les contenus appréciés par les utilisateurs et que ces derniers préfèrent les informations fiables, il n’existe pas de réponse simple à la question entourant la vérification de la fiabilité. En somme, Danny Sullivan conseille simplement de « faire plaisir aux gens avec des informations fiables » afin de faire plaisir aux systèmes de Google.
Source : Search Engine Roundtable
Taux de fiabilité :
Nous n’en saurons malheureusement pas beaucoup plus. Google, qui s’appuie sur des informations fiables pour sa SGE, a récemment déclaré qu’il pouvait utiliser son algorithme MUM pour déterminer le consensus d’une information.
 
Google évite les mises à jour simultanées… la plupart du temps !
Sur X, Danny Sullivan a indiqué que Google essaye généralement d’éviter de faire se chevaucher les mises à jour d’algorithmes. Dans certains contextes, cela peut toutefois se produire, comme c’est le cas avec le lancement simultané de la Core Update et de la Spam Update de mars 2024, toutes deux déployées le même jour. L’amélioration de la qualité des résultats reste en effet prioritaire !
Source : Search Engine Roundtable
Taux de fiabilité :
Pas grand-chose à ajouter, si c’est que le déploiement simultané de plusieurs mises à jour n’est évidemment pas pour arranger les affaires des SEO, qui peuvent rencontrer des difficultés pour identifier leur impact avec précision.
 
Gonfler son contenu en s’appuyant sur l’IA est une mauvaise idée
Dans une discussion sur Reddit concernant les récentes mises à jour de Google et leur impact sur le trafic des sites, un internaute a fait part de son souhait de faire passer son contenu de 500 à 5 000 articles avec l’aide de l’IA afin de compenser une perte de trafic. John Mueller a répondu en indiquant qu’il s’agissait d’une mauvaise idée, suggérant plutôt de chercher des moyens de construire quelque chose de durable, même si cela implique de laisser tomber le site actuel pour un projet à long terme. Par ailleurs, il a souligné l’importance de faire preuve de patience et de miser sur la qualité en réponse aux dernières mises à jour de Google.
Source : Search Engine Roundtable
Taux de fiabilité :
Sur l’IA, Google s’est déjà positionné en indiquant qu’il ne s’opposait pas à son utilisation, tant que la qualité des contenus était au rendez-vous. Dans la pratique, cela semble toutefois un peu plus complexe que cela, surtout si l’idée est de gonfler artificiellement le volume d’un site en espérant un retour de trafic.