Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces questions : est-ce que le terme GEO est validé par Google ? Qu'est-ce qui se cache derrière l'erreur « Page Indexed without content » ? Pourquoi Google a-t-il mis en ligne des fichiers LLMs.txt ?

Goossip #1

SEO vs GEO : la terminologie n’est pas le sujet

Sur Reddit, John Mueller a recadré le débat SEO/GEO comme une question d’allocation de ressources plutôt qu’un problème terminologique. Fondamentalement, John Mueller ne valide ni ne rejette le terme GEO, qui désigne l'optimisation de la visibilité dans les moteurs IA comme ChatGPT, Gemini ou Perplexity. Il affirme plutôt que « le nom n'a pas d'importance », mais reconnaît que l'IA ne va pas disparaître et qu'il vaut la peine de réfléchir à la façon dont la valeur d'un site fonctionne dans un monde où l'IA est disponible.

Par ailleurs, John Mueller insiste fortement sur la nécessité d’examiner les métriques d’audiences avant de réorganiser sa stratégie. Il recommande de comprendre quel pourcentage de votre audience utilise les outils IA, quel pourcentage utilise Facebook, et ce que cela signifie pour l'allocation de votre temps. En somme, il transforme la question du GEO en un problème d’arbitrage budgétaire.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Il est vrai qu’à trop vouloir déterminer ce qu’est le GEO de ce qui ne l’est pas, on pourrait avoir tendance à faire l’impasse sur l’essentiel : à quel point votre stratégie est-elle en phase avec la réalité des audiences ?

Goossip #2

Page indexées sans contenu : attention à la disparition de vos pages

John Mueller explique que l'erreur « Page Indexed without content » dans Search Console indique généralement un blocage au niveau du serveur ou du CDN, et non un problème JavaScript. Il s'agit d'une situation urgente, car les pages affectées risquent de disparaître de Google.

John Mueller précise que cette erreur signifie habituellement que votre serveur/CDN empêche Google de recevoir du contenu. Il s'agit généralement d'un blocage de bas niveau, parfois basé sur l'adresse IP de Googlebot, ce qui rend le problème impossible à tester en dehors des outils de test de Search Console. Les méthodes de test externes standard comme les commandes curl ou les robots d'exploration tiers ne détecteront pas ces blocages, car ils ciblent spécifiquement les plages d'adresses IP de Google.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Comme le précise Matt G. Southern sur Search Engine Journal, l’outil d’inspection d’URL de Search Console est le plus fiable pour observer ce que Google perçoit lors de l’exploration d’une page. En effet, les outils externes ne détectent pas les blocages basés sur l’adresse IP qui affectent uniquement Google.

Goossip #3

Le mystère de la présence de fichiers LLMs.txt sur des sites Google s’épaissit

Il y a quelques semaines, on découvrait l’existence de fichiers LLMs.txt dans plusieurs sites liés à Google. D’après John Mueller, ces fichiers n’ont pas été ajoutés volontairement pour favoriser la découverte des IA, mais dans le cadre d’un changement global de CMS, parfois sans que les responsables des sites en questions ne soient au courant. Certains ont été retirés depuis.

John Mueller précise que ces fichiers ne sont pas trouvables par défaut, car ils ne sont pas placés à la racine des sites. Il ajoute qu’il est « raisonnable de supposer qu’ils sont là pour d’autres raisons », sans préciser lesquelles, mais en indiquant clairement que ce n’est pas pour la découverte des contenus par des LLMs.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐ On a quelques doutes...

Oubli, tests, complot… Les affirmations de John Mueller ont de quoi laisser un peu perplexe. Toujours est-il que les fichiers LLMs.txt semblent plus que jamais ignorés par les systèmes auxquels ils se destinent.