Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces questions : Travailler son GEO nécessite-t-il des optimisations spécifiques ? Que faire des pages événements obsolètes ? Pourquoi utiliser un noindex en header de ses fichiers llms.txt ?
Pas besoin d’optimisation « GEO » pour apparaître dans les AI Overviews ou l’AI Mode
Google confirme qu'aucune optimisation particulière n'est nécessaire pour les AI Overviews et AI Mode. Gary Illyes a clairement établi que les pratiques SEO traditionnelles suffisent amplement pour se classer dans les nouvelles fonctionnalités de recherche IA. L'entreprise insiste sur le fait que l'IA est déjà profondément intégrée à chaque étape du processus de recherche depuis 10 ans (exploration, indexation, classement), utilisant la même infrastructure que la recherche classique : même crawler, même index et mêmes systèmes de ranking.
En pratique, cela signifie que les professionnels du SEO n'ont pas besoin de développer de nouvelles stratégies « AI SEO » ou « AEO/GEO ». Pour la firme de Mountain View, les bonnes pratiques SEO existantes restent la clé pour réussir dans l'écosystème de recherche de Google, qu'il s'agisse de résultats traditionnels ou ceux alimentés par l'IA.
Source : Search Engine Journal
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Si l’on considère le GEO (ou AI SEO) comme une « simple » extension du SEO, il apparaît assez évident qu’il ne soit pas nécessaire de réinventer la roue. Si les pratiques sont bien sûr vouées à évoluer, les fondamentaux demeurent, notamment en ce qui concerne l’accessibilité des sites et la qualité du contenu.
Goossip #2
Que faire des pages d’événements déjà passés ?
John Mueller a prodigué des conseils pratiques sur la gestion SEO des pages web de spectacles, événements ou performances, une fois ceux-ci terminés. Il compare cette situation à celle des produits épuisés en e-commerce, soulignant qu'il n'existe pas de solution universelle. L'approche recommandée dépend entièrement de la valeur long terme que peut apporter la page aux utilisateurs
L'intéressé propose trois stratégies selon le type de contenu. Pour les spectacles uniques ou exceptionnels susceptibles d'intéresser les gens à long terme, il recommande de conserver la page comme référence durable en expliquant son historique. Pour les événements ayant un intérêt temporaire limité (quelques mois), il suggère d'attendre que l'intérêt retombe avant de créer une erreur 404. Enfin, pour les contenus très génériques sur des sites avec beaucoup de rotation, il conseille de supprimer immédiatement les pages (404) pour nettoyer le site et passer à autre chose
Cette approche pragmatique reflète la philosophie SEO de Google axée sur l'utilité pour l'utilisateur. L'objectif est de maintenir en ligne uniquement les contenus qui apportent une valeur réelle, tout en évitant d'encombrer l'index avec des pages obsolètes sans intérêt. John Mueller note également que l'utilisation de balises comme « unavailable_after » serait excessive dans ce cas de figure.
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Cette déclaration est assez logique dans la mesure où Google répète à l’envi que le seul contenu qui vaille vraiment le coup est celui qui est utile aux internautes. Dans ce cas de figure, des contenus faisant référence à des événements passés, les pages ont effectivement peu d’utilité (si ce n’est historique) et pourraient même parasiter d’autres événements, créant de la frustration chez les internautes et de la confusion dans l'indexation.
Goossip #3
Utiliser noindex en header a du sens avec le fichier llms.txt
John Mueller a répondu à une question portant sur les fichiers llms.txt et leur potentiel impact en tant que contenu dupliqué. Il a expliqué que ces fichiers ne seraient considérés comme du contenu dupliqué que si leur contenu était identique à une page HTML, ce qui n'aurait pas de sens étant donné leur utilité spécifique. Les fichiers llms.txt sont conçus pour fournir aux modèles de langage une version formatée en Markdown du contenu principal d'un site, située à la racine du domaine, et ne servent pas du tout le même objectif que robots.txt.
Cependant, Mueller recommande d'utiliser un en-tête noindex pour ces fichiers. Sa justification est d’ordre purement pratique : des sites externes pourraient créer des liens vers ces fichiers llms.txt, ce qui pourrait les faire indexer par Google et créer une expérience « étrange » pour les utilisateurs qui tomberaient dessus dans les résultats de recherche. L'utilisation d'un noindex empêche le contenu d'entrer dans l'index de Google, contrairement au blocage via robots.txt qui empêcherait simplement Google de crawler le fichier et donc de voir la directive noindex.
Source : Search Engine Journal
Taux de fiabilité : ⭐⭐ On a quelques doutes...
La recommandation est judicieuse. Rappelons toutefois que le fichier llms.txt est, pour le moment, totalement ignoré par les LLMs.