Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces questions : Que change le GEO aux pratiques SEO ? Quelles sont les conséquences de la casse sur la canonicalisation ?

Goossip #1

Google fait le point sur le SEO pour l’IA

Interviewé par Marina Mogilko sur le référencement dans le contexte de la recherche alimenté par IA (AI Mode et AI Overviews), Robby Stein (VP of Product de Google Search) explique que le SEO pour l’IA (AEO, GEO…) repose sur les mêmes fondations que le SEO classique, mais que la nature des requêtes change profondément.

Ainsi, les requêtes adressées à l’IA sont souvent plus complexes et contextuelles, généralement orientées vers des guides pratiques (how to), des conseils d’achat, ou des demandes d’expertise ou de devis. Les créateurs de contenu doivent donc comprendre ces nouveaux usages et adapter leurs stratégies éditoriales à ces intentions.

Autre nécessité : être cité dans des articles, classements, mentions publiques contribue fortement à la visibilité dans les réponses générées par l’IA, car le modèle favorise les sources réputées et souvent référencées. Le PR est donc lui aussi un levier d’exposition auprès de l’IA, pas seulement auprès des internautes.

Enfin, les avis peuvent jouer un rôle dès lors qu’ils apportent une valeur réelle. En revanche, acheter des avis a peu d’intérêt dans la mesure où l’IA recherche avant tout l’authenticité et la pertinence, comme un humain.

Source : Search Engine Rountable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Même s’il est important de continuer de travailler les fondamentaux du SEO, de nouveaux éléments entrent désormais en ligne de compte avec le développement du GEO. Ne passez pas à côté !

Goossip #2

URLs, canonicalisation, robots.txt… Attention à la casse !

Comme le rappelle John Mueller, la casse joue un rôle dans la canonicalisation : Google peut choisir une version canonique différente si les URLs varient uniquement par la casse. La sensibilité à la casse impacte aussi la gestion du fichier robots.txt : les chemins indiqués dans les règles doivent correspondre exactement à l’URL à bloquer ou autoriser.

Par conséquent, si deux URLs avec des casses différentes affichent le même contenu, Google essaiera généralement de les regrouper comme doublons. Mais, miser sur cet « espoir » n’est pas une stratégie SEO viable. Il est donc fortement conseillé d’être cohérent dans l’utilisation des majuscules/minuscules dans toutes les URLs du site.

Idem pour le fichier robots.txt : les règles ne s’appliquent que si la casse correspond exactement ; il faut prévoir tous les cas ou uniformiser.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Assurez-vous de toujours utiliser une casse uniforme dans vos URLs et fichiers robots.txt pour éviter les problèmes de référencement ou de crawl. Google conseille la cohérence pour éviter des comportements imprévus et des erreurs SEO.