Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : comment Google gère-t-il les annonces publicitaires avec AI Overviews ? Est-il risqué de spammer l'API d'indexation de Google ? Quel est l'impact des agents IA sur la saturation du web ? Comment le crawling de Googlebot a-t-il évolué depuis plusieurs années ?

Goossip #1

AI Overviews : le annonces publicitaires ne peuvent pas apparaître à plusieurs emplacements simultanément

Google a précisé que les annonces publicitaires ne peuvent pas apparaître simultanément à plusieurs emplacements dans les AI Overviews. Selon Ginny Marvin de Google’s Ads Liaison, une annonce peut s’afficher soit au-dessus/en dessous soit à l’intérieur des AI Overviews, mais jamais aux deux endroits en même temps. La priorité est donnée à l’emplacement au-dessus/en dessous si les deux options sont possibles. Cette clarification intervient alors que les AI Overviews se déploient dans plus de pays et que les publicités y sont désormais intégrées et en cours de test avec le mode IA.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Voici une précision intéressante pour ce qui se demandaient comment Google allait gérer la cohabitation entre ses différents services, en particulier avec l’implémentation des AI Overviews.

Goossip #2

Arrêtez de spammer l’API d’indexation avec du contenu non pris en charge

Sur Bluesky, John Mueller a une nouvelle fois expliqué que l’Indexing API ne doit être utilisée que pour deux types de contenus : les offres d’emploi et les flux en direct. John Mueller a souligné que de nombreux SEO, souvent des spammeurs, détournent cette API pour d’autres usages non pris en charge. Il recommande vivement de s’en tenir aux cas documentés. Google précise que même si l’API peut parfois accélérer l’indexation, le contenu ainsi ajouté est souvent rapidement retiré de l’index.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Même si John Mueller ne parle pas ouvertement de pénalités, il ne semble pas particulièrement judicieux de trop jouer avec l’entreprise qui fait la pluie et le beau temps sur la recherche en ligne.

Goossip #3

Et si les agents IA finissaient par saturer le web ?

Gary Illyes alerte sur l’arrivée massive de bots pilotés par l’IA, qui risque de saturer le web. Selon lui, ce n’est pas le crawl qui consomme le plus de ressources, mais le traitement et le stockage des données. Il recommande aux propriétaires de sites de renforcer leur hébergement, d’optimiser leurs bases de données et de revoir leur fichier robots.txt. Alors que le trafic automatisé explose, anticiper ces évolutions est crucial pour éviter d’être submergé. Des solutions collectives comme Common Crawl pourraient atténuer cette pression.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

En effet, difficile de ne pas penser aux conséquences potentiellement considérables que pourront avoir les agents IA sur les sites. S’ils ne pas forcément possible de tout prévoir, une bonne dose d’anticipation est de mise !

Goossip #4

Depuis plusieurs années, le principe du crawling a peu évolué, mais…

Gary Illyes est revenu sur l’évolution de Googlebot dans le podcast Search Off the Record. Si les principes de base du crawling ont peu changé, des améliorations techniques notables ont eu lieu, comme le passage aux protocoles HTTP/2 (et bientôt HTTP/3), qui permettent des connexions plus efficaces. Il évoque aussi les différences de comportement entre crawleurs, entre respectueux du robots.txt et ceux plus « adversaires », comme les scanners de malwares.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Pas grand chose à ajouter si ce n'est qu'il est toujours intéressant d'en apprendre un peu plus sur ce type de sujet !