Alors que les régulateurs américains et britanniques s’attaquent à la domination de Google dans le domaine de la recherche en ligne, des documents internes révèlent que l’entreprise a délibérément refusé de laisser aux éditeurs un véritable contrôle sur l’utilisation de leurs contenus par l’IA.
Ce qu'il faut retenir :
- Google a considéré, puis écarté, l’idée de laisser les éditeurs refuser l’usage de leurs contenus pour l’IA.
- Le système de contrôle proposé (comme le tag « no-snippet ») limite l’affichage, mais pas l’entraînement des IA ni leur usage dans les résumés.
- Pour bloquer totalement l’utilisation de leur contenu, les éditeurs doivent disparaître des résultats de recherche.
- La justice américaine pourrait imposer des sanctions sévères à Google, dont la vente de Chrome ou le partage de données.
Google, l’IA et les éditeurs : un relation asymétrique
Des documents révélés dans le cadre du procès antitrust aux États-Unis contre Google montrent que la firme de Mountain View a envisagé, sans toutefois le mettre en œuvre, un système permettant aux éditeurs d’interdire l’usage de leurs contenus pour alimenter les réponses générées par l’intelligence artificielle. Ces contenus nourrissent désormais les résumés générés par IA (AI Overviews) qui apparaissent en haut des résultats de recherche, notamment aux USA.
Cette option, qualifiée en interne de « hard red line », aurait permis aux éditeurs de dire non à l’utilisation de leurs données dans le cadre du grounding (ou ancrage), c’est-à-dire l’utilisation de leur contenu pour renforcer la fiabilité des réponses générées par l’IA, sans pour autant les exclure de la recherche classique. Mais Google a refusé d’aller dans ce sens.
Le choix illusoire des éditeurs
Aujourd’hui, les éditeurs ont une alternative très limitée : soit ils autorisent Google à indexer et réutiliser leurs contenus, y compris dans les résumés IA ; soit ils optent pour un retrait complet des moteurs via le blocage du Googlebot, et deviennent ainsi invisibles pour la majorité des internautes.
Pour Matt Rogerson, directeur des politiques publiques du Financial Times, cela revient à un « choix intenable ». En effet, bloquer l’indexation revient à se couper d’une audience massive (plus de 90 % du trafic de recherche au Royaume-Uni), tandis qu’autoriser la réutilisation revient à céder une ressource précieuse, leur propriété intellectuelle, sans véritable compensation.
Une transparence toute relative
Les documents présentés au tribunal montrent également que Google a sciemment décidé de ne pas annoncer publiquement les implications des balises comme « no-snippet ». Officiellement, elles servent à empêcher l’affichage de courts extraits dans les résultats. En réalité, elles permettent aussi de limiter l’usage pour le grounding, sans pour autant empêcher que les contenus soient utilisés pour l'entraînement des IA.
La firme recommande donc d’éviter toute mention de cet usage caché. Un extrait de présentation interne le dit clairement : « Recommander de ne pas dire que cela permet de se retirer du grounding, car cela évolue vers un espace de monétisation. »
Une frontière floue entre IA et moteur de recherche
L’un des éléments les plus explosifs du procès concerne l’aveu fait par un vice-président de DeepMind, la branche IA de Google : même si un éditeur a explicitement refusé que ses contenus soient utilisés pour entraîner les IA de Google, ces mêmes contenus peuvent quand même être utilisés par les modèles intégrés à la recherche.
En d’autres termes, une fois que Gemini est intégré dans le Search, il bénéficie automatiquement de l’accès aux données des sites web, même si ceux-ci avaient opté pour un refus explicite. Cette fusion des fonctions IA et recherche pose de sérieuses questions sur le respect du consentement des éditeurs.
Des conséquences économiques concrètes
Ce n’est pas la première fois que Google tente de limiter la visibilité des éditeurs pour renforcer son contrôle. En 2019 déjà, des tests de retrait des extraits avaient entrainé une chute drastique du trafic vers les sites d’information, pouvant atteindre -45 %. Une perte de trafic qui profite indirectement aux plateformes sociales et à la vidéo, moins soumises à ces restrictions.
Cette pression, exercée sur fond de transformation radicale du moteur de recherche par l’IA, met les éditeurs dans une situation complexe : leurs contenus deviennent des matières premières gratuites pour les modèles génératifs, sans que des règles claires ou équitables ne soient mises en place.
En refusant de mettre en place des mécanismes de contrôle robustes pour les éditeurs tout en intégrant l’IA dans ses modèles de recherche, Google poursuit sa transition vers une plateforme d’affichage automatisé de l’information, au détriment de la souveraineté des producteurs de contenus.