Les chatbots IA et les moteurs de recherche nouvelle génération bouleversent la manière dont nous consommons l’information. Moins de clics, moins de revenus publicitaires, et un modèle économique éditorial menacé. À Cannes, le patron de Cloudflare, Matthew Prince, a tiré la sonnette d’alarme : sans action rapide, les créateurs de contenus risquent de disparaître derrière un rideau d’IA.
Ce qu'il faut retenir :
- Explosion du « zero-click » : de plus en plus d’internautes se contentent des résumés IA sans cliquer vers les sites originaux, entraînant un effondrement du trafic pour les éditeurs.
- Ratios inquiétants : Google, OpenAI et Anthropic explorent des milliers de pages pour très peu de visites envoyées aux éditeurs.
- Riposte technique : Cloudflare développe des outils pour piéger ou bloquer les robots IA qui ignorent les consignes « no crawl ».
- Enjeu économique : sans compensation financière, l’écosystème de la presse et du web libre est en danger.
L’effondrement du trafic de référence
Matthew Prince, PDG de Cloudflare, ne mâche pas ses mots : « Les gens ne suivent plus les notes de bas de page ». Derrière cette petite phrase lâchée lors d’un événement Axios Live à Cannes, se cache un constat alarmant pour les éditeurs en ligne. De plus en plus d’internautes trouvent leurs réponses directement via des résumés générés par l’IA, sans jamais cliquer sur les liens menant aux sites d’origine. Résultat : le trafic de référence (referral traffic) s’effondre, emportant avec lui les revenus publicitaires, les abonnements potentiels et même la visibilité des marques éditoriales.
Un gouffre entre contenus aspirés et visites réelles
Les chiffres avancés par Prince donnent le vertige. Il y a dix ans, Google crawlait environ deux pages pour chaque visite envoyée à un site éditeur.
Il y a six mois, ce ratio était monté à :
- 6 pages crawlées pour une visite Google,
- 250 chez OpenAI (ChatGPT)
- 6 000 chez Anthropic (Claude)
Aujourd’hui, il a encore explosé :
- 18 pages crawlées pour une visite chez Google,
- 1 500 chez OpenAI
- 60 000 chez Anthropic.
Autrement dit, des milliards de pages sont aspirées pour nourrir l’intelligence artificielle, mais presque aucune visite n’est renvoyée vers les éditeurs.
Cette tendance n’est pas apparue du jour au lendemain. Elle s’inscrit dans le phénomène dit du « zero-click search », où les moteurs de recherche, notamment Google, fournissent directement des réponses sur leur page de résultats. Des fonctionnalités comme AI Overviews ou Search Live Voice permettent désormais à l’utilisateur d’obtenir des informations complètes sans jamais quitter Google. Selon plusieurs études citées par Press Gazette, ces innovations peuvent diviser par deux le taux de clics sur desktop, et jusqu’aux deux tiers sur mobile. Même quand les liens vers les sources originales existent, beaucoup d’utilisateurs ne les explorent plus : la réponse fournie par l’IA leur suffit.
Un manque à gagner colossal
Pour les éditeurs, cette évolution est dramatique. Moins de clics signifient moins d’impressions publicitaires, moins d’abonnements et une perte de notoriété. Les conséquences économiques sont déjà chiffrées : une analyse de 2024 évoquait des pertes de revenus se chiffrant déjà en milliards, avec une tendance à l’aggravation à mesure que l’adoption de l’IA s’accélère. En Europe, un consortium d’éditeurs allemands réclame 1,3 milliard d’euros par an à Google pour utilisation non rémunérée de contenus journalistiques. Aux États-Unis, la News/Media Alliance a lancé la campagne « Stop AI Theft » pour pousser à une législation imposant attribution et paiement lorsque l’IA exploite du contenu éditorial.
Prince souligne d’ailleurs que même les accords signés par certains médias avec OpenAI ou d’autres entreprises ne représentent souvent que des « millions de dollars par an », des sommes dérisoires face aux coûts de production du journalisme ou aux revenus publicitaires historiques. Certes, de gros deals, comme celui supposé de 250 millions de dollars sur cinq ans entre News Corp et OpenAI, montrent qu’il y a une valeur réelle derrière les contenus originaux. Mais tant que ces accords restent isolés, le risque est que les acteurs qui paient soient désavantagés par ceux qui continuent à piller gratuitement.
Il y a un peu plus d'un mois, Matthew Prince tirait déjà la sonnette d'alarme, face à David M. Rubenstein :
L'IA va fondamentalement transformer le modèle économique du web. Depuis 15 ans, le moteur de recherche est la recherche. D'une manière ou d'une autre, la recherche est le moteur de tout ce qui se passe en ligne.
Il y a 10 ans, une recherche sur Google affichait une liste de 10 liens bleus. Nous disposons de données sur la manière dont Google traitait ces 10 liens bleus. La réponse était que pour deux pages d'un site web extraites, Google vous envoyait un visiteur, n'est-ce pas ? Donc, extrayez deux pages, vous obtenez un visiteur. Et c'était le principe.
Au cours de ces dix années, certaines choses ont changé chez Google. Une chose qui n'a pas changé, c'est la vitesse d'exploration. Le taux d'exploration est toujours le même. Mais aujourd'hui, il faut extraire six pages pour obtenir un visiteur.
Qu'est-ce qui a changé ? La réponse est qu'aujourd'hui, 75 % des requêtes envoyées à Google obtiennent une réponse sans que vous quittiez Google, sur cette page. Alors, si vous voulez savoir… Quand David Rubenstein a-t-il fondé Carlyle ? Il y a une dizaine d'années, on pouvait accéder à une page Wikipédia ou autre. Aujourd'hui, la réponse apparaît directement sur la page, sans avoir à aller ailleurs.
Par conséquent, les créateurs de contenu original qui créaient ce contenu, s'ils tiraient de la valeur de la vente d'abonnements, de la publicité ou simplement de l'ego de savoir que quelqu'un lit leur contenu, ont disparu, n'est-ce pas ? C'est une chute vertigineuse. Et c'est la bonne nouvelle.
Il y a dix ans, Google était à 2:1. Aujourd'hui, il est à 6:1. Qu'en pensez-vous pour OpenAI ? 250:1. Qu'en pensez-vous pour Anthropic ? 6 000:1, n'est-ce pas ?
Le modèle économique du web ne peut donc survivre sans changement, car de plus en plus, les réponses aux questions que vous posez ne vous mèneront pas à la source originale, mais à un dérivé de cette source. Et si les créateurs de contenu Si elles ne peuvent pas tirer de valeur de ce qu'elles font, elles ne créeront pas de contenu original.
Et je pense que les entreprises d'IA les plus intelligentes, comme Sam Altman d'OpenAI et d'autres, l'ont bien compris. Mais en même temps, il ne peut pas se permettre d'être dupe. Il ne peut pas être le seul à payer pour du contenu alors que tout le monde l'obtient gratuitement. Il faut donc que ce modèle économique change.
Nous nous situons entre 80 % des entreprises d'IA qui utilisent Cloudflare, et 20 à 30 % du web, par exemple. Nous nous situons donc au milieu de tout cela. Et je pense que notre réflexion porte en partie sur ce point.
L'IA est-elle une mode, est-elle surestimée ? Je pense que la réponse est probablement oui et non. Je dirais que 99 % de l'argent que les gens dépensent aujourd'hui dans ces projets ne fait que s'enflammer. Mais 1 % sera incroyablement précieux. Et je ne peux pas vous dire ce qu'est ce 1 %. Nous devons donc peut-être tous mettre le feu à 100 dollars pour trouver ce dollar qui compte.
Cloudflare en chevalier blanc
Pour contrer ce pillage massif, Cloudflare ne se contente pas de discours. L’entreprise développe des outils techniques pour piéger les bots IA. Son « AI Labyrinth », lancé en mars 2025, crée de fausses pages générées par IA. Ces leurres, invisibles pour les visiteurs humains, piègent les robots qui violent les consignes « no-crawl » et les obligent à gaspiller leurs ressources dans un labyrinthe sans fin. En parallèle, Cloudflare collecte ainsi des données précieuses sur ces bots afin de mieux les bloquer. Ces mesures, assure Prince, ne nuisent ni au référencement SEO ni à l’expérience utilisateur des internautes légitimes.
Autre innovation, l’« AI Audit » de Cloudflare, déjà déployé, permet aux éditeurs de savoir quels acteurs aspirent leurs contenus, et à quelle fréquence. D’ici mi-2025, Cloudflare prévoit même de bloquer par défaut les crawlers IA au niveau du réseau, sauf si les éditeurs choisissent explicitement d’autoriser l’accès.
Pour Prince, la bataille est loin d’être perdue : « Je me bats chaque jour contre les gouvernements chinois, russes, iraniens, nord-coréens, probablement aussi américains ou israéliens, qui essaient de pirater nos clients. Et on me dit que je ne peux pas stopper quelques nerds avec une C-corporation à Palo Alto ? »
L’avenir passe par la monétisation des contenus de qualité
Au-delà de la riposte technique, la question cruciale est celle de la valeur économique des contenus. Prince estime que certains contenus spécifiques, hyperlocaux, très spécialisés ou fondés sur des données exclusives, restent difficilement imitables par les IA. Des informations précises sur l’enneigement d’une station de ski, par exemple, ou des résultats de recherches académiques pointues ne peuvent être synthétisées de façon fiable sans accès direct aux sources originales. Ces contenus ont donc un avenir, à condition d’être protégés et monétisés via des licences ou des abonnements.
Plusieurs voix dans l’industrie plaident ainsi pour des places de marché où les éditeurs factureraient l’accès à leurs contenus, à la manière des agences de presse. Mais la mise en œuvre s’annonce complexe : si un seul acteur paie et que les autres continuent de piocher gratuitement, le système reste bancal. Des micropaiements, où chaque requête IA déclencherait un micro-prélèvement au profit de l’éditeur, sont aussi envisagés, mais les défis techniques et l’impact sur l’expérience utilisateur freinent leur adoption.
L’équilibre du web repose depuis toujours sur un échange entre créateurs de contenu et plateformes qui les référencent. Si la balance penche trop en faveur des « answer engines » qui ne renvoient plus de trafic, l’incitation à produire de l’information de qualité disparaît. Pour les éditeurs, le signal de Matthew Prince est clair : il faut innover, défendre ses contenus et repenser les modèles économiques avant que l’IA ne les rende invisibles.