De plus en plus de personnes s’informent via ChatGPT, Copilot, Gemini ou Perplexity. Une vaste étude internationale menée par la BBC et l’Union européenne de radio-télévision (UER) révèle pourtant des distorsions systémiques dans les réponses produites par ces outils. Loin d’être neutres, ils inventent, déforment et citent mal leurs sources, représentant une menace directe sur la confiance du public et le travail des professionnels.

Ce qu'il faut retenir :

  • Près d’une réponse sur deux générée par les assistants IA présente au moins une erreur significative.
  • Les problèmes d’exactitude et de sourcing sont récurrents dans toutes les langues et zones géographiques.
  • Google Gemini ressort comme l’assistant le moins fiable, avec 76% de réponses jugées problématiques.
  • Les acteurs publics européens appellent à un suivi indépendant et à une meilleure régulation des IA d’information.

L’IA s’installe dans les usages quotidiens

L’intelligence artificielle générative a profondément transformé notre rapport à la connaissance. En 2025, il suffit de poser une question à ChatGPT ou Gemini pour obtenir en quelques secondes une synthèse d’actualité, un résumé de reportage ou l’explication d’un événement politique. Ces outils font désormais partie du quotidien des internautes, au point de remplacer progressivement les moteurs de recherche traditionnels. Selon le Digital News Report 2025 de l’Institut Reuters, 15 % des moins de 25 ans utilisent régulièrement les assistants IA pour s’informer, contre 7 % de l’ensemble des internautes.

Une étude, menée par Pew Research Center aux USA, montre que 8 % des parents indique que leur enfant de 5 à 12 ans est utilisateur de chatbot IA. Du côté des 5 à 7 ans, 3 % ont déjà utilisé une IA.

Une autre étude internationale menée par la BBC et l’Union européenne de radio-télévision (UER), rendue publique le 22 octobre 2025, tire la sonnette d’alarme. Après des milliers de tests menés dans 18 pays et 14 langues, les chercheurs concluent que les assistants IA, censés faciliter l’accès à l’information, déforment en réalité le contenu journalistique, et pas qu’un peu !

Une distorsion systémique de l’information

L’étude, qui a mobilisé 22 radiodiffuseurs de service public européens, dont Radio France, a soumis quatre grands assistants (ChatGPT, Copilot, Perplexity et Gemini) à 30 questions d’actualité. Les journalistes ont ensuite évalué près de 3 000 réponses selon des critères précis : l’exactitude, la contextualisation, la distinction entre les faits et les opinions, et enfin, la qualité des sources.

Le verdict est sans appel : 45 % de ces réponses présentaient au moins un problème significatif. Dans un cas sur cinq, les erreurs étaient majeures : informations obsolètes, détails inventés ou citations falsifiées.

Les défauts de sourcing sont apparus comme la principale cause : 31 % des réponses comportaient des attributions incorrectes ou trompeuses, souvent sans lien avec les sources originales.

Google Gemini, beau dernier de la classe

Si tous les assistants testés, sans exception, ont montré des failles, c’est Gemini, développé qui s’est distingué nettement en raison de ses contre-performances. Près de trois quarts (76 %) de ses réponses étaient erronées ou incomplètes. Dans le cas de Radio France, ce taux est même monté à 93 % !

Un exemple cité par l’étude illustre bien le problème : interrogé sur la polémique autour d’un supposé salut nazi du milliardaire Elon Musk lors de l’investiture de Donald Trump, Gemini a pris pour argent comptant une chronique satirique de France Inter signée Charline Vanhoenacker. Présentée comme une source d’information factuelle, cette chronique était pourtant humoristique. Aïe.

De même, Perplexity et ChatGPT ont confondu faits et opinions dans plusieurs réponses liées au contenu de médias publics européens, inventant ou modifiant des citations. Si elles peuvent prêter à sourire, ces erreurs de contexte peuvent toutefois nuire directement à la crédibilité des médias concernés.

Une menace pour la confiance du public

Pour Liz Corbin, directrice de l’information à l’UER, ces résultats démontrent que ces défaillances « ne sont pas des cas isolés », mais bien des problèmes « systémiques, mondiaux et multilingues ».

« Ils sont systémiques, mondiaux et multilingues, et nous pensons que cela représente un grave danger pour la confiance du public. Lorsque les gens ne savent plus à quoi se fier, ils finissent par ne plus rien croire du tout, ce qui conduit à un repli sur soi démocratique. »

Peter Archer, responsable des programmes d’IA générative à la BBC, ajoute que les assistants IA « imitent l’autorité du journalisme sans en respecter la rigueur ».

Les auteurs de l’étude mettent en garde contre une conséquence préoccupante : l’érosion de la confiance du public envers l’information. Si les utilisateurs ne sont plus en mesure de distinguer le vrai du faux dans les réponses produites par des systèmes censés leur simplifier la vie, c’est l’ensemble de l’écosystème démocratique qui se trouve fragilisé.

L’UER et la BBC appellent donc à un encadrement renforcé. Leurs recommandations incluent un suivi indépendant et continu de la qualité des réponses, la création d’une taxonomie des biais les plus fréquents et des conseils aux développeurs d’IA pour améliorer la fiabilité des modèles. Elles rappellent aussi que la conformité avec les lois européennes sur les services numériques et l’intégrité de l’information n’est pas optionnelle.

Bannière ChatGPT FormaSEO

Une utilisation massive, mais sans vérification

Cette alerte intervient alors que l’usage de ces technologies dépasse largement le cadre de la curiosité. Dans les entreprises, le marketing, l’éducation et même la recherche, l’IA générative est devenue un outil de productivité incontournable. De nombreux professionnels s’appuient sur elle pour synthétiser des données, traduire ou produire du contenu rapidement, dont les rédacteurs et spécialistes du SEO !

Pour autant, peu d’entre eux prennent le temps de vérifier les sources ou la véracité des réponses fournies. Selon d'autres données citées dans l’étude, la grande majorité des utilisateurs ne cliquent presque jamais sur les liens associés aux résumés d’actualité affichés par les IA. Cette habitude renforce le risque d’une déformation durable de la perception collective de l’information.