Face à la recrudescence des deepfakes et des dérives de l’intelligence artificielle, l’Espagne prend les devants. Le gouvernement a récemment adopté un projet de loi qui impose des obligations de transparence strictes aux entreprises utilisant l’IA, assorties de sanctions pouvant atteindre 35 millions d’euros. Ce texte ambitieux, aligné sur l’IA Act européen, entend protéger les citoyens contre la désinformation, les manipulations et les usages abusifs de la biométrie.
Ce qu'il faut retenir :
- Ne pas étiqueter un contenu généré par IA sera puni d’une amende pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial.
- Le projet de loi interdit les deepfakes non signalés, les techniques subliminales et certaines formes de profilage biométrique.
- AESIA, nouvelle agence nationale, assurera la supervision de l’application de la loi.
- L’Espagne devient l’un des premiers pays de l’UE à intégrer concrètement les principes du règlement européen sur l’IA (AI Act).
L’Espagne dégaine une loi anti-deepfakes et encadre l’usage de l’IA
Mardi 11 mars 2025, le Conseil des ministres espagnol a approuvé un projet de loi ambitieux visant à encadrer strictement l’usage de l’intelligence artificielle sur son territoire. Ce texte, qui doit encore être validé par la Chambre basse du Parlement, prévoit des sanctions exemplaires pour les entreprises qui ne respecteraient pas les nouvelles obligations de transparence en matière de contenus générés par IA.
Au cœur de cette initiative : la lutte contre les deepfakes, ces vidéos, photos ou enregistrements audio générés ou modifiés par IA pour tromper le public en simulant des contenus réels. Pour le gouvernement, il s’agit d’une priorité démocratique. Comme l’a rappelé le ministre de la Transformation numérique, Óscar López : « L’IA est un outil très puissant qui peut être utilisé pour améliorer nos vies… ou pour diffuser de la désinformation et attaquer la démocratie. »
Des sanctions lourdes pour les manquements
Le texte espagnol qualifie le non-étiquetage d’un contenu IA d’ « infraction grave », passible de sanctions financières importantes : entre 7,5 et 35 millions d’euros, ou de 2 à 7 % du chiffre d’affaires global annuel de l’entreprise concernée. Des amendes réduites sont prévues pour les startups et PME.
Cette obligation d’étiquetage concerne tout contenu généré par IA, en particulier ceux pouvant induire en erreur le public, comme les deepfakes ou les textes ayant pour vocation d’informer le public. L’objectif est clair : rétablir la confiance dans l’information à l’heure où la génération de contenu automatisé brouille de plus en plus les frontières entre le vrai et le faux.
Encadrement des pratiques à risque
Mais la loi va plus loin. Inspirée de l’AI Act européen, elle cible également certaines pratiques jugées dangereuses ou discriminatoires. Sont ainsi interdites :
- Les techniques subliminales basées sur des sons ou images imperceptibles, utilisées pour influencer des publics vulnérables. Par exemple, des chatbots incitant des personnes dépendantes au jeu à parier.
- L’analyse biométrique à des fins de profilage, comme le classement de personnes selon leur race, orientation sexuelle, opinions politiques ou croyances religieuses, notamment à partir de leurs comportements sur les réseaux sociaux.
- L’usage de la biométrie sans supervision humaine, y compris dans les systèmes de pointage d’employés, pourra également être sanctionné de 500 000 à 7,5 millions d’euros ou jusqu’à 2 % du chiffre d’affaires.
Des exceptions pour la sécurité nationale
La loi n’interdit pas tout usage de la biométrie : la surveillance biométrique en temps réel dans les espaces publics restera autorisée, mais uniquement pour des raisons de sécurité nationale. Cette clause vise à permettre aux forces de l’ordre d’agir dans des contextes sensibles tout en encadrant les dérives.
Une autorité dédiée pour surveiller l’application
Le contrôle de cette future législation sera confié principalement à AESIA, la nouvelle agence espagnole pour la supervision de l’IA. D’autres autorités interviendront pour les cas touchant à la vie privée, aux élections, aux marchés financiers ou à la criminalité.
Avec ce texte, l’Espagne s’impose comme l’un des leaders européens en matière de régulation de l’intelligence artificielle. En transposant rapidement l’IA Act européen dans son droit national, elle envoie un signal fort aux entreprises du numérique : l’innovation ne peut se faire au détriment de la transparence, de l’éthique et des libertés fondamentales.
Reste à savoir si cette mesure historique pourrait ou non inspirer les autres pays européens, et en particulier la France, qui observe pour l’instant sans légiférer aussi fermement. Face à l’urgence de réguler les usages de l’IA générative, le texte espagnol pourrait bien servir de modèle, ou à tout le moins de déclencheur, pour des initiatives similaires à l’échelle du continent.