AI Act : que contient le texte européen pour réguler les usages de l’IA ?
Après de longs débats, l’Union européenne a trouvé un accord pour la régulation des systèmes d’IA. Mais ces décisions, et leurs exceptions, sont déjà vivement critiquées.

Les États membres et le Parlement européen s’accordent sur l’IA
Il aura fallu 35 heures d’échanges pour que les États membres et le Parlement européen trouvent un accord au sujet de la régulation de l’intelligence artificielle. Tard vendredi 8 décembre, Thierry Breton, commissaire européen, annonçait fièrement la nouvelle : « Historique ! l’Union européenne devient le premier continent à établir des règles claires pour l’utilisation de l’IA. L’AI Act est bien plus qu’un recueil de règles, c’est un tremplin pour les startups et les chercheurs de l’UE afin de mener la course mondiale à l’IA. Le meilleur reste à venir ! »
Si les débats furent si difficiles, ce fut en raison de l’équilibre difficile à trouver entre innovation et régulation. L’accord vise en effet à protéger les droits fondamentaux et à gérer les risques potentiels liés à l’utilisation de systèmes d’IA, mais sans empêcher l’innovation. Outre ces mesures protectionnistes, l’idée est de construire la confiance du public envers l’intelligence artificielle, en assurant une utilisation transparente de ces systèmes. Le texte, cependant, n’entrera en vigueur qu’en 2025. Il sera accompagné de la création d’un office européen de l’IA. Les entreprises qui iraient à l’encontre du texte risquent des amendes jusqu’à 7 % de leur chiffre d’affaires, avec un plafonnement à 35 millions d’euros.
5 mesures phares de l’AI Act
L’AI Act se pare de plusieurs mesures, qu’elles concernent l’IA générative ou les systèmes avancés, comme les modèles prédictifs à visée de surveillance par exemple. Au sujet de l’IA générative, le mot d’ordre est la transparence. La qualité des données utilisées pour l’entraînement des modèles, le respect des droits d’auteur et l’identification claire des contenus créés par IA représentent les points essentiels.
Parallèlement, des mesures s’appliqueront aux systèmes jugés à haut risque. L’AI Act se définit, sur le sujet, par 5 points principaux :
- Reconnaissance biométrique et identification faciale : la surveillance de masse et l’identification des personnes sur les lieux publics sont interdites.
- Social scoring : l’usage de l’IA pour créer des systèmes de notation sociale en fonction des comportements et des caractéristiques personnelles est interdit.
- Reconnaissance des émotions : la détection des émotions est interdite, notamment en raison de la précision de ces analyses et du potentiel de manipulation.
- Manipulation d’opinion et ingénierie sociale : la diffusion de fausses informations, la manipulation de l’opinion publique, sont autant de points que l’AI Act vise à empêcher.
- Application de la loi : l’utilisation de l’IA par les forces de l’ordre, pour la reconnaissance faciale par exemple, est interdite.
Des réactions mitigées
Néanmoins, ces annonces ont provoqué des réactions mitigées, notamment en France. L’interdiction de la reconnaissance faciale, de la surveillance de masse, ou de l’identification biométrique n’est pas totale. En effet, il existe des exceptions liées à la sécurité, comme la lutte contre le terrorisme par exemple. Ce que regrette par exemple Amnesty International : « Ne pas garantir une interdiction complète de la reconnaissance faciale constitue une occasion largement manquée de stopper et de prévenir des dommages colossaux aux droits de l’homme, à l’espace civique et à l’État de droit, qui sont déjà menacés dans toute l’UE » , peut-on lire sur le site de l’ONG.
« La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne », a réagi de son côté Daniel Friedlaender, responsable Europe de la Computer and Communications Industry Association, « un des principaux lobbys du secteur de la technologie », écrit Le Monde. En filigrane, la crainte pour les acteurs européens de « rater un nouveau virage technologique », alors que les Français Mistral AI et Hugging Face, ou l’Allemand Aleph Alpha souhaitent concurrencer les géants comme OpenAI. L’UE espère néanmoins que ces mesures donneront l’exemple à travers le monde, et que d’autres pays mettront en place une régulation des usages de l’IA.