IA et protection des données : 6 questions soulevées par la CNIL

La CNIL publie sa feuille de route pour un « déploiement de systèmes d’IA respectueux de la vie privée », et portera notamment ses efforts sur les IA génératives.

IA-CNIL-protection-donnees
Le SIA, le service de l'intelligence artificielle de la CNIL, mènera les travaux sur les enjeux de protection des données personnelles. © Florence Piot - stock.adobe.com

IA : la protection des données, enjeu majeur pour la CNIL

Les systèmes d’intelligence artificielle sont sous le feu des projecteurs, des régulateurs et des contrôleurs ! Alors que l’Union européenne travaille sur son projet de réglementation des usages de l’IA, en France, la CNIL publie son « plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus ». Dans la continuité des travaux engagés depuis maintenant plus de six ans, cette feuille de route s’articule autour de quatre axes principaux pour 2023 :

  1. Appréhender le fonctionnement des IA et leurs impacts pour les personnes,
  2. Permettre et encadrer le développement d’IA respectueuses de la vie privée,
  3. Fédérer et accompagner les acteurs innovants du secteur en France et en Europe,
  4. Faire l’audit et contrôler les systèmes d’IA et protéger les personnes.

La CNIL compte parallèlement mettre l’accent sur les IA génératives, comme ChatGPT ou Midjourney, dont la démocratisation a été rapide, alors « que les enjeux juridiques, éthiques et techniques autour de leur développement et leur usage restent encore largement en débat ».

Les 6 enjeux de sécurité que soulève l’IA selon la CNIL

Le plan d’action de la CNIL passe par la compréhension des systèmes d’IA et « leurs impacts pour les personnes ». Pour elle, la protection des données est un enjeu majeur dans le cadre de l’usage de ces outils. Elle a ainsi chargé son service de l’intelligence artificielle (SIA), créé en janvier 2023, de travailler prioritairement sur six questions autour de la protection des données et des personnes. Il s’agit de :

  1. La loyauté et la transparence des traitements de données, qui découlent du fonctionnement de ces outils,
  2. La protection des données publiquement accessibles sur le web, afin d’empêcher le moissonnage de données pour la conception des outils,
  3. La protection des données transmises par les utilisateurs, allant de la collecte à une éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique,
  4. Les conséquences sur les droits des personnes sur leurs données, à la fois celles collectées pour l’apprentissage des modèles, et  celles qui touchent au contenu créé par les IA génératives,
  5. La protection contre les biais et les discriminations qui pourraient survenir,
  6. Les enjeux de sécurité inédits engendrés par ces nouveaux outils.

Dans sa réflexion, le SIA sera accompagné du LINC, le laboratoire d’innovation numérique de la CNIL. Cette dernière rappelle que « la régulation de l’intelligence artificielle » constitue un des « axes principaux » de son action.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Visuel enquête Visuel enquête

Prenez la parole dans le dossier Tendances 2026

Associez votre expertise à l'un des contenus phares de BDM !

Je participe

Les meilleurs outils pour les professionnels du web