IA Act : quel impact pour les entreprises qui utilisent l’IA ?

Au coeur de tous les débats, l’intelligence artificielle est en passe d’être régulée par l’IA Act. Qu’en-est-il concrètement ? Qu’est-ce que cela implique ? On fait le point.

intelligence-artificielle-loi-impact
L'arrivée des IA génératives invite à repenser la régulation de l'intelligence artificielle. © Song_about_summer - stock.adobe.com

À l’occasion du festival Et Demain ? qui s’est déroulé à Nantes du 5 au 6 juin, nous avons assisté à une table ronde sur la thématique de la réglementation de l’IA, animée par le journaliste Jean Chabod. L’occasion pour 3 experts de partager leur vision sur le sujet :

  • Chloé Daudier, Ingénieure IA, vulgarisatrice scientifique et CEO d’Equilys,
  • Imane Bello, avocate spécialisée en IA et consultante,
  • Mehdi Triki, à la tête des relations publiques et institutionnelles du Hub FranceIA.

Retour sur l’importance de la régulation de l’intelligence artificielle et l’impact potentiel pour l’écosystème qui gravite autour.

Pourquoi il est nécessaire de réguler l’IA ?

Si l’intelligence artificielle est devenue une notion omniprésente dans notre quotidien, il est pourtant difficile de définir l’IA de manière précise, tant ce concept est vaste. Le Parlement européen décrit comme intelligence artificielle tout outil capable « de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». La CNIL précise que cette définition peut être élargie, en incluant « les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches ».

Pourtant, comme l’explique Imane Bello, il est primordial de définir concrètement l’intelligence artificielle, afin d’en comprendre les textes de lois applicables. D’autant plus que l’IA touche à des enjeux sociétaux importants, tels que :

  • Le traitement des données : pour entraîner un modèle de langage, il est nécessaire d’analyser des données sensibles en masse, de manière non biaisée,
  • L’impact écologique : le traitement et le stockage des données, et la génération de contenus engendrent un impact écologique non négligeable,
  • La responsabilité : avec l’IA générative, nous passons d’un modèle de responsabilité directe à un modèle de conformité. Concrètement, si ChatGPT génère des insultes envers une personne, il est nécessaire de définir qui va porter cette responsabilité (l’utilisateur, l’entreprise à l’origine de l’outil, ou les auteurs des données utilisées pour entraîner ces modèles ?)

Il est donc nécessaire de réguler l’IA afin que les données d’entraînement bénéficient d’un cadre structuré, et ainsi éviter les incidents et les mésusages.

De la genèse de la réglementation à l’IA Act

À l’origine, les entreprises sont soumises à différents standards de sécurité par rapport à la qualité de leurs produits ou de leurs services. Mais l’essor des nouveaux outils génératifs demande une mise à jour de ces standards. S’il existe d’ores et déjà un encadrement des deepfakes par le Code pénal et notamment via l’article 226-8, ainsi qu’un encadrement de l’usage des données personnelles avec le RGPD, il faut toutefois aller plus loin dans la réglementation de ces outils IA.

C’est dans ce contexte que l’Europe a pris les devants pour proposer un encadrement strict à travers l’IA Act, adopté le 13 mars dernier par le Parlement européen, et le 21 mai dernier par le Conseil de L’Union européenne.

Si l’Europe était déjà pionnière sur la thématique de l’usage des données personnelles avec la mise en place du Règlement général sur la protection des données, il est important de souligner la différence en termes d’objectif : le RGPD a pour but de protéger les consommateurs et leur vie privée, tandis que l’IA Act a davantage pour objectif d’encadrer et de protéger les entreprises à l’échelle européenne, en imposant un cadre éthique à travers différentes règles (cf. l’article 2 de l’IA Act).

À noter que l’IA Act sera publié au journal officiel de l’Union européenne dans les 2 prochains mois, avant une entrée en vigueur 20 jours plus tard.

Quel impact pour les entreprises qui intègrent de l’IA ?

Le règlement sur l’intelligence artificielle aura un impact différent selon la typologie de l’entreprise. Concrètement, l’IA Act définit plusieurs niveaux de risques :

  • Les systèmes d’IA aux risques inacceptables : comme par exemple le scoring social, c’est-à-dire d’affecter un crédit social à chaque personne,
  • Les systèmes d’IA à haut risque : qui touchent des domaines tels que l’éducation, la santé, ou les infrastructures critiques, et qui seront soumises différentes obligations de documentation, de gestion des risques et de sécurité,
  • Les systèmes d’IA à risque modéré : qui doivent assurer une transparence dans leur fonctionnement.

Par ailleurs, la Commission européenne estime que 15 % des startups du territoire qui intègrent de l’IA sont concernés par la classification à haut risque. Un chiffre qui pourrait passer entre 33 à 50 %, selon les enquêtes menées par les différentes associations européennes, dont le collectif Hub FranceIA, précise Mehdi Triki.

Ainsi, les entreprises qui proposent des IA intégrées à leurs produits ou services vont devoir se conformer à de nombreuses règles et directives. Cette mise en conformité est à double tranchant :

  • D’une part, les entreprises qui respectent le framework défini vont envoyer un signal positif aux consommateurs, qui démontrera que leurs produits sont fiables et respectueux de leurs données. Un élément de réassurance important, qui peut faire la différence par rapport aux concurrents.
  • D’autre part, cette mise en conformité risque d’être coûteuse, et peut donc freiner la croissance des startups qui ne disposent pas des fonds suffisants.

Si, à court terme, la compliance peut donc être un risque en termes de compétitivité  – puisque seules les entreprises qui bénéficient d’un budget conséquent pourront répondre à cette conformité -, à long terme, c’est la garantie d’un usage de l’IA respectueux. L’IA Act va également permettre de réguler l’engouement autour de l’IA, parfois utilisé à tort et à travers pour être bien vu ou décrocher des bourses.

Désormais, il faut attendre la publication officielle du texte et son entrée en vigueur pour mieux en mesurer ses conséquences, et pourquoi pas, à l’instar du RGPD, inspirer d’autres nations comme la Chine et les États-Unis concernant les régulations de l’IA.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs outils pour les professionnels du web