Intelligence artificielle : de l’importance des principes de vigilance et de loyauté des algorithmes pour « garder la main »
La CNIL publie la synthèse du débat public organisé sur « les enjeux éthiques des algorithmes et de l’intelligence artificielle » . 3 000 personnes ont participé à 45 manifestations, avec pour objectif de donner des éléments de réponses à la question suivante : « comment permettre à l’Homme de garder la main ? ». La Présidente de la CNIL, Isabelle Falque-Pierrotin, a présenté ce rapport en présence du Secrétaire d’État chargé du Numérique, Mounir Mahjoubi, et du député chargé par le gouvernement d’une mission sur l’intelligence artificielle, Cédric Villani.
Pourquoi ce rapport sur les enjeux éthiques des algorithmes
Selon la Loi pour une République Numérique, la CNIL a pour mission de « mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies ». La question des algorithmes et de l’intelligence artificielle se pose, quand on voit les problèmes liés au logiciel APB (pour l’Admission Post-Bac) et le rôle des réseaux sociaux dans l’influence de l’opinion, notamment durant les élections présidentielles américaines. Objectif de ce rapport : « construire un panorama des enjeux éthiques [soulevés par l’intelligence artificielle] ».
Les problématiques soulevées par l’intelligence artificielle
Selon la CNIL, l’intelligence artificielle et l’importance croissante des algorithmes dans les services que nous utilisons entraînent plusieurs problématiques.
- L’autonomie humaine au défit de l’autonomie des machines : on délègue de plus en plus de tâches aux machines, « jugées infaillibles et neutres ». De cette tendance résulte une confiance aveugle de l’homme envers les machines et une dilution de la responsabilité (systèmes complexes et fragmentés).
- Biais, discrimination et exclusion : cette confiance excessive cache pourtant des défauts de conception qui entraînent des défauts de décision. Les algorithmes peuvent aussi avoir des effets néfastes d’exclusion pour les personnes qui ne correspondent pas strictement aux critères attendus.
- Fragmentation algorithmique : l’intelligence artificielle et le traitement fin des données permet de personnaliser les expériences, les produits et les services. Cette fragmentation importante risque d’affecter certaines logiques collectives essentielles, comme le pluralisme et la mutualisation du risque.
- Big Data : vous connaissez l’adage « Pas de data, pas de chocolat ». L’intelligence artificielle nécessite le traitement d’un nombre important de données pour « apprendre » (machine learning). Les libertés individuelles et les données personnelles doivent cependant être protégées.
- Qualité des données : outre la quantité de données, la qualité des données sélectionnées est un enjeu majeur pour concevoir des systèmes fiables et pertinents. Dans un contexte de confiance aveugle en la machine, l’homme ne doit pas oublier l’importance de son rôle dans le choix des données.
- Identité humaine, machines et systèmes hybrides : l’humanité sera rapidement challengée par l’intégration des machines dans le quotidien. L’apparition de « formes d’hybridation entre humains et machines » devrait accélérer les questionnements à ce sujet.
2 principes fondateurs pour réguler l’intelligence artificielle
Face à ces problématiques, soulevées par l’IA et les algorithmes, la CNIL érige deux principes fondateurs. « Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique, des « droits-système » organisant la gouvernance mondiale de notre univers numérique ».
Un principe de loyauté des algorithmes
La consultation publique a permis de sacraliser le « principe de loyauté » des algorithmes. En d’autres termes, tout algorithme se doit d’être loyal envers son utilisateur (dans son ensemble, en tant que consommateur et en tant que citoyen) voire envers des communautés potentiellement affectées par les choix effectués. La question de « l’effet bulle » des réseaux sociaux est évoquée, tout comme l’application de « mesures de police prédictives » sur des communautés.
Un principe de vigilance/réflexivité
Second principe identifié par la CNIL : l’importance de la vigilance régulière sur les programmes évolutifs. Le machine learning entraîne la création de logiciels mutants, dont les arbitrages futurs ne sont pas développés dès la conception. Les choix qu’ils effectuent dépendant d’observations et de leur nature découle souvent une confiance aveugle qui doit être remise en cause en permanence. « C’est l’ensemble des maillons de la chaîne algorithmique (concepteurs, entreprises, citoyens) qui doit être mobilisée pour donner corps à ce principe ».
Les recommandations opérationnelles de la CNIL
Pour mettre en œuvre ces deux principes, la CNIL a formulé six recommandations opérationnelles. Elles visent à proposer à l’ensemble de la société des actions à mettre en place pour « garder la main » sur l’intelligence artificielle :
- Former à l’éthique tous les acteurs de la « chaîne algorithmique »
- Rendre les systèmes algorithmiques compréhensibles
- Travailler le design des algorithmes « au service de la liberté humaine »
- Constituer une plateforme nationale d’audit des algorithmes
- Encourager la recherche sur l’IA éthique
- Renforcer la fonction éthique au sein des entreprises
Ces recommandations sont détaillées sur le site de la CNIL. Vous pouvez aussi accéder au rapport complet sur les enjeux éthiques des algorithmes et de l’intelligence artificielle et consulter le compte-rendu de la concertation citoyenne sur les enjeux éthiques liés à la place des algorithmes dans notre vie quotidienne.