IA et désinformation : quels risques pour la vie démocratique ?
Lyse Langlois, membre de la délégation québecoise présente à l’ECW, a exposé les risques potentiels que l’IA pourrait engendrer pour la vie publique et le processus électoral.
L’European Cyber Week, qui se tient à Rennes du 21 au 23 novembre, a accueilli une délégation canadienne pour échanger sur les enjeux de la cybersécurité à l’international. L’idée ? Trouver des points d’accroche afin de renforcer la coopération entre les États qui font face à ces problématiques. Celles-ci touchent de nombreux domaines, notamment ceux de la vie publique et politique.
À cette occasion, Lyse Langlois, directrice de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique, et enseignante à l’université Laval de Québec, est venue présenter les risques constatés depuis l’émergence de l’IA et notamment des agents conversationnels comme ChatGPT, et partager les mesures souhaitées pour garantir la bonne tenue du débat public et de la vie politique.
Quels sont les risques posés par l’IA dans la vie publique et politique ?
Lyse Langlois l’explique, « le Québec a mené une vaste consultation publique » dans le but de comprendre quels risques pouvaient poser l’intelligence artificielle, notamment depuis 2016 et l’arrivée des agents conversationnels ainsi que de l’IA générative. Le constat fut simple : l’IA pose un problème important quant à la démocratie et à la bonne tenue du processus électoral. Quatre risques majeurs ont été identifiés.
Le risque pour la vie privée
Le premier risque évoqué par l’experte québécoise est lié à la vie privée. Des techniques comme l’écoute sociale, le profilage, « pourraient par exemple permettre à des États de cibler des discours de contestation », faisant ainsi courir un risque important au processus démocratique. Il en va de même pour les capacités de prédiction de l’IA. « Cela pourrait effectivement affaiblir la protection de la vie privée, avec un impact potentiel sur le secret du vote », qui est un outil principal de nos processus électoraux, explique Lyse Langlois.
Le risque pour la transparence
Le marketing politique a de plus en plus recours au micro-ciblage pour transmettre les messages des partis ou gouvernements, en segmentant leur public. Ainsi, un problème de transparence quant à la vie politique peut se poser. « Les politiques peuvent rendre invisible une partie de leurs discours ou programmes à certains segments de l’électorat », décrypte Lyse Langlois, qui ajoute que « les décisions publiques doivent être accessibles à tous les citoyens ».
Un risque pour la délibération publique
Au fil des années, un véritable déficit délibératif tend à croître. Les citoyens n’ont pas forcément accès à toutes les informations nécessaires à une prise de décision sans biais à l’occasion d’une élection. Lyse Langlois alerte sur le fait que « l’IA exacerbe les dysfonctionnements de la délibération publique, notamment avec la fragmentation sociale ». Elle crée des biais en réduisant la cohésion sociale : « On est toujours avec le même groupe d’intérêt, donc dans une chambre d’écho. » Un phénomène qu’accentue donc l’intelligence artificielle.
Un risque de manipulation politique
Le risque de manipulation politique est le plus visible de nos jours. Là aussi, l’IA exacerbe ce problème, qui n’est pourtant pas nouveau dans la sphère politique. Mais avec « la capacité de l’intelligence artificielle à créer des contenus potentiellement trompeurs », cela pose un véritable « enjeu géopolitique, car il est de plus en plus difficile de repérer les hypertrucages », s’inquiète la chercheuse canadienne.
Quelles recommandations pour protéger la démocratie des risques liés à l’IA ?
Une fois ces risques majeurs constatés au Québec, mais qui peuvent toucher – ou touchent déjà – la plupart des démocraties occidentales, des recommandations ont été faites, aux régulateurs comme aux législateurs, afin de maintenir un processus électoral et démocratique sain. Voici les recommandations :
- Exiger que des plateformes numériques engagées dans les processus électoraux donnent accès aux données,
- Obliger la divulgation de la présence de l’intelligence artificielle, dans les contenus comme dans la segmentation, la captation de données, etc,
- Assurer le secret du vote,
- Interdire aux agents conversationnels (ou chatbots) de se présenter/comporter comme des humains,
- Obliger les partis qui pratiquent le microciblage de tenir un registre public accessible.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris