RGPD : OpenAI et ChatGPT font face à une nouvelle plainte en Europe
L’association noyb porte plainte contre OpenAI. Elle reproche à ChatGPT de générer des réponses erronées sur certains individus.
noyb porte plainte contre OpenAI
Ce lundi 29 avril 2024, l’association noyb (None Of Your Business) a annoncé avoir porté plainte contre OpenAI auprès de l’autorité autrichienne de protection des données. L’organisation spécialisée dans la défense des données personnelles reproche à ChatGPT de générer des informations erronées sur des individus. Selon noyb, OpenAI violerait trois articles du Règlement Général sur la Protection des Données (RGPD) :
- L’article 5, qui indique que les données à caractère personnel diffusées doivent être exactes.
- L’article 15, qui dispose que les entreprises doivent être en mesure d’indiquer aux personnes concernées les données personnelles qu’elles détiennent à leur sujet.
- L’article 16, qui précise que les individus ont un droit de rectification sur les données les concernant.
La plainte fait suite au signalement d’un plaignant anonyme (une personnalité publique), qui a constaté que le chatbot générait une date de naissance incorrecte le concernant. Après avoir reçu le signalement, OpenAI a refusé de corriger l’information et a, en contrepartie, proposé d’ajouter un filtre bloquant sur le nom de la personne. L’association noyb insiste pour qu’OpenAI se conforme à la requête du plaignant et demande à l’autorité autrichienne d’imposer une amende à l’entreprise, tout en soulignant qu’il est « probable que cette affaire soit traitée dans le cadre de la coopération européenne ».
ChatGPT incapable de se conformer au RGPD ?
OpenAI n’en est pas à sa première plainte. En 2023, l’entreprise a été régulièrement mise en cause pour son traitement des données personnelles. Il y a un an, deux plaintes ont été notamment déposées auprès de la CNIL : l’une demandant un accès aux données personnelles traitées et l’autre déplorant la génération de fausses informations. Selon OpenAI, la persistance du problème est due à son incapacité technique de corriger les données générées.
Maartje de Graaf, avocate spécialisée dans la protection des données chez noyb, considère cette incapacité comme une preuve que les chatbots, de par leur nature, violent les réglementations européennes. Elle affirme : « Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l’UE lorsqu’ils traitent des données concernant des personnes. Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l’inverse. »
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris