GitHub Copilot : ce que reprochent les développeurs à l’assistant de programmation
Si l’assistant Copilot de GitHub promet d’offrir un gain de temps considérable aux développeurs, son utilisation pose de nombreuses questions éthiques et juridiques.
Lancé fin juin, GitHub Copilot est un outil qui s’appuie sur Codex, le nouveau système d’IA créé par OpenAI, pour permettre aux développeurs de gagner du temps en leur suggérant des lignes de code et des fonctions entières de manière instantanée. Ce nouvel assistant de codage fait couler beaucoup d’encre. En cause : des questions autour du droit d’auteur de ces lignes de code automatiquement générées, mais aussi sur l’équité d’une telle démarche au sein de la communauté open source.
Des questions d’équité, de légitimité et de légalité
Entraîné grâce à l’apprentissage automatique à partir d’importants corpus de travaux accessibles au public, GitHub Copilot a suscité de vives réactions de la part des développeurs, mais aussi de la Free Software Foundation (FSF). L’organisation américaine à but non lucratif, dont la mission est de promouvoir et défendre le logiciel libre, recommande aux développeurs de ne pas héberger leur code sur la plateforme pour des questions de droit d’auteur. La FSF estime que l’assistant « tel qu’il est est inacceptable et injuste ». Principal grief reproché à la solution développée par GitHub : « il nécessite l’exécution d’un logiciel qui n’est pas gratuit (Visual Studio ou des parties de Visual Studio Code) » pour proposer un service qui se substitue à un logiciel, tout en réutilisant du code source public avec de possibles utilisations commerciales à la clé, sans licence appropriée.
Selon la FSF, l’usage de Copilot soulève des questions d’équité, de légitimité et de légalité, qui n’ont jusque-là pas été évaluées et qui nécessiteraient un examen approfondi, avec de possibles implications juridiques.
Nous pouvons voir que l’utilisation par Copilot de logiciels sous licence libre a de nombreuses implications pour une très grande partie de la communauté open source. Les développeurs veulent savoir si la formation d’un réseau neuronal sur leur logiciel peut vraiment être considérée comme une utilisation équitable. D’autres personnes susceptibles d’être intéressées par l’utilisation de Copilot se demandent si les extraits de code et autres éléments copiés à partir des référentiels hébergés sur GitHub pourraient entraîner une violation du droit d’auteur. Et même si tout pourrait être légalement copié, les intéressés se demandent s’il n’y a pas quelque chose de fondamentalement injuste dans le fait qu’un éditeur de logiciels propriétaires construise un service à partir de leur travail, explique la FSF dans un communiqué.
La position de GitHub face aux accusations de violation des droits d’auteur
Face aux accusations de violation des droits d’auteur, voire de « blanchiment de code » partagées via les réseaux sociaux, la plateforme de développement détenue par Microsoft renvoie vers les éléments présents dans sa FAQ. À savoir : « GitHub Copilot est un synthétiseur de code, pas un moteur de recherche : la grande majorité du code qu’il suggère est généré de manière unique et n’a jamais été vu auparavant. Nous avons constaté qu’environ 0,1 % du temps, la suggestion peut contenir des extraits textuels de l’ensemble d’entraînement. »
Selon GitHub, ces cas interviennent lorsque les développeurs ne fournissent pas suffisamment de contexte dans leur demande, lors de l’édition d’un fichier vide, ou « lorsqu’il existe une solution commune, voire universelle, au problème ». Il ajoute également : « nous sommes en train de mettre en place un système de suivi de l’origine pour détecter les rares cas où le code est répété à partir de l’ensemble des données d’entraînement, pour vous aider à prendre de bonnes décisions en temps réel concernant les suggestions proposées par GitHub Copilot ».
Un appel à livres blancs pour répondre aux questions des développeurs
Face aux nombreuses demandes reçues par la fondation, celle-ci vient de lancer un appel financé à livres blancs sur l’utilisation de GitHub Copilot, le droit d’auteur, l’apprentissage automatique et, de manière plus large, les logiciels open source. L’objectif : répondre aux questions posées par la communauté et « identifier les meilleures opportunités pour défendre la liberté des utilisateurs dans cet espace ».
Si vous souhaité que votre livre blanc soit publié, il doit répondre à certaines directives (à retrouver ici) et être soumis avant le lundi 23 août à 16h. Une récompense de 500 dollars (423 euros) sera offerte pour les articles qui seront sélectionnés. Pour lancer le débat, la FSF a ainsi listé une série de questions ouvertes, parmi lesquelles on retrouve :
- L’entraînement de Copilot sur les référentiels publics enfreint-il le droit d’auteur ? Est-ce un usage équitable ?
- Comment les développeurs peuvent-ils s’assurer que tout code dont ils détiennent les droits d’auteur est protégé contre les violations générées par Copilot ?
- Existe-t-il un moyen pour les développeurs utilisant Copilot de se conformer aux licences de logiciels libres comme la GPL ?
- Si Copilot génère du code qui donne lieu à une violation d’une œuvre sous licence de logiciel libre, comment cette violation peut-elle être découverte par le détenteur des droits d’auteur sur l’œuvre sous-jacente ?
- Le modèle d’IA/ML formé par Copilot est-il protégé par le droit d’auteur ? Si oui, qui détient ce droit d’auteur ?
Ces livres blancs et les réponses à ces questions sont particulièrement attendus, notamment pour apporter un éclairage juridique au problème du droit d’auteur soulevé par Copilot. Plus globalement, l’assistant de programmation développé par GitHub met en lumière le besoin d’encadrement nécessaire pour l’utilisation de ce type de logiciel généré à partir de code source public.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris