Les contributions dopées aux modèles génératifs se multiplient sur les grandes plateformes de développement collaboratif. Derrière la promesse d’une productivité accrue, plusieurs projets open source dénoncent une vague de propositions de code de faible qualité qui épuise les équipes et fragilise l’équilibre communautaire.
Une charge devenue « drainante et démoralisante »
Rémi Verschelde, développeur en charge du moteur de jeu open source Godot, alerte sur la multiplication des pull requests générées par des modèles de langage. Ces contributions, explique-t-il, deviennent « de plus en plus drainantes et démoralisantes » pour ceux qui doivent les analyser.
Le sujet a pris de l’ampleur après la prise de position d’Adriaan de Jongh, directeur du studio Hidden Folks, qui évoque un « massive time waster » pour les relecteurs : modifications incohérentes, descriptions excessivement longues, auteurs incapables d’expliquer leurs propres changements. Chaque proposition, même inutilisable, doit être examinée, triée, commentée, puis fermée ou corrigée.
Le média britannique The Register, qui revient sur cette séquence, souligne que cette inflation de contributions générées par IA pèse désormais lourdement sur l’organisation des projets open source.
Un phénomène qui dépasse Godot
Godot n’est pas un cas isolé. Le projet Blender rencontre des difficultés similaires et envisage une politique spécifique encadrant les contributions issues de l’IA. D’autres organisations comme la Linux Foundation, Fedora, Firefox, Ghostty, Servo ou LLVM ont engagé des réflexions comparables.
La situation crée une tension structurelle. Les projets open source reposent sur un principe d’ouverture, permettant à tout utilisateur de contribuer. Mais l’afflux de propositions de faible qualité met à l’épreuve cette culture. Rémi Verschelde en appelle d’ailleurs à davantage de financements afin de pouvoir rémunérer plus de développeurs pour absorber cette charge croissante. « Je ne sais pas combien de temps nous pourrons continuer ainsi », confie-t-il.
Certains commentaires vont plus loin et pointent la responsabilité de GitHub, acteur majeur dans la promotion de l’IA appliquée au développement logiciel. Selon plusieurs développeurs, la plateforme encouragerait indirectement ces pratiques. Le projet Gentoo a ainsi engagé une migration vers Codeberg, évoquant notamment des efforts continus visant à imposer l’usage de Copilot sur ses dépôts.
GitHub reconnaît le problème, sans incriminer l’IA
GitHub admet l’existence d’un problème lié à l’arrivée massive de contributions de faible qualité, tout en rappelant que les responsables de projets ont toujours dû gérer un certain niveau de bruit. L’entreprise évite toutefois de désigner explicitement l’IA comme cause directe.
Des évolutions sont annoncées pour faciliter la gestion des pull requests : suppression simplifiée depuis l’interface, possibilité de limiter les contributions aux seuls collaborateurs, ou encore restrictions temporaires d’interaction pour certains utilisateurs. D’autres pistes sont à l’étude, comme l’instauration de critères obligatoires avant dépôt d’une pull request, par exemple l’obligation de la rattacher à une demande existante. L’idée d’utiliser l’IA pour trier automatiquement ces contributions est également évoquée.
En parallèle, certaines initiatives émergent côté projets. Le toolkit Coolify a développé une action GitHub « Anti Slop » qui, selon son créateur, aurait permis de fermer 98 % des pull requests problématiques. Ce dernier ne remet pas en cause l’IA en tant que telle, estimant qu’elle peut produire des contributions pertinentes lorsqu’elle est utilisée avec expérience et dans le respect des règles du projet.








