Les outils d’IA qui génèrent du code sont-ils sur le point de signer l’arrêt de mort de l’ingénierie logicielle traditionnelle et de submerger l’open source sous une vague de contributions médiocres ? Alors que la promesse d’une création logicielle bon marché et accessible se propage, la réalité s’avère bien plus complexe. Cette révolution annoncée cache-t-elle de nouveaux dangers pour la qualité et la gestion des projets ouverts ?
L’idée dominante voudrait que l’abondance de logiciels produits par l’IA entraîne la disparition progressive des entreprises de logiciels classiques, à la faveur des startups capables d’imiter les plus complexes plateformes SaaS. Mais est-ce aussi simple ? Depuis plusieurs mois, les acteurs de l’open source, censés être les premiers bénéficiaires de cette nouvelle ère, tirent la sonnette d’alarme. Quelles ont réellement été les conséquences de cette accessibilité soudaine au code généré par l’IA sur leurs projets ?
Si générer de nouvelles fonctionnalités devient un jeu d’enfant grâce à ces assistants intelligents, maintenir la qualité, éviter la fragmentation et valider le travail redevient un casse-tête. Les témoignages se multiplient : Jean-Baptiste Kempf, CEO de VideoLAN (VLC), constate désormais une « qualité de demandes de fusion exécrable » chez les développeurs juniors, tandis que Francesco Siddi, CEO de la Blender Foundation, affirme que les contributions guidées par LLM font perdre un temps précieux aux relecteurs et entament leur motivation. La question clé n’est plus « peut-on produire plus de code ? », mais bien : « peut-on encore garantir sa robustesse ? »
L’IA facilite l’innovation logicielle mais menace l’écosystème sans développeurs expérimentés pour filtrer le flot de contributions.
Face à cette déferlante, l’open source doit réagir. Certains, comme le développeur Mitchell Hashimoto, proposent déjà de limiter l’accès aux contributions GitHub aux seuls utilisateurs « certifiés ». D’autres, à l’image du projet cURL, suspendent des programmes de bug bounty submergés par des signalements générés automatiquement – qualifiés de « bouillie d’IA ». Faut-il alors craindre que l’ouverture même, pilier du mouvement open source, soit remise en cause par l’excès de zèle algorithmique ?
Il serait pourtant réducteur de n’y voir qu’une menace. Les outils d’IA de génération de code sont, selon Kempf, un atout « pour les développeurs expérimentés » qui peuvent en tirer parti pour accélérer la création de modules entiers ou porter des logiciels sur de nouveaux systèmes d’exploitation. Mais le revers est cruel : la pénurie de mainteneurs chevronnés reste entière, et l’écart entre la masse de code produite et la capacité à l’intégrer, le documenter ou le fiabiliser ne fait que croître.
Pourquoi une telle différence d’approche entre les grandes entreprises, qui plébiscitent la nouveauté, et les projets open source, qui visent au contraire la stabilité ? Pour Kempf, la réponse est simple : « On valorise ceux qui écrivent du code, pas ceux qui le maintiennent ». Une logique qui clash frontalement avec l’intérêt à long terme de la communauté. Pendant ce temps, l’ingénierie logicielle se complexifie à un rythme inédit, accéléré par l’IA, tandis que le pool de mainteneurs – lui – stagne.
Konstantin Vinogradov, investisseur open source, résume la tendance : « La base de code et le nombre d’interdépendances croissent de façon exponentielle, mais pas le nombre de mainteneurs actifs ». Résultat : sans une stratégie forte, les projets risquent d’être engloutis sous leur propre complexité, incapables de suivre la cadence imposée par l’IA. Et vous, la prochaine révolution du codage sera-t-elle synonyme de progrès – ou de chaos pour l’open source ?
Source : Techcrunch




