Étude des contributions des agents autonomes en milieu naturel : modèles d'activité et évolution du code dans le temps
Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over Time
April 1, 2026
Auteurs: Razvan Mihai Popescu, David Gros, Andrei Botocan, Rahul Pandita, Prem Devanbu, Maliheh Izadi
cs.AI
Résumé
L'essor des grands modèles de langage pour le code a remodelé le développement logiciel. Les agents de codage autonomes, capables de créer des branches, d'ouvrir des demandes de tirage (*pull requests*) et d'effectuer des revues de code, contribuent désormais activement à des projets réels. Leur rôle croissant offre une occasion unique et opportune d'étudier les contributions pilotées par l'IA et leurs effets sur la qualité du code, la dynamique des équipes et la maintenabilité des logiciels. Dans ce travail, nous constituons un nouvel ensemble de données d'environ 110 000 demandes de tirage open source, incluant les commits, commentaires, revues, issues et modifications de fichiers associés, représentant collectivement des millions de lignes de code source. Nous comparons cinq agents de codage populaires, notamment OpenAI Codex, Claude Code, GitHub Copilot, Google Jules et Devin, en examinant comment leur utilisation diffère selon divers aspects du développement, tels que la fréquence de fusion, les types de fichiers modifiés et les signaux d'interaction des développeurs, y compris les commentaires et les revues. De plus, nous soulignons que la création et la revue de code ne constituent qu'une petite partie du processus plus large de l'ingénierie logicielle, car le code produit doit également être maintenu et mis à jour dans le temps. Par conséquent, nous proposons plusieurs estimations longitudinales des taux de survie et de renouvellement (*churn*) pour le code généré par les agents par rapport au code écrit par l'homme. En définitive, nos résultats indiquent une activité croissante des agents dans les projets open source, bien que leurs contributions soient associées à un renouvellement plus important dans le temps par rapport au code d'origine humaine.
English
The rise of large language models for code has reshaped software development. Autonomous coding agents, able to create branches, open pull requests, and perform code reviews, now actively contribute to real-world projects. Their growing role offers a unique and timely opportunity to investigate AI-driven contributions and their effects on code quality, team dynamics, and software maintainability. In this work, we construct a novel dataset of approximately 110,000 open-source pull requests, including associated commits, comments, reviews, issues, and file changes, collectively representing millions of lines of source code. We compare five popular coding agents, including OpenAI Codex, Claude Code, GitHub Copilot, Google Jules, and Devin, examining how their usage differs in various development aspects such as merge frequency, edited file types, and developer interaction signals, including comments and reviews. Furthermore, we emphasize that code authoring and review are only a small part of the larger software engineering process, as the resulting code must also be maintained and updated over time. Hence, we offer several longitudinal estimates of survival and churn rates for agent-generated versus human-authored code. Ultimately, our findings indicate an increasing agent activity in open-source projects, although their contributions are associated with more churn over time compared to human-authored code.