ChatPaper.aiChatPaper

Onderzoek naar Bijdragen van Autonome Agents in de Wildernis: Activiteitenpatronen en Codeveranderingen in de Tijd

Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over Time

April 1, 2026
Auteurs: Razvan Mihai Popescu, David Gros, Andrei Botocan, Rahul Pandita, Prem Devanbu, Maliheh Izadi
cs.AI

Samenvatting

De opkomst van grote taalmodellen voor code heeft de softwareontwikkeling hervormd. Autonome coderingsagenten, die in staat zijn om branches aan te maken, pull requests te openen en codebeoordelingen uit te voeren, dragen nu actief bij aan projecten in de praktijk. Hun groeiende rol biedt een unieke en tijdige mogelijkheid om AI-gedreven bijdragen en hun effecten op codekwaliteit, teamdynamiek en softwareonderhoudbaarheid te onderzoeken. In dit werk construeren we een nieuwe dataset van ongeveer 110.000 open-source pull requests, inclusief bijbehorende commits, opmerkingen, reviews, issues en bestandswijzigingen, die gezamenlijk miljoenen regels broncode vertegenwoordigen. We vergelijken vijf populaire coderingsagenten, waaronder OpenAI Codex, Claude Code, GitHub Copilot, Google Jules en Devin, en onderzoeken hoe hun gebruik verschilt in diverse ontwikkelingsaspecten zoals mergefrequentie, bewerkte bestandstypen en signalen van ontwikkelaarsinteractie, inclusief opmerkingen en reviews. Verder benadrukken we dat het schrijven en reviewen van code slechts een klein onderdeel is van het bredere software-engineeringproces, aangezien de resulterende code ook in de tijd onderhouden en geüpdatet moet worden. Daarom bieden we verschillende longitudinale schattingen van overlevings- en verlooppercentages voor door agenten gegenereerde code versus door mensen geschreven code. Uiteindelijk tonen onze bevindingen een toenemende agentactiviteit in open-sourceprojecten aan, hoewel hun bijdragen in vergelijking met door mensen geschreven code over tijd gepaard gaan met meer verloop.
English
The rise of large language models for code has reshaped software development. Autonomous coding agents, able to create branches, open pull requests, and perform code reviews, now actively contribute to real-world projects. Their growing role offers a unique and timely opportunity to investigate AI-driven contributions and their effects on code quality, team dynamics, and software maintainability. In this work, we construct a novel dataset of approximately 110,000 open-source pull requests, including associated commits, comments, reviews, issues, and file changes, collectively representing millions of lines of source code. We compare five popular coding agents, including OpenAI Codex, Claude Code, GitHub Copilot, Google Jules, and Devin, examining how their usage differs in various development aspects such as merge frequency, edited file types, and developer interaction signals, including comments and reviews. Furthermore, we emphasize that code authoring and review are only a small part of the larger software engineering process, as the resulting code must also be maintained and updated over time. Hence, we offer several longitudinal estimates of survival and churn rates for agent-generated versus human-authored code. Ultimately, our findings indicate an increasing agent activity in open-source projects, although their contributions are associated with more churn over time compared to human-authored code.
PDF101April 4, 2026