ChatPaper.aiChatPaper

Investigando as Contribuições de Agentes Autônomos em Ambientes Reais: Padrões de Atividade e Alterações de Código ao Longo do Tempo

Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over Time

April 1, 2026
Autores: Razvan Mihai Popescu, David Gros, Andrei Botocan, Rahul Pandita, Prem Devanbu, Maliheh Izadi
cs.AI

Resumo

O surgimento de grandes modelos de linguagem para código revolucionou o desenvolvimento de software. Agentes de codificação autónomos, capazes de criar ramificações, abrir pedidos de *pull request* e realizar revisões de código, contribuem agora ativamente para projetos do mundo real. O seu papel crescente oferece uma oportunidade única e oportuna para investigar as contribuições orientadas por IA e os seus efeitos na qualidade do código, na dinâmica das equipas e na capacidade de manutenção do software. Neste trabalho, construímos um novo conjunto de dados de aproximadamente 110.000 pedidos de *pull request* de código aberto, incluindo os respetivos *commits*, comentários, revisões, problemas e alterações de ficheiros, representando coletivamente milhões de linhas de código fonte. Comparamos cinco agentes de codificação populares, incluindo o OpenAI Codex, Claude Code, GitHub Copilot, Google Jules e Devin, examinando como o seu uso difere em vários aspetos do desenvolvimento, como a frequência de fusão (*merge*), os tipos de ficheiros editados e os sinais de interação dos programadores, incluindo comentários e revisões. Além disso, salientamos que a autoria e a revisão de código são apenas uma pequena parte do processo mais amplo de engenharia de software, uma vez que o código resultante também deve ser mantido e atualizado ao longo do tempo. Por conseguinte, oferecemos várias estimativas longitudinais de taxas de sobrevivência e de rotatividade (*churn*) para código gerado por agentes versus código escrito por humanos. Em última análise, as nossas conclusões indicam uma atividade crescente de agentes em projetos de código aberto, embora as suas contribuições estejam associadas a uma maior rotatividade ao longo do tempo em comparação com o código de autoria humana.
English
The rise of large language models for code has reshaped software development. Autonomous coding agents, able to create branches, open pull requests, and perform code reviews, now actively contribute to real-world projects. Their growing role offers a unique and timely opportunity to investigate AI-driven contributions and their effects on code quality, team dynamics, and software maintainability. In this work, we construct a novel dataset of approximately 110,000 open-source pull requests, including associated commits, comments, reviews, issues, and file changes, collectively representing millions of lines of source code. We compare five popular coding agents, including OpenAI Codex, Claude Code, GitHub Copilot, Google Jules, and Devin, examining how their usage differs in various development aspects such as merge frequency, edited file types, and developer interaction signals, including comments and reviews. Furthermore, we emphasize that code authoring and review are only a small part of the larger software engineering process, as the resulting code must also be maintained and updated over time. Hence, we offer several longitudinal estimates of survival and churn rates for agent-generated versus human-authored code. Ultimately, our findings indicate an increasing agent activity in open-source projects, although their contributions are associated with more churn over time compared to human-authored code.
PDF101April 4, 2026