ChatPaper.aiChatPaper

Investigación de las Contribuciones de los Agentes Autónomos en Entornos Reales: Patrones de Actividad y Cambios en el Código a lo Largo del Tiempo

Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over Time

April 1, 2026
Autores: Razvan Mihai Popescu, David Gros, Andrei Botocan, Rahul Pandita, Prem Devanbu, Maliheh Izadi
cs.AI

Resumen

El auge de los grandes modelos de lenguaje para código ha reconfigurado el desarrollo de software. Los agentes de codificación autónomos, capaces de crear ramas, abrir solicitudes de extracción (pull requests) y realizar revisiones de código, ahora contribuyen activamente en proyectos del mundo real. Su creciente papel ofrece una oportunidad única y oportuna para investigar las contribuciones impulsadas por la IA y sus efectos en la calidad del código, la dinámica de los equipos y la mantenibilidad del software. En este trabajo, construimos un nuevo conjunto de datos de aproximadamente 110,000 solicitudes de extracción de código abierto, que incluyen commits, comentarios, revisiones, incidencias (issues) y cambios de archivo asociados, representando colectivamente millones de líneas de código fuente. Comparamos cinco agentes de codificación populares, incluyendo OpenAI Codex, Claude Code, GitHub Copilot, Google Jules y Devin, examinando cómo difiere su uso en varios aspectos del desarrollo, como la frecuencia de fusiones, los tipos de archivos editados y las señales de interacción con los desarrolladores, incluyendo comentarios y revisiones. Además, enfatizamos que la autoría y revisión de código son solo una pequeña parte del proceso más amplio de ingeniería de software, ya que el código resultante también debe mantenerse y actualizarse con el tiempo. Por lo tanto, ofrecemos varias estimaciones longitudinales de las tasas de supervivencia y modificación (churn) para el código generado por agentes frente al escrito por humanos. En última instancia, nuestros hallazgos indican una actividad creciente de los agentes en proyectos de código abierto, aunque sus contribuciones se asocian con una mayor modificación a lo largo del tiempo en comparación con el código de autoría humana.
English
The rise of large language models for code has reshaped software development. Autonomous coding agents, able to create branches, open pull requests, and perform code reviews, now actively contribute to real-world projects. Their growing role offers a unique and timely opportunity to investigate AI-driven contributions and their effects on code quality, team dynamics, and software maintainability. In this work, we construct a novel dataset of approximately 110,000 open-source pull requests, including associated commits, comments, reviews, issues, and file changes, collectively representing millions of lines of source code. We compare five popular coding agents, including OpenAI Codex, Claude Code, GitHub Copilot, Google Jules, and Devin, examining how their usage differs in various development aspects such as merge frequency, edited file types, and developer interaction signals, including comments and reviews. Furthermore, we emphasize that code authoring and review are only a small part of the larger software engineering process, as the resulting code must also be maintained and updated over time. Hence, we offer several longitudinal estimates of survival and churn rates for agent-generated versus human-authored code. Ultimately, our findings indicate an increasing agent activity in open-source projects, although their contributions are associated with more churn over time compared to human-authored code.
PDF101April 4, 2026