ChatPaper.aiChatPaper

Aprendiendo a Comprometerse: Generación de Solicitudes de Extracción Orgánicas mediante Memoria de Repositorio en Línea

Learning to Commit: Generating Organic Pull Requests via Online Repository Memory

March 27, 2026
Autores: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
cs.AI

Resumen

Los agentes de programación basados en modelos de lenguaje grande (LLM) logran resultados impresionantes en benchmarks controlados, pero a menudo generan solicitudes de extracción (pull requests) que los mantenedores reales rechazan. La causa principal no es la incorrección funcional, sino la falta de organicidad: el código generado ignora las convenciones específicas del proyecto, duplica funcionalidad ya proporcionada por APIs internas y viola restricciones arquitectónicas implícitas acumuladas durante años de desarrollo. Simplemente exponer a un agente a la instantánea más reciente del repositorio no es suficiente: la instantánea revela el estado final de la base de código, pero no los patrones de cambio específicos del repositorio mediante los cuales se alcanzó ese estado. Presentamos Learning to Commit, un marco que cierra esta brecha mediante la Memoria de Repositorio en Línea. Dado un repositorio con una división cronológica estricta, el agente realiza una reflexión contrastiva supervisada sobre commits anteriores: intenta resolver ciegamente cada issue histórico, compara su predicción con el diff del oráculo y destila la brecha en un conjunto en continuo crecimiento de habilidades: patrones reutilizables que capturan el estilo de codificación, el uso de APIs internas y los invariantes arquitectónicos. Cuando llega una nueva descripción de PR, el agente condiciona su generación en estas habilidades acumuladas, produciendo cambios basados en la propia evolución del proyecto en lugar de en priors genéricos del preentrenamiento. La evaluación se realiza en solicitudes de extracción futuras genuinas y fusionadas que no pudieron ser vistas durante la fase de construcción de habilidades, y abarca múltiples dimensiones, incluyendo corrección funcional, consistencia del estilo de código, tasa de reutilización de APIs internas y plausibilidad de la región modificada. Los experimentos en un repositorio mantenido por expertos con un historial de commits rico muestran que la Memoria de Repositorio en Línea mejora efectivamente las puntuaciones de organicidad en tareas futuras retenidas.
English
Large language model (LLM)-based coding agents achieve impressive results on controlled benchmarks yet routinely produce pull requests that real maintainers reject. The root cause is not functional incorrectness but a lack of organicity: generated code ignores project-specific conventions, duplicates functionality already provided by internal APIs, and violates implicit architectural constraints accumulated over years of development. Simply exposing an agent to the latest repository snapshot is not enough: the snapshot reveals the final state of the codebase, but not the repository-specific change patterns by which that state was reached. We introduce Learning to Commit, a framework that closes this gap through Online Repository Memory. Given a repository with a strict chronological split, the agent performs supervised contrastive reflection on earlier commits: it blindly attempts to resolve each historical issue, compares its prediction against the oracle diff, and distils the gap into a continuously growing set of skills-reusable patterns capturing coding style, internal API usage, and architectural invariants. When a new PR description arrives, the agent conditions its generation on these accumulated skills, producing changes grounded in the project's own evolution rather than generic pretraining priors. Evaluation is conducted on genuinely future, merged pull requests that could not have been seen during the skill-building phase, and spans multiple dimensions including functional correctness, code-style consistency, internal API reuse rate, and modified-region plausibility. Experiments on an expert-maintained repository with rich commit history show that Online Repository Memory effectively improves organicity scores on held-out future tasks.
PDF21March 31, 2026