Leren om betrokken te zijn: Het genereren van organische pull-requests via online repositorygeheugen
Learning to Commit: Generating Organic Pull Requests via Online Repository Memory
March 27, 2026
Auteurs: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
cs.AI
Samenvatting
Op grote taalmodellen (LLM) gebaseerde codeeragents behalen indrukwekkende resultaten op gecontroleerde benchmarks, maar produceren regelmatig pull requests die door echte onderhouders worden afgewezen. De hoofdoorzaak is niet functionele onjuistheid, maar een gebrek aan organiciteit: gegenereerde code negeert projectspecifieke conventies, dupliceert functionaliteit die reeds door interne API's wordt geboden, en overtreedt impliciete architectuurbeperkingen die zijn opgebouwd gedurende jaren van ontwikkeling. Het simpelweg blootstellen van een agent aan de laatste repository-momentopname is niet voldoende: de momentopname toont de eindtoestand van de codebase, maar niet de repositoriespecifieke veranderingspatronen waarmee die toestand is bereikt. Wij introduceren Learning to Commit, een framework dat deze kloof dicht met Online Repository Memory. Gegeven een repository met een strikte chronologische splitsing, voert de agent supervised contrastieve reflectie uit op eerdere commits: hij probeert blindelings elk historisch issue op te lossen, vergelijkt zijn voorspelling met de oracle diff, en destilleert de kloof tot een continu groeiende set vaardigheden – herbruikbare patronen die codeerstijl, intern API-gebruik en architectuurinvarianten vastleggen. Wanneer een nieuwe PR-beschrijving arriveert, baseert de agent zijn generatie op deze opgebouwde vaardigheden, waardoor veranderingen ontstaan die zijn verankerd in de eigen evolutie van het project in plaats van in generieke vooraf getrainde prioriteiten. Evaluatie wordt uitgevoerd op werkelijk toekomstige, gemergede pull requests die niet gezien konden zijn tijdens de vaardigheidsopbouwfase, en beslaat meerdere dimensies, waaronder functionele correctheid, code-stijlconsistentie, herbruikingspercentage van interne API's en geloofwaardigheid van gewijzigde regio's. Experimenten op een door experts onderhouden repository met een rijke commitgeschiedenis tonen aan dat Online Repository Memory de organiciteitsscores effectief verbetert voor toekomstige, afgezonderde taken.
English
Large language model (LLM)-based coding agents achieve impressive results on controlled benchmarks yet routinely produce pull requests that real maintainers reject. The root cause is not functional incorrectness but a lack of organicity: generated code ignores project-specific conventions, duplicates functionality already provided by internal APIs, and violates implicit architectural constraints accumulated over years of development. Simply exposing an agent to the latest repository snapshot is not enough: the snapshot reveals the final state of the codebase, but not the repository-specific change patterns by which that state was reached. We introduce Learning to Commit, a framework that closes this gap through Online Repository Memory. Given a repository with a strict chronological split, the agent performs supervised contrastive reflection on earlier commits: it blindly attempts to resolve each historical issue, compares its prediction against the oracle diff, and distils the gap into a continuously growing set of skills-reusable patterns capturing coding style, internal API usage, and architectural invariants. When a new PR description arrives, the agent conditions its generation on these accumulated skills, producing changes grounded in the project's own evolution rather than generic pretraining priors. Evaluation is conducted on genuinely future, merged pull requests that could not have been seen during the skill-building phase, and spans multiple dimensions including functional correctness, code-style consistency, internal API reuse rate, and modified-region plausibility. Experiments on an expert-maintained repository with rich commit history show that Online Repository Memory effectively improves organicity scores on held-out future tasks.