ChatPaper.aiChatPaper

Обучение фиксации: генерация органических пул-реквестов с помощью памяти репозитория в реальном времени

Learning to Commit: Generating Organic Pull Requests via Online Repository Memory

March 27, 2026
Авторы: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
cs.AI

Аннотация

Кодирующие агенты на основе больших языковых моделей (LLM) демонстрируют впечатляющие результаты на контролируемых бенчмарках, однако создаваемые ими пул-реквесты часто отвергаются реальными сопровождающими проектов. Коренная причина заключается не в функциональной некорректности, а в недостатке *органичности*: сгенерированный код игнорирует специфичные для проекта соглашения, дублирует функциональность, уже предоставляемую внутренними API, и нарушает неявные архитектурные ограничения, накопленные за годы разработки. Простого ознакомления агента с последним снимком репозитория недостаточно: снимок показывает конечное состояние кодовой базы, но не раскрывает характерные для репозитория паттерны изменений, которые привели к этому состоянию. Мы представляем фреймворк Learning to Commit, который устраняет этот разрыв с помощью Онлайн-памяти репозитория (Online Repository Memory). Для репозитория со строгим хронологическим разделением агент выполняет контролируемую контрастивную рефлексию над более ранними коммитами: он пытается вслепую разрешить каждую историческую задачу, сравнивает свой прогноз с эталонным диффом и преобразует выявленное расхождение в постоянно растущий набор *навыков* — переиспользуемых паттернов, фиксирующих стиль кодирования, использование внутренних API и архитектурные инварианты. Когда поступает описание нового пул-реквеста, агент кондиционирует генерацию на этих накопленных навыках, создавая изменения, основанные на собственной эволюции проекта, а не на общих априорных знаниях из претренинга. Оценка проводится на действительно будущих, уже принятых пул-реквестах, которые не могли быть видны на этапе формирования навыков, и охватывает несколько измерений, включая функциональную корректность, согласованность стиля кода, уровень повторного использования внутренних API и правдоподобность измененных областей. Эксперименты на репозитории с богатой историей коммитов, поддерживаемом экспертами, показывают, что Онлайн-память репозитория эффективно повышает показатели органичности на отложенных будущих задачах.
English
Large language model (LLM)-based coding agents achieve impressive results on controlled benchmarks yet routinely produce pull requests that real maintainers reject. The root cause is not functional incorrectness but a lack of organicity: generated code ignores project-specific conventions, duplicates functionality already provided by internal APIs, and violates implicit architectural constraints accumulated over years of development. Simply exposing an agent to the latest repository snapshot is not enough: the snapshot reveals the final state of the codebase, but not the repository-specific change patterns by which that state was reached. We introduce Learning to Commit, a framework that closes this gap through Online Repository Memory. Given a repository with a strict chronological split, the agent performs supervised contrastive reflection on earlier commits: it blindly attempts to resolve each historical issue, compares its prediction against the oracle diff, and distils the gap into a continuously growing set of skills-reusable patterns capturing coding style, internal API usage, and architectural invariants. When a new PR description arrives, the agent conditions its generation on these accumulated skills, producing changes grounded in the project's own evolution rather than generic pretraining priors. Evaluation is conducted on genuinely future, merged pull requests that could not have been seen during the skill-building phase, and spans multiple dimensions including functional correctness, code-style consistency, internal API reuse rate, and modified-region plausibility. Experiments on an expert-maintained repository with rich commit history show that Online Repository Memory effectively improves organicity scores on held-out future tasks.
PDF21March 31, 2026