ReCode: Verenigen van Plan en Actie voor Universele Granulariteitscontrole
ReCode: Unify Plan and Action for Universal Granularity Control
October 27, 2025
Auteurs: Zhaoyang Yu, Jiayi Zhang, Huixue Su, Yufan Zhao, Yifan Wu, Mingyi Deng, Jinyu Xiang, Yizhang Lin, Lingxiao Tang, Yingchao Li, Yuyu Luo, Bang Liu, Chenglin Wu
cs.AI
Samenvatting
Real-world taken vereisen beslissingen op verschillende granulariteiten, en mensen blinken hierin uit door gebruik te maken van een verenigde cognitieve representatie waarin plannen fundamenteel wordt begrepen als een hoogwaardige vorm van actie. Huidige op Large Language Models (LLM) gebaseerde agents missen echter dit cruciale vermogen om soepel te opereren over verschillende beslissingsgranulariteiten heen. Deze beperking komt voort uit bestaande paradigma's die een rigide scheiding afdwingen tussen hoogwaardig plannen en laagwaardige actie, wat de dynamische aanpasbaarheid schaadt en de generalisatie beperkt. Wij stellen ReCode (Recursive Code Generation) voor, een nieuw paradigma dat deze beperking aanpakt door planning en actie te verenigen binnen een enkele code-representatie. In deze representatie behandelt ReCode hoogwaardige plannen als abstracte placeholder-functies, die de agent vervolgens recursief decomposeert in fijnkorreligere subfuncties totdat primitieve acties worden bereikt. Deze recursieve aanpak lost de rigide grens tussen plan en actie op, waardoor de agent zijn beslissingsgranulariteit dynamisch kan controleren. Bovendien genereert de recursieve structuur inherent rijke, multi-granulariteit trainingsdata, waardoor modellen hiërarchische beslissingsprocessen kunnen leren. Uitgebreide experimenten tonen aan dat ReCode geavanceerde baseline-methoden significant overtreft in inferentieprestaties en uitzonderlijke data-efficiëntie vertoont tijdens training, wat onze kerninzicht valideert dat het verenigen van planning en actie door recursieve code-generatie een krachtige en effectieve aanpak is om universele granulariteitscontrole te bereiken. De code is beschikbaar op https://github.com/FoundationAgents/ReCode.
English
Real-world tasks require decisions at varying granularities, and humans excel
at this by leveraging a unified cognitive representation where planning is
fundamentally understood as a high-level form of action. However, current Large
Language Model (LLM)-based agents lack this crucial capability to operate
fluidly across decision granularities. This limitation stems from existing
paradigms that enforce a rigid separation between high-level planning and
low-level action, which impairs dynamic adaptability and limits generalization.
We propose ReCode (Recursive Code Generation), a novel paradigm that addresses
this limitation by unifying planning and action within a single code
representation. In this representation, ReCode treats high-level plans as
abstract placeholder functions, which the agent then recursively decomposes
into finer-grained sub-functions until reaching primitive actions. This
recursive approach dissolves the rigid boundary between plan and action,
enabling the agent to dynamically control its decision granularity.
Furthermore, the recursive structure inherently generates rich,
multi-granularity training data, enabling models to learn hierarchical
decision-making processes. Extensive experiments show ReCode significantly
surpasses advanced baselines in inference performance and demonstrates
exceptional data efficiency in training, validating our core insight that
unifying planning and action through recursive code generation is a powerful
and effective approach to achieving universal granularity control. The code is
available at https://github.com/FoundationAgents/ReCode.