ChatPaper.aiChatPaper

ReCode: Unificare Piano e Azione per un Controllo Universale della Granularità

ReCode: Unify Plan and Action for Universal Granularity Control

October 27, 2025
Autori: Zhaoyang Yu, Jiayi Zhang, Huixue Su, Yufan Zhao, Yifan Wu, Mingyi Deng, Jinyu Xiang, Yizhang Lin, Lingxiao Tang, Yingchao Li, Yuyu Luo, Bang Liu, Chenglin Wu
cs.AI

Abstract

Le attività nel mondo reale richiedono decisioni a granularità variabile, e gli esseri umani eccellono in questo sfruttando una rappresentazione cognitiva unificata in cui la pianificazione è fondamentalmente intesa come una forma di azione di alto livello. Tuttavia, gli agenti attuali basati su Large Language Model (LLM) mancano di questa cruciale capacità di operare fluidamente attraverso le granularità decisionali. Questa limitazione deriva da paradigmi esistenti che impongono una rigida separazione tra pianificazione di alto livello e azione di basso livello, che compromette l'adattabilità dinamica e limita la generalizzazione. Proponiamo ReCode (Recursive Code Generation), un paradigma innovativo che affronta questa limitazione unificando pianificazione e azione all'interno di una singola rappresentazione in codice. In questa rappresentazione, ReCode tratta i piani di alto livello come funzioni segnaposto astratte, che l'agente poi scompone ricorsivamente in sotto-funzioni a granularità più fine fino a raggiungere azioni primitive. Questo approccio ricorsivo dissolve il confine rigido tra piano e azione, consentendo all'agente di controllare dinamicamente la granularità delle sue decisioni. Inoltre, la struttura ricorsiva genera intrinsecamente dati di addestramento ricchi e multi-granularità, permettendo ai modelli di apprendere processi decisionali gerarchici. Esperimenti estensivi mostrano che ReCode supera significativamente i baseline avanzati nelle prestazioni di inferenza e dimostra un'efficienza eccezionale nell'addestramento, convalidando la nostra intuizione fondamentale che unificare pianificazione e azione attraverso la generazione ricorsiva di codice sia un approccio potente ed efficace per ottenere un controllo universale della granularità. Il codice è disponibile all'indirizzo https://github.com/FoundationAgents/ReCode.
English
Real-world tasks require decisions at varying granularities, and humans excel at this by leveraging a unified cognitive representation where planning is fundamentally understood as a high-level form of action. However, current Large Language Model (LLM)-based agents lack this crucial capability to operate fluidly across decision granularities. This limitation stems from existing paradigms that enforce a rigid separation between high-level planning and low-level action, which impairs dynamic adaptability and limits generalization. We propose ReCode (Recursive Code Generation), a novel paradigm that addresses this limitation by unifying planning and action within a single code representation. In this representation, ReCode treats high-level plans as abstract placeholder functions, which the agent then recursively decomposes into finer-grained sub-functions until reaching primitive actions. This recursive approach dissolves the rigid boundary between plan and action, enabling the agent to dynamically control its decision granularity. Furthermore, the recursive structure inherently generates rich, multi-granularity training data, enabling models to learn hierarchical decision-making processes. Extensive experiments show ReCode significantly surpasses advanced baselines in inference performance and demonstrates exceptional data efficiency in training, validating our core insight that unifying planning and action through recursive code generation is a powerful and effective approach to achieving universal granularity control. The code is available at https://github.com/FoundationAgents/ReCode.
PDF1191December 3, 2025