AgentFrontier: Espandere la frontiera delle capacità degli agenti LLM con la sintesi di dati guidata dalla ZPD
AgentFrontier: Expanding the Capability Frontier of LLM Agents with ZPD-Guided Data Synthesis
October 28, 2025
Autori: Xuanzhong Chen, Zile Qiao, Guoxin Chen, Liangcai Su, Zhen Zhang, Xinyu Wang, Pengjun Xie, Fei Huang, Jingren Zhou, Yong Jiang
cs.AI
Abstract
L'addestramento di agenti basati su grandi modelli linguistici su compiti situati alla frontiera delle loro capacità è fondamentale per sbloccare un ragionamento avanzato. Introduciamo un approccio di sintesi dei dati ispirato alla teoria educativa della Zona di Sviluppo Prossimale (ZPD), che definisce questa frontiera come compiti che un LLM non può risolvere da solo ma può padroneggiare con una guida. Per operazionalizzare questo concetto, presentiamo AgentFrontier Engine, una pipeline automatizzata che sintetizza dati multidisciplinari di alta qualità situati precisamente all'interno della ZPD del modello. Questo motore supporta sia il pre-training continuo con dati ad alta intensità di conoscenza, sia il post-training mirato su compiti di ragionamento complesso. Dall' stesso framework deriviamo lo ZPD Exam, un benchmark dinamico e automatizzato progettato per valutare le capacità degli agenti su questi compiti di frontiera. Addestriamo il modello AgentFrontier-30B-A3B sui nostri dati sintetizzati, che ottiene risultati allo stato dell'arte su benchmark impegnativi come Humanity's Last Exam, superando persino alcuni agenti proprietari leader. Il nostro lavoro dimostra che un approccio alla sintesi dei dati guidato dalla ZPD offre un percorso scalabile ed efficace per costruire agenti LLM più capaci.
English
Training large language model agents on tasks at the frontier of their
capabilities is key to unlocking advanced reasoning. We introduce a data
synthesis approach inspired by the educational theory of the Zone of Proximal
Development (ZPD), which defines this frontier as tasks an LLM cannot solve
alone but can master with guidance. To operationalize this, we present the
AgentFrontier Engine, an automated pipeline that synthesizes high-quality,
multidisciplinary data situated precisely within the LLM's ZPD. This engine
supports both continued pre-training with knowledge-intensive data and targeted
post-training on complex reasoning tasks. From the same framework, we derive
the ZPD Exam, a dynamic and automated benchmark designed to evaluate agent
capabilities on these frontier tasks. We train AgentFrontier-30B-A3B model on
our synthesized data, which achieves state-of-the-art results on demanding
benchmarks like Humanity's Last Exam, even surpassing some leading proprietary
agents. Our work demonstrates that a ZPD-guided approach to data synthesis
offers a scalable and effective path toward building more capable LLM agents.