ChatPaper.aiChatPaper

Protocollo di Dati per Agenti: Unificare i Dataset per un Fine-tuning Efficace e Diversificato di Agenti LLM

Agent Data Protocol: Unifying Datasets for Diverse, Effective Fine-tuning of LLM Agents

October 28, 2025
Autori: Yueqi Song, Ketan Ramaneti, Zaid Sheikh, Ziru Chen, Boyu Gou, Tianbao Xie, Yiheng Xu, Danyang Zhang, Apurva Gandhi, Fan Yang, Joseph Liu, Tianyue Ou, Zhihao Yuan, Frank Xu, Shuyan Zhou, Xingyao Wang, Xiang Yue, Tao Yu, Huan Sun, Yu Su, Graham Neubig
cs.AI

Abstract

I risultati della ricerca pubblicata sul fine-tuning supervisionato su larga scala per agenti di IA rimangono relativamente scarsi, poiché la raccolta di dati per l'addestramento di agenti presenta sfide uniche. In questo lavoro, sosteniamo che il collo di bottiglia non sia la mancanza di fonti di dati sottostanti, ma piuttosto il fatto che un'ampia varietà di dati sia frammentata tra formati, strumenti e interfacce eterogenei. A tal fine, introduciamo il protocollo per dati di agenti (ADP), un linguaggio di rappresentazione leggero che funge da "interlingua" tra dataset di agenti in formati diversi e pipeline di addestramento unificate a valle. La progettazione dell'ADP è abbastanza espressiva da catturare un'ampia varietà di compiti, inclusi l'uso di API/strumenti, la navigazione web, la programmazione, l'ingegneria del software e i flussi di lavoro agentici generali, pur rimanendo semplice da analizzare e su cui addestrare modelli senza ingegnerizzazione a livello di singolo dataset. Negli esperimenti, abbiamo unificato un'ampia raccolta di 13 dataset di addestramento per agenti esistenti nel formato ADP e abbiamo convertito i dati ADP standardizzati in formati pronti per l'addestramento per molteplici framework di agenti. Abbiamo eseguito il SFT su questi dati e abbiamo dimostrato un miglioramento medio delle prestazioni di circa il 20% rispetto ai corrispondenti modelli base, ottenendo prestazioni allo stato dell'arte o quasi-SOTA su benchmark standard di programmazione, navigazione, uso di strumenti e ricerca, senza alcuna ottimizzazione specifica per dominio. Tutto il codice e i dati sono rilasciati pubblicamente, nella speranza che l'ADP possa aiutare ad abbattere le barriere per un addestramento degli agenti standardizzato, scalabile e riproducibile.
English
Public research results on large-scale supervised finetuning of AI agents remain relatively rare, since the collection of agent training data presents unique challenges. In this work, we argue that the bottleneck is not a lack of underlying data sources, but that a large variety of data is fragmented across heterogeneous formats, tools, and interfaces. To this end, we introduce the agent data protocol (ADP), a light-weight representation language that serves as an "interlingua" between agent datasets in diverse formats and unified agent training pipelines downstream. The design of ADP is expressive enough to capture a large variety of tasks, including API/tool use, browsing, coding, software engineering, and general agentic workflows, while remaining simple to parse and train on without engineering at a per-dataset level. In experiments, we unified a broad collection of 13 existing agent training datasets into ADP format, and converted the standardized ADP data into training-ready formats for multiple agent frameworks. We performed SFT on these data, and demonstrated an average performance gain of ~20% over corresponding base models, and delivers state-of-the-art or near-SOTA performance on standard coding, browsing, tool use, and research benchmarks, without domain-specific tuning. All code and data are released publicly, in the hope that ADP could help lower the barrier to standardized, scalable, and reproducible agent training.
PDF271December 1, 2025