ChatPaper.aiChatPaper

Protocole de données d'agent : unifier les ensembles de données pour un réglage fin diversifié et efficace des agents LLM

Agent Data Protocol: Unifying Datasets for Diverse, Effective Fine-tuning of LLM Agents

October 28, 2025
papers.authors: Yueqi Song, Ketan Ramaneti, Zaid Sheikh, Ziru Chen, Boyu Gou, Tianbao Xie, Yiheng Xu, Danyang Zhang, Apurva Gandhi, Fan Yang, Joseph Liu, Tianyue Ou, Zhihao Yuan, Frank Xu, Shuyan Zhou, Xingyao Wang, Xiang Yue, Tao Yu, Huan Sun, Yu Su, Graham Neubig
cs.AI

papers.abstract

Les résultats de recherche publics sur le fine-tuning supervisé à grande échelle d'agents IA restent relativement rares, car la collecte de données d'entraînement pour agents présente des défis uniques. Dans ce travail, nous soutenons que le goulot d'étranglement n'est pas un manque de sources de données sous-jacentes, mais que la grande variété des données est fragmentée entre des formats, outils et interfaces hétérogènes. À cette fin, nous introduisons le protocole de données d'agent (ADP), un langage de représentation léger qui sert d'"interlangue" entre les jeux de données d'agents dans des formats divers et les pipelines unifiés d'entraînement d'agents en aval. La conception de l'ADP est suffisamment expressive pour capturer une grande variété de tâches, incluant l'utilisation d'API/outils, la navigation web, le codage, l'ingénierie logicielle et les flux de travail agentiques généraux, tout en restant simple à analyser et à utiliser pour l'entraînement sans ingénierie au niveau de chaque jeu de données. Expérimentalement, nous avons unifié une vaste collection de 13 jeux de données d'entraînement d'agents existants au format ADP, et converti les données ADP standardisées en formats prêts pour l'entraînement pour plusieurs frameworks d'agents. Nous avons effectué un fine-tuning supervisé sur ces données, et démontré un gain de performance moyen d'environ 20% par rapport aux modèles de base correspondants, atteignant des performances à l'état de l'art ou proches sur les benchmarks standards de codage, navigation, utilisation d'outils et recherche, sans réglage spécifique au domaine. Tous les codes et données sont publiés publiquement, dans l'espoir que l'ADP puisse aider à abaisser la barrière vers un entraînement d'agents standardisé, scalable et reproductible.
English
Public research results on large-scale supervised finetuning of AI agents remain relatively rare, since the collection of agent training data presents unique challenges. In this work, we argue that the bottleneck is not a lack of underlying data sources, but that a large variety of data is fragmented across heterogeneous formats, tools, and interfaces. To this end, we introduce the agent data protocol (ADP), a light-weight representation language that serves as an "interlingua" between agent datasets in diverse formats and unified agent training pipelines downstream. The design of ADP is expressive enough to capture a large variety of tasks, including API/tool use, browsing, coding, software engineering, and general agentic workflows, while remaining simple to parse and train on without engineering at a per-dataset level. In experiments, we unified a broad collection of 13 existing agent training datasets into ADP format, and converted the standardized ADP data into training-ready formats for multiple agent frameworks. We performed SFT on these data, and demonstrated an average performance gain of ~20% over corresponding base models, and delivers state-of-the-art or near-SOTA performance on standard coding, browsing, tool use, and research benchmarks, without domain-specific tuning. All code and data are released publicly, in the hope that ADP could help lower the barrier to standardized, scalable, and reproducible agent training.
PDF271December 1, 2025