Protocole de données d'agent : unifier les ensembles de données pour un réglage fin diversifié et efficace des agents LLM
Agent Data Protocol: Unifying Datasets for Diverse, Effective Fine-tuning of LLM Agents
October 28, 2025
papers.authors: Yueqi Song, Ketan Ramaneti, Zaid Sheikh, Ziru Chen, Boyu Gou, Tianbao Xie, Yiheng Xu, Danyang Zhang, Apurva Gandhi, Fan Yang, Joseph Liu, Tianyue Ou, Zhihao Yuan, Frank Xu, Shuyan Zhou, Xingyao Wang, Xiang Yue, Tao Yu, Huan Sun, Yu Su, Graham Neubig
cs.AI
papers.abstract
Les résultats de recherche publics sur le fine-tuning supervisé à grande échelle d'agents IA restent relativement rares, car la collecte de données d'entraînement pour agents présente des défis uniques. Dans ce travail, nous soutenons que le goulot d'étranglement n'est pas un manque de sources de données sous-jacentes, mais que la grande variété des données est fragmentée entre des formats, outils et interfaces hétérogènes. À cette fin, nous introduisons le protocole de données d'agent (ADP), un langage de représentation léger qui sert d'"interlangue" entre les jeux de données d'agents dans des formats divers et les pipelines unifiés d'entraînement d'agents en aval. La conception de l'ADP est suffisamment expressive pour capturer une grande variété de tâches, incluant l'utilisation d'API/outils, la navigation web, le codage, l'ingénierie logicielle et les flux de travail agentiques généraux, tout en restant simple à analyser et à utiliser pour l'entraînement sans ingénierie au niveau de chaque jeu de données. Expérimentalement, nous avons unifié une vaste collection de 13 jeux de données d'entraînement d'agents existants au format ADP, et converti les données ADP standardisées en formats prêts pour l'entraînement pour plusieurs frameworks d'agents. Nous avons effectué un fine-tuning supervisé sur ces données, et démontré un gain de performance moyen d'environ 20% par rapport aux modèles de base correspondants, atteignant des performances à l'état de l'art ou proches sur les benchmarks standards de codage, navigation, utilisation d'outils et recherche, sans réglage spécifique au domaine. Tous les codes et données sont publiés publiquement, dans l'espoir que l'ADP puisse aider à abaisser la barrière vers un entraînement d'agents standardisé, scalable et reproductible.
English
Public research results on large-scale supervised finetuning of AI agents
remain relatively rare, since the collection of agent training data presents
unique challenges. In this work, we argue that the bottleneck is not a lack of
underlying data sources, but that a large variety of data is fragmented across
heterogeneous formats, tools, and interfaces. To this end, we introduce the
agent data protocol (ADP), a light-weight representation language that serves
as an "interlingua" between agent datasets in diverse formats and unified agent
training pipelines downstream. The design of ADP is expressive enough to
capture a large variety of tasks, including API/tool use, browsing, coding,
software engineering, and general agentic workflows, while remaining simple to
parse and train on without engineering at a per-dataset level. In experiments,
we unified a broad collection of 13 existing agent training datasets into ADP
format, and converted the standardized ADP data into training-ready formats for
multiple agent frameworks. We performed SFT on these data, and demonstrated an
average performance gain of ~20% over corresponding base models, and delivers
state-of-the-art or near-SOTA performance on standard coding, browsing, tool
use, and research benchmarks, without domain-specific tuning. All code and data
are released publicly, in the hope that ADP could help lower the barrier to
standardized, scalable, and reproducible agent training.