ChatPaper.aiChatPaper

Agent Data Protocol: Uniforme Datasets voor Diverse, Effectieve Fijnafstemming van LLM-Agenten

Agent Data Protocol: Unifying Datasets for Diverse, Effective Fine-tuning of LLM Agents

October 28, 2025
Auteurs: Yueqi Song, Ketan Ramaneti, Zaid Sheikh, Ziru Chen, Boyu Gou, Tianbao Xie, Yiheng Xu, Danyang Zhang, Apurva Gandhi, Fan Yang, Joseph Liu, Tianyue Ou, Zhihao Yuan, Frank Xu, Shuyan Zhou, Xingyao Wang, Xiang Yue, Tao Yu, Huan Sun, Yu Su, Graham Neubig
cs.AI

Samenvatting

Publieke onderzoeksresultaten over grootschalige gesuperviseerde finetuning van AI-agenten blijven relatief schaars, omdat de verzameling van trainingsdata voor agenten unieke uitdagingen met zich meebrengt. In dit werk beargumenteren wij dat het knelpunt niet een gebrek aan onderliggende databronnen is, maar dat een grote verscheidenheid aan data versnipperd is over heterogene formaten, tools en interfaces. Hiertoe introduceren wij het *agent data protocol* (ADP), een lichtgewicht representatietaal die dient als een 'interlingua' tussen agent-datasets in uiteenlopende formaten en gestandaardiseerde trainingspijplijnen voor agenten stroomafwaarts. Het ontwerp van ADP is expressief genoeg om een grote verscheidenheid aan taken vast te leggen, inclusief API/toolgebruik, browsen, programmeren, software-engineering en algemene agent-workflows, terwijl het eenvoudig blijft om te parseren en op te trainen zonder engineering op datasetniveau. In experimenten hebben wij een brede collectie van 13 bestaande agent-trainingsdatasets verenigd in het ADP-formaat, en de gestandaardiseerde ADP-data omgezet naar trainingsklare formaten voor meerdere agent-frameworks. Wij voerden SFT uit op deze data en toonden een gemiddelde prestatieverbetering aan van ~20% ten opzichte van de corresponderende basismodellen, en behaalden state-of-the-art of bijna-SOTA prestaties op standaard benchmarks voor programmeren, browsen, toolgebruik en onderzoek, zonder domeinspecifieke afstemming. Alle code en data zijn openbaar vrijgegeven, in de hoop dat ADP de drempel kan verlagen voor gestandaardiseerde, schaalbare en reproduceerbare training van agenten.
English
Public research results on large-scale supervised finetuning of AI agents remain relatively rare, since the collection of agent training data presents unique challenges. In this work, we argue that the bottleneck is not a lack of underlying data sources, but that a large variety of data is fragmented across heterogeneous formats, tools, and interfaces. To this end, we introduce the agent data protocol (ADP), a light-weight representation language that serves as an "interlingua" between agent datasets in diverse formats and unified agent training pipelines downstream. The design of ADP is expressive enough to capture a large variety of tasks, including API/tool use, browsing, coding, software engineering, and general agentic workflows, while remaining simple to parse and train on without engineering at a per-dataset level. In experiments, we unified a broad collection of 13 existing agent training datasets into ADP format, and converted the standardized ADP data into training-ready formats for multiple agent frameworks. We performed SFT on these data, and demonstrated an average performance gain of ~20% over corresponding base models, and delivers state-of-the-art or near-SOTA performance on standard coding, browsing, tool use, and research benchmarks, without domain-specific tuning. All code and data are released publicly, in the hope that ADP could help lower the barrier to standardized, scalable, and reproducible agent training.
PDF271December 1, 2025