エージェントデータプロトコル:多様で効果的なLLMエージェントのファインチューニングのためのデータセット統合
Agent Data Protocol: Unifying Datasets for Diverse, Effective Fine-tuning of LLM Agents
October 28, 2025
著者: Yueqi Song, Ketan Ramaneti, Zaid Sheikh, Ziru Chen, Boyu Gou, Tianbao Xie, Yiheng Xu, Danyang Zhang, Apurva Gandhi, Fan Yang, Joseph Liu, Tianyue Ou, Zhihao Yuan, Frank Xu, Shuyan Zhou, Xingyao Wang, Xiang Yue, Tao Yu, Huan Sun, Yu Su, Graham Neubig
cs.AI
要旨
大規模な教師ありファインチューニングによるAIエージェントの研究結果は、公開されているものが比較的少ない状況です。これは、エージェントの訓練データの収集が独特の課題を伴うためです。本研究では、このボトルネックが基盤となるデータ源の不足ではなく、多様なデータが異種混合の形式、ツール、インターフェースに散在している点にあると主張します。この問題に対処するため、我々はエージェントデータプロトコル(ADP)を提案します。ADPは軽量な表現言語であり、多様な形式のエージェントデータセットと、下流で統一されたエージェント訓練パイプラインとの間の「中間言語」として機能します。ADPの設計は、API/ツール使用、ブラウジング、コーディング、ソフトウェアエンジニアリング、一般的なエージェントワークフローなど、多岐にわたるタスクを捕捉するのに十分な表現力を持ちつつ、データセットごとのエンジニアリングを必要とせず、簡単に解析・訓練できるように簡素さを保っています。実験では、13の既存のエージェント訓練データセットをADP形式に統一し、標準化されたADPデータを複数のエージェントフレームワーク向けの訓練対応形式に変換しました。これらのデータを用いて教師ありファインチューニングを実施した結果、対応するベースモデルと比較して平均約20%の性能向上を実証し、コーディング、ブラウジング、ツール使用、研究ベンチマークにおいて、ドメイン固有の調整なしに、State-of-the-Artまたはそれに迫る性能を達成しました。すべてのコードとデータを公開しており、ADPが標準化された、スケーラブルで再現性のあるエージェント訓練への参入障壁を下げる一助となることを期待しています。
English
Public research results on large-scale supervised finetuning of AI agents
remain relatively rare, since the collection of agent training data presents
unique challenges. In this work, we argue that the bottleneck is not a lack of
underlying data sources, but that a large variety of data is fragmented across
heterogeneous formats, tools, and interfaces. To this end, we introduce the
agent data protocol (ADP), a light-weight representation language that serves
as an "interlingua" between agent datasets in diverse formats and unified agent
training pipelines downstream. The design of ADP is expressive enough to
capture a large variety of tasks, including API/tool use, browsing, coding,
software engineering, and general agentic workflows, while remaining simple to
parse and train on without engineering at a per-dataset level. In experiments,
we unified a broad collection of 13 existing agent training datasets into ADP
format, and converted the standardized ADP data into training-ready formats for
multiple agent frameworks. We performed SFT on these data, and demonstrated an
average performance gain of ~20% over corresponding base models, and delivers
state-of-the-art or near-SOTA performance on standard coding, browsing, tool
use, and research benchmarks, without domain-specific tuning. All code and data
are released publicly, in the hope that ADP could help lower the barrier to
standardized, scalable, and reproducible agent training.