OpenSeeker: トレーニングデータの完全オープンソース化によるフロンティア検索エージェントの民主化
OpenSeeker: Democratizing Frontier Search Agents by Fully Open-Sourcing Training Data
March 16, 2026
著者: Yuwen Du, Rui Ye, Shuo Tang, Xinyu Zhu, Yijun Lu, Yuzhu Cai, Siheng Chen
cs.AI
要旨
深層検索能力はフロンティア大規模言語モデル(LLM)エージェントにとって不可欠な能力となっているが、高性能な検索エージェントの開発は、透明性の高い高品質な学習データの不足から、産業界の大手企業によって独占されているのが現状です。この継続的なデータ不足は、この領域における広範な研究コミュニティの進歩と革新を根本的に妨げてきました。この格差を埋めるため、我々はフロンティアレベルの性能を達成する初の完全オープンソース検索エージェント(モデルとデータの両方)であるOpenSeekerを紹介します。その中核となる技術的革新は二つあります:(1)事実に基づくスケーラブルで制御可能なQA合成。これは、トポロジカル拡張とエンティティ難読化によってウェブグラフを逆解析し、カバレッジと複雑性を制御可能な複雑なマルチホップ推論タスクを生成します。(2)ノイズ除去された軌道合成。これは、回顧的要約メカニズムを用いて軌道のノイズを除去し、教師LLMが高品質なアクションを生成することを促進します。実験結果により、わずか11.7kの合成サンプルで(単一の学習実行で)学習されたOpenSeekerが、BrowseComp、BrowseComp-ZH、xbench-DeepSearch、WideSearchを含む複数のベンチマークで最先端の性能を達成することが実証されています。特に、単純なSFTで学習されたOpenSeekerは、二番目に優れた完全オープンソースエージェントであるDeepDive(例:BrowseCompで29.5%対15.3%)を大幅に上回り、BrowseComp-ZHでは、大規模な継続事前学習、SFT、RLを経て学習されたTongyi DeepResearchのような産業界の競合相手さえも上回りました(48.4%対46.7%)。我々は、フロンティア検索エージェント研究の民主化と、より透明性が高く協力的なエコシステムの育成を目指し、完全な学習データセットとモデル重みを完全オープンソースとして公開します。
English
Deep search capabilities have become an indispensable competency for frontier Large Language Model (LLM) agents, yet the development of high-performance search agents remains dominated by industrial giants due to a lack of transparent, high-quality training data. This persistent data scarcity has fundamentally hindered the progress of the broader research community in developing and innovating within this domain. To bridge this gap, we introduce OpenSeeker, the first fully open-source search agent (i.e., model and data) that achieves frontier-level performance through two core technical innovations: (1) Fact-grounded scalable controllable QA synthesis, which reverse-engineers the web graph via topological expansion and entity obfuscation to generate complex, multi-hop reasoning tasks with controllable coverage and complexity. (2) Denoised trajectory synthesis, which employs a retrospective summarization mechanism to denoise the trajectory, therefore promoting the teacher LLMs to generate high-quality actions. Experimental results demonstrate that OpenSeeker, trained (a single training run) on only 11.7k synthesized samples, achieves state-of-the-art performance across multiple benchmarks including BrowseComp, BrowseComp-ZH, xbench-DeepSearch, and WideSearch. Notably, trained with simple SFT, OpenSeeker significantly outperforms the second-best fully open-source agent DeepDive (e.g., 29.5% v.s. 15.3% on BrowseComp), and even surpasses industrial competitors such as Tongyi DeepResearch (trained via extensive continual pre-training, SFT, and RL) on BrowseComp-ZH (48.4% v.s. 46.7%). We fully open-source the complete training dataset and the model weights to democratize frontier search agent research and foster a more transparent, collaborative ecosystem.