Flash-Searcher: DAGベースの並列実行による高速かつ効果的なWebエージェント
Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution
September 29, 2025
著者: Tianrui Qin, Qianben Chen, Sinuo Wang, He Xing, King Zhu, He Zhu, Dingfeng Shi, Xinxin Liu, Ge Zhang, Jiaheng Liu, Yuchen Eleanor Jiang, Xitong Gao, Wangchunshu Zhou
cs.AI
要旨
大規模言語モデル(LLM)は、外部ツールを装備することで複雑な推論タスクにおいて顕著な能力を発揮することが実証されています。しかし、現在のフレームワークは主に逐次処理に依存しており、特にツールとの広範な相互作用を必要とするタスクにおいて非効率な実行をもたらしています。本論文では、Flash-Searcherという新しい並列エージェント推論フレームワークを紹介します。このフレームワークは、実行パラダイムを逐次チェーンから有向非巡回グラフ(DAG)へと根本的に再構築します。Flash-Searcherは複雑なタスクを明示的な依存関係を持つサブタスクに分解し、論理的な制約を維持しながら独立した推論パスの並列実行を可能にします。動的なワークフロー最適化を通じて、本フレームワークは中間結果に基づいて実行グラフを継続的に改良し、要約モジュールを効果的に統合します。複数のベンチマークにわたる包括的な評価により、Flash-Searcherが既存のアプローチを一貫して上回ることが示されています。具体的には、BrowseCompで67.7%、xbench-DeepSearchで83%の精度を達成し、現在のフレームワークと比較してエージェントの実行ステップを最大35%削減します。さらに、この並列推論パイプラインを単一モデルに蒸留すると、多様なバックボーンアーキテクチャにわたって大幅な性能向上が観察され、本手法の汎用性が強調されます。したがって、本研究はエージェントアーキテクチャ設計における重要な進展を表し、複雑な推論タスクのためのよりスケーラブルで効率的なパラダイムを提供します。
English
Large language models (LLMs) have demonstrated remarkable capabilities in
complex reasoning tasks when equipped with external tools. However, current
frameworks predominantly rely on sequential processing, leading to inefficient
execution particularly for tasks requiring extensive tool interaction. This
paper introduces Flash-Searcher, a novel parallel agent reasoning framework
that fundamentally reimagines the execution paradigm from sequential chains to
directed acyclic graphs (DAGs). Flash-Searcher decomposes complex tasks into
subtasks with explicit dependencies, enabling concurrent execution of
independent reasoning paths while maintaining logical constraints. Through
dynamic workflow optimization, our framework continuously refines the execution
graph based on intermediate results, effectively integrating summary module.
Comprehensive evaluations across multiple benchmarks demonstrate that
Flash-Searcher consistently outperforms existing approaches. Specifically, it
achieves 67.7% accuracy on BrowseComp and 83% on xbench-DeepSearch, while
reducing agent execution steps by up to 35% compared to current frameworks.
Furthermore, when distilling this parallel reasoning pipeline into single
models, we observe substantial performance gains across diverse backbone
architectures, underscoring the generalizability of our methodology. Our work
thus represents a significant advance in agent architecture design, offering a
more scalable and efficient paradigm for complex reasoning tasks.