Erkunden, um zu Evolvieren: Skalierung evolvierter Aggregationslogik durch proaktive Online-Erkundung für tiefgehende Forschungsagenten
Explore to Evolve: Scaling Evolved Aggregation Logic via Proactive Online Exploration for Deep Research Agents
October 16, 2025
papers.authors: Rui Wang, Ce Zhang, Jun-Yu Ma, Jianshu Zhang, Hongru Wang, Yi Chen, Boyang Xue, Tianqing Fang, Zhisong Zhang, Hongming Zhang, Haitao Mi, Dong Yu, Kam-Fai Wong
cs.AI
papers.abstract
Tiefgehende Forschungs-Webagenten holen nicht nur Informationen aus verschiedenen Quellen wie Webumgebungen, Dateien und multimodalen Eingaben, sondern müssen vor allem das Wissen rigoros analysieren und aggregieren, um fundierte Forschung zu ermöglichen. Allerdings konzentrieren sich bestehende Open-Source-Tiefenforschungsagenten überwiegend darauf, die Informationsbeschaffungsfähigkeiten von Webagenten zu verbessern, um spezifische Informationen zu finden, während sie den wesentlichen Bedarf an Informationsaggregation übersehen, was ihre Fähigkeit zur Unterstützung tiefergehender Forschung einschränkt. Wir schlagen ein „Explore to Evolve“-Paradigma vor, um skalierbar überprüfbare Trainingsdaten für Webagenten zu konstruieren. Beginnend mit proaktiver Online-Erkundung, sammelt ein Agent fundierte Informationen durch die Erkundung des realen Webs. Mit den gesammelten Beweisen entwickelt der Agent dann selbst ein Aggregationsprogramm, indem er Operationen aus 12 hochrangigen logischen Typen auswählt, kombiniert und verfeinert, um ein überprüfbares Frage-Antwort-Paar zu synthetisieren. Diese Entwicklung von hochrangiger Anleitung zu konkreten Operationen ermöglichte es uns, skalierbar WebAggregatorQA zu produzieren, einen Datensatz mit 10.000 Beispielen über 50.000 Websites und 11 Domänen. Basierend auf einem Open-Source-Agenten-Framework, SmolAgents, sammeln wir überwachte Feinabstimmungspfade, um eine Reihe von Basismodellen, WebAggregator, zu entwickeln. WebAggregator-8B erreicht die Leistung von GPT-4.1, während die 32B-Variante GPT-4.1 auf GAIA-text um mehr als 10 % übertrifft und sich Claude-3.7-sonnet annähert. Darüber hinaus konstruieren wir angesichts der begrenzten Verfügbarkeit von Benchmarks, die die Informationsaggregationsfähigkeiten von Webagenten bewerten, eine menschlich annotierte Evaluationsaufteilung von WebAggregatorQA als anspruchsvollen Testdatensatz. Auf diesem Benchmark erreicht Claude-3.7-sonnet nur 28 %, und GPT-4.1 erzielt 25,8 %. Selbst wenn es Agenten gelingt, alle Referenzen abzurufen, kämpfen sie immer noch mit WebAggregatorQA, was die Notwendigkeit unterstreicht, die Informationsaggregationsfähigkeiten von Webagenten-Basismodellen zu stärken.
English
Deep research web agents not only retrieve information from diverse sources
such as web environments, files, and multimodal inputs, but more importantly,
they need to rigorously analyze and aggregate knowledge for insightful
research. However, existing open-source deep research agents predominantly
focus on enhancing information-seeking capabilities of web agents to locate
specific information, while overlooking the essential need for information
aggregation, which would limit their ability to support in-depth research. We
propose an Explore to Evolve paradigm to scalably construct verifiable training
data for web agents. Begins with proactive online exploration, an agent sources
grounded information by exploring the real web. Using the collected evidence,
the agent then self-evolves an aggregation program by selecting, composing, and
refining operations from 12 high-level logical types to synthesize a verifiable
QA pair. This evolution from high-level guidance to concrete operations allowed
us to scalably produce WebAggregatorQA, a dataset of 10K samples across 50K
websites and 11 domains. Based on an open-source agent framework, SmolAgents,
we collect supervised fine-tuning trajectories to develop a series of
foundation models, WebAggregator. WebAggregator-8B matches the performance of
GPT-4.1, while the 32B variant surpasses GPT-4.1 by more than 10% on GAIA-text
and closely approaches Claude-3.7-sonnet. Moreover, given the limited
availability of benchmarks that evaluate web agents' information aggregation
abilities, we construct a human-annotated evaluation split of WebAggregatorQA
as a challenging test set. On this benchmark, Claude-3.7-sonnet only achieves
28%, and GPT-4.1 scores 25.8%. Even when agents manage to retrieve all
references, they still struggle on WebAggregatorQA, highlighting the need to
strengthen the information aggregation capabilities of web agent foundations.