Explore para Evoluir: Escalonando a Lógica de Agregação Evoluída por meio de Exploração Online Proativa para Agentes de Pesquisa Profunda
Explore to Evolve: Scaling Evolved Aggregation Logic via Proactive Online Exploration for Deep Research Agents
October 16, 2025
Autores: Rui Wang, Ce Zhang, Jun-Yu Ma, Jianshu Zhang, Hongru Wang, Yi Chen, Boyang Xue, Tianqing Fang, Zhisong Zhang, Hongming Zhang, Haitao Mi, Dong Yu, Kam-Fai Wong
cs.AI
Resumo
Agentes de pesquisa profunda na web não apenas recuperam informações de diversas fontes, como ambientes web, arquivos e entradas multimodais, mas, mais importante, precisam analisar e agregar conhecimento de forma rigorosa para realizar pesquisas perspicazes. No entanto, os agentes de pesquisa profunda de código aberto existentes focam predominantemente em aprimorar as capacidades de busca de informações dos agentes web para localizar dados específicos, enquanto negligenciam a necessidade essencial de agregação de informações, o que limitaria sua capacidade de apoiar pesquisas aprofundadas. Propomos um paradigma de Explorar para Evoluir para construir de forma escalável dados de treinamento verificáveis para agentes web. Começando com uma exploração online proativa, um agente coleta informações fundamentadas ao explorar a web real. Usando as evidências coletadas, o agente então auto-evolui um programa de agregação ao selecionar, compor e refinar operações de 12 tipos lógicos de alto nível para sintetizar um par de perguntas e respostas (QA) verificável. Essa evolução de orientações de alto nível para operações concretas nos permitiu produzir de forma escalável o WebAggregatorQA, um conjunto de dados com 10 mil amostras em 50 mil sites e 11 domínios. Com base em um framework de agente de código aberto, SmolAgents, coletamos trajetórias de ajuste fino supervisionado para desenvolver uma série de modelos fundamentais, o WebAggregator. O WebAggregator-8B iguala o desempenho do GPT-4.1, enquanto a variante de 32B supera o GPT-4.1 em mais de 10% no GAIA-text e se aproxima do Claude-3.7-sonnet. Além disso, dada a disponibilidade limitada de benchmarks que avaliam as habilidades de agregação de informações de agentes web, construímos uma divisão de avaliação anotada manualmente do WebAggregatorQA como um conjunto de testes desafiador. Nesse benchmark, o Claude-3.7-sonnet alcança apenas 28%, e o GPT-4.1 marca 25,8%. Mesmo quando os agentes conseguem recuperar todas as referências, eles ainda lutam no WebAggregatorQA, destacando a necessidade de fortalecer as capacidades de agregação de informações das bases dos agentes web.
English
Deep research web agents not only retrieve information from diverse sources
such as web environments, files, and multimodal inputs, but more importantly,
they need to rigorously analyze and aggregate knowledge for insightful
research. However, existing open-source deep research agents predominantly
focus on enhancing information-seeking capabilities of web agents to locate
specific information, while overlooking the essential need for information
aggregation, which would limit their ability to support in-depth research. We
propose an Explore to Evolve paradigm to scalably construct verifiable training
data for web agents. Begins with proactive online exploration, an agent sources
grounded information by exploring the real web. Using the collected evidence,
the agent then self-evolves an aggregation program by selecting, composing, and
refining operations from 12 high-level logical types to synthesize a verifiable
QA pair. This evolution from high-level guidance to concrete operations allowed
us to scalably produce WebAggregatorQA, a dataset of 10K samples across 50K
websites and 11 domains. Based on an open-source agent framework, SmolAgents,
we collect supervised fine-tuning trajectories to develop a series of
foundation models, WebAggregator. WebAggregator-8B matches the performance of
GPT-4.1, while the 32B variant surpasses GPT-4.1 by more than 10% on GAIA-text
and closely approaches Claude-3.7-sonnet. Moreover, given the limited
availability of benchmarks that evaluate web agents' information aggregation
abilities, we construct a human-annotated evaluation split of WebAggregatorQA
as a challenging test set. On this benchmark, Claude-3.7-sonnet only achieves
28%, and GPT-4.1 scores 25.8%. Even when agents manage to retrieve all
references, they still struggle on WebAggregatorQA, highlighting the need to
strengthen the information aggregation capabilities of web agent foundations.