Esplorare per Evolvere: Scalabilità della Logica di Aggregazione Evoluta tramite Esplorazione Online Proattiva per Agenti di Ricerca Profonda
Explore to Evolve: Scaling Evolved Aggregation Logic via Proactive Online Exploration for Deep Research Agents
October 16, 2025
Autori: Rui Wang, Ce Zhang, Jun-Yu Ma, Jianshu Zhang, Hongru Wang, Yi Chen, Boyang Xue, Tianqing Fang, Zhisong Zhang, Hongming Zhang, Haitao Mi, Dong Yu, Kam-Fai Wong
cs.AI
Abstract
Gli agenti di ricerca approfondita sul web non solo recuperano informazioni da fonti diverse come ambienti web, file e input multimodali, ma, cosa ancora più importante, devono analizzare e aggregare rigorosamente le conoscenze per condurre ricerche approfondite. Tuttavia, gli attuali agenti di ricerca approfondita open source si concentrano principalmente sul potenziamento delle capacità di ricerca delle informazioni per localizzare dati specifici, trascurando l'essenziale necessità di aggregazione delle informazioni, il che limiterebbe la loro capacità di supportare ricerche approfondite. Proponiamo un paradigma "Esplorare per Evolvere" per costruire in modo scalabile dati di formazione verificabili per gli agenti web. Iniziando con un'esplorazione online proattiva, un agente raccoglie informazioni fondate esplorando il web reale. Utilizzando le prove raccolte, l'agente poi auto-evolve un programma di aggregazione selezionando, componendo e affinando operazioni da 12 tipi logici di alto livello per sintetizzare una coppia di domande e risposte verificabile. Questa evoluzione da una guida di alto livello a operazioni concrete ci ha permesso di produrre in modo scalabile WebAggregatorQA, un dataset di 10K campioni provenienti da 50K siti web e 11 domini. Basandoci su un framework open source per agenti, SmolAgents, raccogliamo traiettorie di fine-tuning supervisionato per sviluppare una serie di modelli di base, WebAggregator. WebAggregator-8B eguaglia le prestazioni di GPT-4.1, mentre la variante da 32B supera GPT-4.1 di oltre il 10% su GAIA-text e si avvicina molto a Claude-3.7-sonnet. Inoltre, data la limitata disponibilità di benchmark che valutano le capacità di aggregazione delle informazioni degli agenti web, costruiamo una suddivisione di valutazione annotata manualmente di WebAggregatorQA come set di test impegnativo. Su questo benchmark, Claude-3.7-sonnet raggiunge solo il 28%, e GPT-4.1 ottiene il 25.8%. Anche quando gli agenti riescono a recuperare tutti i riferimenti, continuano a lottare su WebAggregatorQA, evidenziando la necessità di rafforzare le capacità di aggregazione delle informazioni delle basi degli agenti web.
English
Deep research web agents not only retrieve information from diverse sources
such as web environments, files, and multimodal inputs, but more importantly,
they need to rigorously analyze and aggregate knowledge for insightful
research. However, existing open-source deep research agents predominantly
focus on enhancing information-seeking capabilities of web agents to locate
specific information, while overlooking the essential need for information
aggregation, which would limit their ability to support in-depth research. We
propose an Explore to Evolve paradigm to scalably construct verifiable training
data for web agents. Begins with proactive online exploration, an agent sources
grounded information by exploring the real web. Using the collected evidence,
the agent then self-evolves an aggregation program by selecting, composing, and
refining operations from 12 high-level logical types to synthesize a verifiable
QA pair. This evolution from high-level guidance to concrete operations allowed
us to scalably produce WebAggregatorQA, a dataset of 10K samples across 50K
websites and 11 domains. Based on an open-source agent framework, SmolAgents,
we collect supervised fine-tuning trajectories to develop a series of
foundation models, WebAggregator. WebAggregator-8B matches the performance of
GPT-4.1, while the 32B variant surpasses GPT-4.1 by more than 10% on GAIA-text
and closely approaches Claude-3.7-sonnet. Moreover, given the limited
availability of benchmarks that evaluate web agents' information aggregation
abilities, we construct a human-annotated evaluation split of WebAggregatorQA
as a challenging test set. On this benchmark, Claude-3.7-sonnet only achieves
28%, and GPT-4.1 scores 25.8%. Even when agents manage to retrieve all
references, they still struggle on WebAggregatorQA, highlighting the need to
strengthen the information aggregation capabilities of web agent foundations.