WebLeaper: Potenziare Efficienza ed Efficacia nei WebAgent Abilitando la Ricerca di Informazioni Arricchite
WebLeaper: Empowering Efficiency and Efficacy in WebAgent via Enabling Info-Rich Seeking
October 28, 2025
Autori: Zhengwei Tao, Haiyang Shen, Baixuan Li, Wenbiao Yin, Jialong Wu, Kuan Li, Zhongwang Zhang, Huifeng Yin, Rui Ye, Liwen Zhang, Xinyu Wang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI
Abstract
Gli agenti basati su Large Language Model (LLM) sono emersi come un approccio rivoluzionario per la risoluzione di problemi aperti, in cui la ricerca di informazioni (Information Seeking - IS) rappresenta una capacità fondamentale che abilita il ragionamento autonomo e la presa di decisioni. Sebbene la ricerca precedente si sia concentrata principalmente sul miglioramento della profondità di recupero, osserviamo che gli attuali agenti IS spesso soffrono di una bassa efficienza di ricerca, che a sua volta limita le prestazioni complessive. Un fattore chiave alla base di questa inefficienza è la scarsa densità di entità target nei task di addestramento, che limita le opportunità per gli agenti di apprendere e generalizzare comportamenti di ricerca efficienti.
Per affrontare queste sfide, proponiamo WebLeaper, un framework per costruire task IS ad alta copertura e generare traiettorie risolutive efficienti. Formuliamo l'IS come un problema di ragionamento ad albero, consentendo l'incorporazione di un insieme sostanzialmente più ampio di entità target in un contesto vincolato. Sfruttando tabelle di Wikipedia selezionate, proponiamo tre varianti per sintetizzare task IS - Basic, Union e Reverse-Union - per aumentare sistematicamente sia l'efficienza che l'efficacia dell'IS. Infine, selezioniamo le traiettorie di addestramento conservando solo quelle simultaneamente accurate ed efficienti, garantendo che il modello sia ottimizzato sia per la correttezza che per le prestazioni di ricerca.
Esperimenti estensivi in contesti sia basilari che comprensivi, condotti su cinque benchmark IS (BrowserComp, GAIA, xbench-DeepSearch, WideSearch e Seal-0), dimostrano che il nostro metodo raggiunge costantemente miglioramenti sia in termini di efficacia che di efficienza rispetto a baseline solide.
English
Large Language Model (LLM)-based agents have emerged as a transformative
approach for open-ended problem solving, with information seeking (IS) being a
core capability that enables autonomous reasoning and decision-making. While
prior research has largely focused on improving retrieval depth, we observe
that current IS agents often suffer from low search efficiency, which in turn
constrains overall performance. A key factor underlying this inefficiency is
the sparsity of target entities in training tasks, which limits opportunities
for agents to learn and generalize efficient search behaviors. To address these
challenges, we propose WebLeaper, a framework for constructing high-coverage IS
tasks and generating efficient solution trajectories. We formulate IS as a
tree-structured reasoning problem, enabling a substantially larger set of
target entities to be embedded within a constrained context. Leveraging curated
Wikipedia tables, we propose three variants for synthesizing IS tasks, Basic,
Union, and Reverse-Union, to systematically increase both IS efficiency and
efficacy. Finally, we curate training trajectories by retaining only those that
are simultaneously accurate and efficient, ensuring that the model is optimized
for both correctness and search performance. Extensive experiments on both
basic and comprehensive settings, conducted on five IS benchmarks, BrowserComp,
GAIA, xbench-DeepSearch, WideSearch, and Seal-0, demonstrate that our method
consistently achieves improvements in both effectiveness and efficiency over
strong baselines.