ChatPaper.aiChatPaper

WebLeaper: Potenziare Efficienza ed Efficacia nei WebAgent Abilitando la Ricerca di Informazioni Arricchite

WebLeaper: Empowering Efficiency and Efficacy in WebAgent via Enabling Info-Rich Seeking

October 28, 2025
Autori: Zhengwei Tao, Haiyang Shen, Baixuan Li, Wenbiao Yin, Jialong Wu, Kuan Li, Zhongwang Zhang, Huifeng Yin, Rui Ye, Liwen Zhang, Xinyu Wang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI

Abstract

Gli agenti basati su Large Language Model (LLM) sono emersi come un approccio rivoluzionario per la risoluzione di problemi aperti, in cui la ricerca di informazioni (Information Seeking - IS) rappresenta una capacità fondamentale che abilita il ragionamento autonomo e la presa di decisioni. Sebbene la ricerca precedente si sia concentrata principalmente sul miglioramento della profondità di recupero, osserviamo che gli attuali agenti IS spesso soffrono di una bassa efficienza di ricerca, che a sua volta limita le prestazioni complessive. Un fattore chiave alla base di questa inefficienza è la scarsa densità di entità target nei task di addestramento, che limita le opportunità per gli agenti di apprendere e generalizzare comportamenti di ricerca efficienti. Per affrontare queste sfide, proponiamo WebLeaper, un framework per costruire task IS ad alta copertura e generare traiettorie risolutive efficienti. Formuliamo l'IS come un problema di ragionamento ad albero, consentendo l'incorporazione di un insieme sostanzialmente più ampio di entità target in un contesto vincolato. Sfruttando tabelle di Wikipedia selezionate, proponiamo tre varianti per sintetizzare task IS - Basic, Union e Reverse-Union - per aumentare sistematicamente sia l'efficienza che l'efficacia dell'IS. Infine, selezioniamo le traiettorie di addestramento conservando solo quelle simultaneamente accurate ed efficienti, garantendo che il modello sia ottimizzato sia per la correttezza che per le prestazioni di ricerca. Esperimenti estensivi in contesti sia basilari che comprensivi, condotti su cinque benchmark IS (BrowserComp, GAIA, xbench-DeepSearch, WideSearch e Seal-0), dimostrano che il nostro metodo raggiunge costantemente miglioramenti sia in termini di efficacia che di efficienza rispetto a baseline solide.
English
Large Language Model (LLM)-based agents have emerged as a transformative approach for open-ended problem solving, with information seeking (IS) being a core capability that enables autonomous reasoning and decision-making. While prior research has largely focused on improving retrieval depth, we observe that current IS agents often suffer from low search efficiency, which in turn constrains overall performance. A key factor underlying this inefficiency is the sparsity of target entities in training tasks, which limits opportunities for agents to learn and generalize efficient search behaviors. To address these challenges, we propose WebLeaper, a framework for constructing high-coverage IS tasks and generating efficient solution trajectories. We formulate IS as a tree-structured reasoning problem, enabling a substantially larger set of target entities to be embedded within a constrained context. Leveraging curated Wikipedia tables, we propose three variants for synthesizing IS tasks, Basic, Union, and Reverse-Union, to systematically increase both IS efficiency and efficacy. Finally, we curate training trajectories by retaining only those that are simultaneously accurate and efficient, ensuring that the model is optimized for both correctness and search performance. Extensive experiments on both basic and comprehensive settings, conducted on five IS benchmarks, BrowserComp, GAIA, xbench-DeepSearch, WideSearch, and Seal-0, demonstrate that our method consistently achieves improvements in both effectiveness and efficiency over strong baselines.
PDF202December 1, 2025