ChatPaper.aiChatPaper

WebLeaper : Renforcer l'efficience et l'efficacité des agents web en permettant une recherche riche en informations

WebLeaper: Empowering Efficiency and Efficacy in WebAgent via Enabling Info-Rich Seeking

October 28, 2025
papers.authors: Zhengwei Tao, Haiyang Shen, Baixuan Li, Wenbiao Yin, Jialong Wu, Kuan Li, Zhongwang Zhang, Huifeng Yin, Rui Ye, Liwen Zhang, Xinyu Wang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI

papers.abstract

Les agents basés sur des modèles de langage de grande taille (LLM) sont apparus comme une approche transformative pour la résolution de problèmes ouverts, la recherche d'information (RI) constituant une capacité fondamentale qui permet un raisonnement et une prise de décision autonomes. Alors que les recherches antérieures se sont largement concentrées sur l'amélioration de la profondeur de récupération, nous observons que les agents de RI actuels souffrent souvent d'une faible efficacité de recherche, ce qui limite à son tour les performances globales. Un facteur clé sous-jacent à cette inefficacité est la rareté des entités cibles dans les tâches d'entraînement, ce qui limite les opportunités pour les agents d'apprendre et de généraliser des comportements de recherche efficaces. Pour relever ces défis, nous proposons WebLeaper, un cadre pour construire des tâches de RI à haute couverture et générer des trajectoires de solution efficaces. Nous formalisons la RI comme un problème de raisonnement à structure arborescente, permettant d'intégrer un ensemble substantiellement plus grand d'entrités cibles dans un contexte contraint. En tirant parti de tables Wikipédia organisées, nous proposons trois variantes pour synthétiser des tâches de RI : Basique, Union et Union-Inverse, afin d'augmenter systématiquement à la fois l'efficacité et l'efficience de la RI. Enfin, nous sélectionnons des trajectoires d'entraînement en ne conservant que celles qui sont à la fois précises et efficaces, garantissant ainsi que le modèle est optimisé à la fois pour l'exactitude et les performances de recherche. Des expériences approfondies sur des configurations basiques et complètes, menées sur cinq benchmarks de RI (BrowserComp, GAIA, xbench-DeepSearch, WideSearch et Seal-0), démontrent que notre méthode obtient systématiquement des améliorations à la fois en termes d'efficacité et d'efficience par rapport à des bases de référence solides.
English
Large Language Model (LLM)-based agents have emerged as a transformative approach for open-ended problem solving, with information seeking (IS) being a core capability that enables autonomous reasoning and decision-making. While prior research has largely focused on improving retrieval depth, we observe that current IS agents often suffer from low search efficiency, which in turn constrains overall performance. A key factor underlying this inefficiency is the sparsity of target entities in training tasks, which limits opportunities for agents to learn and generalize efficient search behaviors. To address these challenges, we propose WebLeaper, a framework for constructing high-coverage IS tasks and generating efficient solution trajectories. We formulate IS as a tree-structured reasoning problem, enabling a substantially larger set of target entities to be embedded within a constrained context. Leveraging curated Wikipedia tables, we propose three variants for synthesizing IS tasks, Basic, Union, and Reverse-Union, to systematically increase both IS efficiency and efficacy. Finally, we curate training trajectories by retaining only those that are simultaneously accurate and efficient, ensuring that the model is optimized for both correctness and search performance. Extensive experiments on both basic and comprehensive settings, conducted on five IS benchmarks, BrowserComp, GAIA, xbench-DeepSearch, WideSearch, and Seal-0, demonstrate that our method consistently achieves improvements in both effectiveness and efficiency over strong baselines.
PDF202December 1, 2025