ChatPaper.aiChatPaper

WebLeaper: Potencializando a Eficiência e Eficácia em Agentes Web através da Busca Rica em Informações

WebLeaper: Empowering Efficiency and Efficacy in WebAgent via Enabling Info-Rich Seeking

October 28, 2025
Autores: Zhengwei Tao, Haiyang Shen, Baixuan Li, Wenbiao Yin, Jialong Wu, Kuan Li, Zhongwang Zhang, Huifeng Yin, Rui Ye, Liwen Zhang, Xinyu Wang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI

Resumo

Os agentes baseados em Modelos de Linguagem de Grande Escala (LLM) emergiram como uma abordagem transformadora para a resolução de problemas abertos, sendo a busca de informação (BI) uma capacidade central que permite o raciocínio autónomo e a tomada de decisões. Embora a investigação prévia se tenha focado maioritariamente em melhorar a profundidade de recuperação, observamos que os atuais agentes de BI sofrem frequentemente de baixa eficiência de pesquisa, o que, por sua vez, restringe o desempenho global. Um fator chave subjacente a esta ineficiência é a esparsidade de entidades-alvo nas tarefas de treino, o que limita as oportunidades para os agentes aprenderem e generalizarem comportamentos de pesquisa eficientes. Para enfrentar estes desafios, propomos o WebLeaper, um quadro para a construção de tarefas de BI de alta cobertura e para a geração de trajetórias de solução eficientes. Formula-mos a BI como um problema de raciocínio com estrutura arbórea, permitindo que um conjunto substancialmente maior de entidades-alvo seja incorporado num contexto restrito. Aproveitando tabelas da Wikipédia curadas, propomos três variantes para sintetizar tarefas de BI — Básica, União e União Reversa — para aumentar sistematicamente tanto a eficiência como a eficácia da BI. Por fim, curamos trajetórias de treino, retendo apenas aquelas que são simultaneamente precisas e eficientes, garantindo que o modelo é otimizado tanto para a correção como para o desempenho de pesquisa. Experiências extensivas em configurações básicas e abrangentes, realizadas em cinco benchmarks de BI — BrowserComp, GAIA, xbench-DeepSearch, WideSearch e Seal-0 — demonstram que o nosso método alcança consistentemente melhorias tanto na eficácia como na eficiência em comparação com linhas de base robustas.
English
Large Language Model (LLM)-based agents have emerged as a transformative approach for open-ended problem solving, with information seeking (IS) being a core capability that enables autonomous reasoning and decision-making. While prior research has largely focused on improving retrieval depth, we observe that current IS agents often suffer from low search efficiency, which in turn constrains overall performance. A key factor underlying this inefficiency is the sparsity of target entities in training tasks, which limits opportunities for agents to learn and generalize efficient search behaviors. To address these challenges, we propose WebLeaper, a framework for constructing high-coverage IS tasks and generating efficient solution trajectories. We formulate IS as a tree-structured reasoning problem, enabling a substantially larger set of target entities to be embedded within a constrained context. Leveraging curated Wikipedia tables, we propose three variants for synthesizing IS tasks, Basic, Union, and Reverse-Union, to systematically increase both IS efficiency and efficacy. Finally, we curate training trajectories by retaining only those that are simultaneously accurate and efficient, ensuring that the model is optimized for both correctness and search performance. Extensive experiments on both basic and comprehensive settings, conducted on five IS benchmarks, BrowserComp, GAIA, xbench-DeepSearch, WideSearch, and Seal-0, demonstrate that our method consistently achieves improvements in both effectiveness and efficiency over strong baselines.
PDF212February 7, 2026