WebLeaper: Potenciando la Eficiencia y Eficacia en Agentes Web mediante la Habilitación de Búsquedas Ricas en Información
WebLeaper: Empowering Efficiency and Efficacy in WebAgent via Enabling Info-Rich Seeking
October 28, 2025
Autores: Zhengwei Tao, Haiyang Shen, Baixuan Li, Wenbiao Yin, Jialong Wu, Kuan Li, Zhongwang Zhang, Huifeng Yin, Rui Ye, Liwen Zhang, Xinyu Wang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI
Resumen
Los agentes basados en Modelos de Lenguaje a Gran Escala (LLM) han surgido como un enfoque transformador para la resolución de problemas abiertos, siendo la búsqueda de información (IS) una capacidad fundamental que permite el razonamiento autónomo y la toma de decisiones. Si bien investigaciones previas se han centrado principalmente en mejorar la profundidad de la recuperación, observamos que los agentes de IS actuales a menudo adolecen de una baja eficiencia de búsqueda, lo que a su vez restringe el rendimiento general. Un factor clave subyacente a esta ineficiencia es la escasez de entidades objetivo en las tareas de entrenamiento, lo que limita las oportunidades para que los agentes aprendan y generalicen comportamientos de búsqueda eficientes. Para abordar estos desafíos, proponemos WebLeaper, un marco para construir tareas de IS de alta cobertura y generar trayectorias de solución eficientes. Formulamos la IS como un problema de razonamiento con estructura de árbol, permitiendo integrar un conjunto sustancialmente mayor de entidades objetivo dentro de un contexto restringido. Aprovechando tablas de Wikipedia curadas, proponemos tres variantes para sintetizar tareas de IS: Básica, Unión y Unión-Inversa, con el fin de aumentar sistemáticamente tanto la eficiencia como la eficacia de la IS. Finalmente, seleccionamos trayectorias de entrenamiento conservando solo aquellas que son simultáneamente precisas y eficientes, asegurando que el modelo esté optimizado tanto para la corrección como para el rendimiento de búsqueda. Experimentos exhaustivos en entornos básicos y completos, realizados en cinco benchmarks de IS (BrowserComp, GAIA, xbench-DeepSearch, WideSearch y Seal-0), demuestran que nuestro método logra consistentemente mejoras tanto en efectividad como en eficiencia respecto a líneas de base sólidas.
English
Large Language Model (LLM)-based agents have emerged as a transformative
approach for open-ended problem solving, with information seeking (IS) being a
core capability that enables autonomous reasoning and decision-making. While
prior research has largely focused on improving retrieval depth, we observe
that current IS agents often suffer from low search efficiency, which in turn
constrains overall performance. A key factor underlying this inefficiency is
the sparsity of target entities in training tasks, which limits opportunities
for agents to learn and generalize efficient search behaviors. To address these
challenges, we propose WebLeaper, a framework for constructing high-coverage IS
tasks and generating efficient solution trajectories. We formulate IS as a
tree-structured reasoning problem, enabling a substantially larger set of
target entities to be embedded within a constrained context. Leveraging curated
Wikipedia tables, we propose three variants for synthesizing IS tasks, Basic,
Union, and Reverse-Union, to systematically increase both IS efficiency and
efficacy. Finally, we curate training trajectories by retaining only those that
are simultaneously accurate and efficient, ensuring that the model is optimized
for both correctness and search performance. Extensive experiments on both
basic and comprehensive settings, conducted on five IS benchmarks, BrowserComp,
GAIA, xbench-DeepSearch, WideSearch, and Seal-0, demonstrate that our method
consistently achieves improvements in both effectiveness and efficiency over
strong baselines.