Desbloqueando la Experiencia Implícita: Síntesis de Trayectorias de Uso de Herramientas a partir de Texto
Unlocking Implicit Experience: Synthesizing Tool-Use Trajectories from Text
January 15, 2026
Autores: Zhihao Xu, Rumei Li, Jiahuan Li, Rongxiang Weng, Jingang Wang, Xunliang Cai, Xiting Wang
cs.AI
Resumen
Permitir que los Modelos de Lenguaje a Gran Escala (LLM) utilicen herramientas de manera efectiva en interacciones multiturno es fundamental para construir agentes autónomos capaces. Sin embargo, adquirir datos diversos y realistas sobre el uso de herramientas en múltiples turnos sigue siendo un desafío significativo. En este trabajo, proponemos un nuevo paradigma basado en texto. Observamos que los corpus textuales contienen de forma natural experiencias ricas de resolución de problemas en múltiples pasos, que pueden servir como una fuente de datos sin explotar, escalable y auténtica para tareas de uso de herramientas multiturno. Basándonos en esta idea, presentamos GEM, una canalización de síntesis de datos que permite la generación y extracción de trayectorias de uso de herramientas multiturno a partir de corpus de texto mediante un proceso de cuatro etapas: filtrado por relevancia, extracción de flujos de trabajo y herramientas, fundamentación de trayectorias y refinamiento de complejidad. Para reducir el coste computacional, entrenamos además un Sintetizador de Trayectorias especializado mediante ajuste fino supervisado. Este modelo condensa la compleja canalización de generación en un generador de trayectorias eficiente y de extremo a extremo. Los experimentos demuestran que nuestro GEM-32B logra una mejora del 16.5% en el benchmark BFCL V3 Multi-turn. Nuestros modelos superan parcialmente el rendimiento de los modelos entrenados con datos del dominio específico de τ-bench (Aerolíneas y Retail), lo que destaca la capacidad de generalización superior derivada de nuestro paradigma de síntesis basado en texto. Cabe destacar que nuestro Sintetizador de Trayectorias iguala la calidad de la canalización completa mientras reduce significativamente la latencia y los costes de inferencia.
English
Enabling Large Language Models (LLMs) to effectively utilize tools in multi-turn interactions is essential for building capable autonomous agents. However, acquiring diverse and realistic multi-turn tool-use data remains a significant challenge. In this work, we propose a novel text-based paradigm. We observe that textual corpora naturally contain rich, multi-step problem-solving experiences, which can serve as an untapped, scalable, and authentic data source for multi-turn tool-use tasks. Based on this insight, we introduce GEM, a data synthesis pipeline that enables the generation and extraction of multi-turn tool-use trajectories from text corpora through a four-stage process: relevance filtering, workflow & tool extraction, trajectory grounding, and complexity refinement. To reduce the computational cost, we further train a specialized Trajectory Synthesizer via supervised fine-tuning. This model distills the complex generation pipeline into an efficient, end-to-end trajectory generator. Experiments demonstrate that our GEM-32B achieve a 16.5% improvement on the BFCL V3 Multi-turn benchmark. Our models partially surpass the performance of models trained on τ - bench (Airline and Retail) in-domain data, highlighting the superior generalization capability derived from our text-based synthesis paradigm. Notably, our Trajectory Synthesizer matches the quality of the full pipeline while significantly reducing inference latency and costs.