ChatPaper.aiChatPaper

Desbloqueando a Experiência Implícita: Síntese de Trajetórias de Uso de Ferramentas a partir de Texto

Unlocking Implicit Experience: Synthesizing Tool-Use Trajectories from Text

January 15, 2026
Autores: Zhihao Xu, Rumei Li, Jiahuan Li, Rongxiang Weng, Jingang Wang, Xunliang Cai, Xiting Wang
cs.AI

Resumo

Permitir que os Modelos de Linguagem de Grande Porte (LLMs) utilizem ferramentas de forma eficaz em interações multi-turno é essencial para a construção de agentes autónomos capazes. No entanto, a aquisição de dados diversos e realistas de utilização de ferramentas em multi-turno continua a ser um desafio significativo. Neste trabalho, propomos um novo paradigma baseado em texto. Observamos que os corpora textuais contêm naturalmente experiências ricas de resolução de problemas em múltiplas etapas, que podem servir como uma fonte de dados inexplorada, escalável e autêntica para tarefas de utilização de ferramentas em multi-turno. Com base nesta perceção, introduzimos o GEM, um *pipeline* de síntese de dados que permite a geração e extração de trajetórias de utilização de ferramentas em multi-turno a partir de corpora textuais através de um processo de quatro etapas: filtragem por relevância, extração de fluxo de trabalho e ferramentas, fundamentação da trajetória e refinamento de complexidade. Para reduzir o custo computacional, treinámos ainda um Sintetizador de Trajetórias especializado através de *fine-tuning* supervisionado. Este modelo destila o complexo *pipeline* de geração num gerador de trajetórias eficiente e de ponta a ponta. Experiências demonstram que o nosso GEM-32B alcança uma melhoria de 16.5% no *benchmark* BFCL V3 Multi-turn. Os nossos modelos superam parcialmente o desempenho de modelos treinados com dados do domínio específico do τ-bench (Airline e Retail), destacando a capacidade de generalização superior derivada do nosso paradigma de síntese baseado em texto. Notavelmente, o nosso Sintetizador de Trajetórias iguala a qualidade do *pipeline* completo, reduzindo significativamente a latência e os custos de inferência.
English
Enabling Large Language Models (LLMs) to effectively utilize tools in multi-turn interactions is essential for building capable autonomous agents. However, acquiring diverse and realistic multi-turn tool-use data remains a significant challenge. In this work, we propose a novel text-based paradigm. We observe that textual corpora naturally contain rich, multi-step problem-solving experiences, which can serve as an untapped, scalable, and authentic data source for multi-turn tool-use tasks. Based on this insight, we introduce GEM, a data synthesis pipeline that enables the generation and extraction of multi-turn tool-use trajectories from text corpora through a four-stage process: relevance filtering, workflow & tool extraction, trajectory grounding, and complexity refinement. To reduce the computational cost, we further train a specialized Trajectory Synthesizer via supervised fine-tuning. This model distills the complex generation pipeline into an efficient, end-to-end trajectory generator. Experiments demonstrate that our GEM-32B achieve a 16.5% improvement on the BFCL V3 Multi-turn benchmark. Our models partially surpass the performance of models trained on τ - bench (Airline and Retail) in-domain data, highlighting the superior generalization capability derived from our text-based synthesis paradigm. Notably, our Trajectory Synthesizer matches the quality of the full pipeline while significantly reducing inference latency and costs.
PDF394February 27, 2026