ChatPaper.aiChatPaper

Rapport Technique FunReason-MT : Surmonter la Barrière de Complexité dans l'Appel de Fonctions Multi-Tours

FunReason-MT Technical Report: Overcoming the Complexity Barrier in Multi-Turn Function Calling

October 28, 2025
papers.authors: Zengzhuang Xu, Bingguang Hao, Zechuan Wang, Yuntao Wen, Maolin Wang, Yang Liu, Long Chen, Dong Wang, Yicheng Chen, Cunyin Peng, Chenyi Zhuang, Jinjie Gu, Leilei Gan, Xiangyu Zhao, Shi Gu
cs.AI

papers.abstract

L'appel de fonction (FC) permet aux grands modèles de langage (LLM) et aux agents autonomes d'interagir avec des outils externes, une capacité essentielle pour résoudre des problèmes complexes du monde réel. Alors que cette aptitude devient de plus en plus centrale pour les systèmes d'IA avancés, le besoin de données d'entraînement de haute qualité et multi-tours pour la développer et l'affiner ne peut être surestimé. Les méthodes existantes de synthèse de données, telles que l'échantillonnage aléatoire de l'environnement ou le jeu de rôle multi-agents, ne sont pas suffisamment puissantes pour générer des données de haute qualité dans des environnements réalistes. Les défis pratiques se présentent sous trois aspects : l'entraînement ciblé du modèle, l'isolation de l'architecture des outils et la dépendance logique multi-tours. Pour remédier à ces lacunes structurelles, nous présentons FunReason-MT, un nouveau cadre de synthèse de données pour l'utilisation multi-tours d'outils en contexte réel. FunReason-MT résout la barrière de complexité des données FC multi-tours en employant 1) des interactions par graphe Environnement-API pour recueillir des trajectoires variées et de haute qualité, 2) une synthèse avancée de requêtes-outils pour simplifier la construction de requêtes difficiles, et 3) une chaîne itérative guidée pour une génération sophistiquée de raisonnement en chaîne (CoT). Les évaluations sur le Berkeley Function-Calling Leaderboard (BFCLv3) démontrent la puissance de notre cadre : un modèle de 4B construit sur les données générées par FunReason-MT atteint des performances de pointe parmi les modèles de taille comparable, surpassant la plupart des modèles privés. Des améliorations supplémentaires des performances sur BFCLv4 confirment que FunReason-MT constitue une source fiable et robuste pour l'apprentissage agentiel.
English
Function calling (FC) empowers large language models (LLMs) and autonomous agents to interface with external tools, a critical capability for solving complex, real-world problems. As this ability becomes increasingly central to advanced AI systems, the need for high-quality, multi-turn training data to develop and refine it cannot be overstated. Existing data synthesis methods, such as random environment sampling or multi-agent role-playing, are not powerful enough to generate high-quality data in real-world environments. Practical challenges come in three folds: targeted model training, isolation of tool architecture, and multi-turn logical dependency. To address these structural deficiencies, we present FunReason-MT, a novel data synthesis framework for real-world multi-turn tool use. FunReason-MT resolves the complexity barrier in multi-turn FC data by employing 1) Environment-API Graph Interactions to gather varied high-quality trajectories, 2) Advanced Tool-Query Synthesis to simplify hard query construction, and 3) Guided Iterative Chain for sophisticated CoT generation. Evaluations on Berkeley Function-Calling Leaderboard (BFCLv3) demonstrate the power of our framework: a 4B model built upon FunReason-MT generated data achieves state-of-the-art performance among comparable-sized models, outperforming most close-source models. Further performance improvements on BFCLv4 confirm that FunReason-MT provides a reliable and robust source for agentic learning.
PDF71December 1, 2025