ChatPaper.aiChatPaper

FunReason-MT Technisch Rapport: Het overwinnen van de complexiteitsbarrière bij function-aanroepen met meerdere beurten

FunReason-MT Technical Report: Overcoming the Complexity Barrier in Multi-Turn Function Calling

October 28, 2025
Auteurs: Zengzhuang Xu, Bingguang Hao, Zechuan Wang, Yuntao Wen, Maolin Wang, Yang Liu, Long Chen, Dong Wang, Yicheng Chen, Cunyin Peng, Chenyi Zhuang, Jinjie Gu, Leilei Gan, Xiangyu Zhao, Shi Gu
cs.AI

Samenvatting

Functie-aanroeping (FC) stelt grote taalmmodellen (LLM's) en autonome agents in staat om te communiceren met externe tools, een cruciale capaciteit voor het oplossen van complexe, real-world problemen. Naarmate dit vermogen steeds centraler wordt in geavanceerde AI-systemen, kan het belang van hoogwaardige, multi-turn trainingsdata voor de ontwikkeling en verfijning ervan niet worden overschat. Bestaande methoden voor datasynthese, zoals willekeurige omgevingsbemonstering of multi-agent rollenspelen, zijn niet krachtig genoeg om hoogwaardige data in real-world omgevingen te genereren. De praktische uitdagingen zijn drievoudig: gerichte modeltraining, isolatie van toolarchitectuur en multi-turn logische afhankelijkheid. Om deze structurele tekortkomingen aan te pakken, presenteren we FunReason-MT, een nieuw raamwerk voor datasynthese voor real-world multi-turn toolgebruik. FunReason-MT doorbreekt de complexiteitsbarrière in multi-turn FC-data door 1) Environment-API Graph Interacties in te zetten om gevarieerde trajecten van hoge kwaliteit te verzamelen, 2) Geavanceerde Tool-Query Synthese om de constructie van complexe queries te vereenvoudigen, en 3) een Begeleide Iteratieve Keten voor geavanceerde CoT-generatie. Evaluaties op het Berkeley Function-Calling Leaderboard (BFCLv3) demonstreren de kracht van ons raamwerk: een 4B-model gebaseerd op door FunReason-MT gegenereerde data behaalt state-of-the-art prestaties onder vergelijkbaar grote modellen en overtreft de meeste closed-source modellen. Verdere prestatieverbeteringen op BFCLv4 bevestigen dat FunReason-MT een betrouwbare en robuuste bron biedt voor agentisch leren.
English
Function calling (FC) empowers large language models (LLMs) and autonomous agents to interface with external tools, a critical capability for solving complex, real-world problems. As this ability becomes increasingly central to advanced AI systems, the need for high-quality, multi-turn training data to develop and refine it cannot be overstated. Existing data synthesis methods, such as random environment sampling or multi-agent role-playing, are not powerful enough to generate high-quality data in real-world environments. Practical challenges come in three folds: targeted model training, isolation of tool architecture, and multi-turn logical dependency. To address these structural deficiencies, we present FunReason-MT, a novel data synthesis framework for real-world multi-turn tool use. FunReason-MT resolves the complexity barrier in multi-turn FC data by employing 1) Environment-API Graph Interactions to gather varied high-quality trajectories, 2) Advanced Tool-Query Synthesis to simplify hard query construction, and 3) Guided Iterative Chain for sophisticated CoT generation. Evaluations on Berkeley Function-Calling Leaderboard (BFCLv3) demonstrate the power of our framework: a 4B model built upon FunReason-MT generated data achieves state-of-the-art performance among comparable-sized models, outperforming most close-source models. Further performance improvements on BFCLv4 confirm that FunReason-MT provides a reliable and robust source for agentic learning.
PDF71December 1, 2025