ChatPaper.aiChatPaper

Технический отчет FunReason-MT: Преодоление барьера сложности в многошаговом вызове функций

FunReason-MT Technical Report: Overcoming the Complexity Barrier in Multi-Turn Function Calling

October 28, 2025
Авторы: Zengzhuang Xu, Bingguang Hao, Zechuan Wang, Yuntao Wen, Maolin Wang, Yang Liu, Long Chen, Dong Wang, Yicheng Chen, Cunyin Peng, Chenyi Zhuang, Jinjie Gu, Leilei Gan, Xiangyu Zhao, Shi Gu
cs.AI

Аннотация

Вызов функций (FC) наделяет большие языковые модели (LLM) и автономные агенты способностью взаимодействовать с внешними инструментами, что является критически важной возможностью для решения сложных практических задач. Поскольку эта способность становится все более центральной для продвинутых систем ИИ, важность высококачественных многократных обучающих данных для ее развития и совершенствования невозможно переоценить. Существующие методы синтеза данных, такие как случайный сэмплинг окружения или ролевые игры с множеством агентов, недостаточно мощны для генерации высококачественных данных в условиях реального мира. Практические проблемы заключаются в трех аспектах: целенаправленное обучение модели, изоляция архитектуры инструментов и многократная логическая зависимость. Для устранения этих структурных недостатков мы представляем FunReason-MT — новую структуру для синтеза данных, предназначенную для многократного использования инструментов в реальных условиях. FunReason-MT преодолевает барьер сложности в данных многократного вызова функций за счет применения 1) взаимодействий на основе графа «Среда-API» для сбора разнообразных высококачественных траекторий, 2) расширенного синтеза инструментальных запросов для упрощения построения сложных запросов и 3) направленной итеративной цепочки для генерации сложных рассуждений (CoT). Оценки на Berkeley Function-Calling Leaderboard (BFCLv3) демонстрируют мощь нашего подхода: модель объемом 4B, обученная на данных, сгенерированных с помощью FunReason-MT, демонстрирует наилучшую производительность среди моделей сопоставимого размера, превосходя большинство закрытых моделей. Дальнейшее улучшение производительности на BFCLv4 подтверждает, что FunReason-MT предоставляет надежный и устойчивый источник для обучения агентов.
English
Function calling (FC) empowers large language models (LLMs) and autonomous agents to interface with external tools, a critical capability for solving complex, real-world problems. As this ability becomes increasingly central to advanced AI systems, the need for high-quality, multi-turn training data to develop and refine it cannot be overstated. Existing data synthesis methods, such as random environment sampling or multi-agent role-playing, are not powerful enough to generate high-quality data in real-world environments. Practical challenges come in three folds: targeted model training, isolation of tool architecture, and multi-turn logical dependency. To address these structural deficiencies, we present FunReason-MT, a novel data synthesis framework for real-world multi-turn tool use. FunReason-MT resolves the complexity barrier in multi-turn FC data by employing 1) Environment-API Graph Interactions to gather varied high-quality trajectories, 2) Advanced Tool-Query Synthesis to simplify hard query construction, and 3) Guided Iterative Chain for sophisticated CoT generation. Evaluations on Berkeley Function-Calling Leaderboard (BFCLv3) demonstrate the power of our framework: a 4B model built upon FunReason-MT generated data achieves state-of-the-art performance among comparable-sized models, outperforming most close-source models. Further performance improvements on BFCLv4 confirm that FunReason-MT provides a reliable and robust source for agentic learning.
PDF71December 1, 2025