Технический отчет FunReason-MT: Преодоление барьера сложности в многошаговом вызове функций
FunReason-MT Technical Report: Overcoming the Complexity Barrier in Multi-Turn Function Calling
October 28, 2025
Авторы: Zengzhuang Xu, Bingguang Hao, Zechuan Wang, Yuntao Wen, Maolin Wang, Yang Liu, Long Chen, Dong Wang, Yicheng Chen, Cunyin Peng, Chenyi Zhuang, Jinjie Gu, Leilei Gan, Xiangyu Zhao, Shi Gu
cs.AI
Аннотация
Вызов функций (FC) наделяет большие языковые модели (LLM) и автономные агенты способностью взаимодействовать с внешними инструментами, что является критически важной возможностью для решения сложных практических задач. Поскольку эта способность становится все более центральной для продвинутых систем ИИ, важность высококачественных многократных обучающих данных для ее развития и совершенствования невозможно переоценить. Существующие методы синтеза данных, такие как случайный сэмплинг окружения или ролевые игры с множеством агентов, недостаточно мощны для генерации высококачественных данных в условиях реального мира. Практические проблемы заключаются в трех аспектах: целенаправленное обучение модели, изоляция архитектуры инструментов и многократная логическая зависимость. Для устранения этих структурных недостатков мы представляем FunReason-MT — новую структуру для синтеза данных, предназначенную для многократного использования инструментов в реальных условиях. FunReason-MT преодолевает барьер сложности в данных многократного вызова функций за счет применения 1) взаимодействий на основе графа «Среда-API» для сбора разнообразных высококачественных траекторий, 2) расширенного синтеза инструментальных запросов для упрощения построения сложных запросов и 3) направленной итеративной цепочки для генерации сложных рассуждений (CoT). Оценки на Berkeley Function-Calling Leaderboard (BFCLv3) демонстрируют мощь нашего подхода: модель объемом 4B, обученная на данных, сгенерированных с помощью FunReason-MT, демонстрирует наилучшую производительность среди моделей сопоставимого размера, превосходя большинство закрытых моделей. Дальнейшее улучшение производительности на BFCLv4 подтверждает, что FunReason-MT предоставляет надежный и устойчивый источник для обучения агентов.
English
Function calling (FC) empowers large language models (LLMs) and autonomous
agents to interface with external tools, a critical capability for solving
complex, real-world problems. As this ability becomes increasingly central to
advanced AI systems, the need for high-quality, multi-turn training data to
develop and refine it cannot be overstated. Existing data synthesis methods,
such as random environment sampling or multi-agent role-playing, are not
powerful enough to generate high-quality data in real-world environments.
Practical challenges come in three folds: targeted model training, isolation of
tool architecture, and multi-turn logical dependency. To address these
structural deficiencies, we present FunReason-MT, a novel data synthesis
framework for real-world multi-turn tool use. FunReason-MT resolves the
complexity barrier in multi-turn FC data by employing 1) Environment-API Graph
Interactions to gather varied high-quality trajectories, 2) Advanced Tool-Query
Synthesis to simplify hard query construction, and 3) Guided Iterative Chain
for sophisticated CoT generation. Evaluations on Berkeley Function-Calling
Leaderboard (BFCLv3) demonstrate the power of our framework: a 4B model built
upon FunReason-MT generated data achieves state-of-the-art performance among
comparable-sized models, outperforming most close-source models. Further
performance improvements on BFCLv4 confirm that FunReason-MT provides a
reliable and robust source for agentic learning.