ChatPaper.aiChatPaper

APIGen-MT: Агентный конвейер для генерации многоходовых данных через моделирование взаимодействия агента и человека

APIGen-MT: Agentic Pipeline for Multi-Turn Data Generation via Simulated Agent-Human Interplay

April 4, 2025
Авторы: Akshara Prabhakar, Zuxin Liu, Weiran Yao, Jianguo Zhang, Ming Zhu, Shiyu Wang, Zhiwei Liu, Tulika Awalgaonkar, Haolin Chen, Thai Hoang, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI

Аннотация

Обучение эффективных ИИ-агентов для многоходовых взаимодействий требует высококачественных данных, которые отражают реалистичную динамику между человеком и агентом, однако такие данные редки и дорогостоящи для ручного сбора. Мы представляем APIGen-MT, двухэтапную структуру, которая генерирует проверяемые и разнообразные данные для многоходовых агентов. На первом этапе наш агентский конвейер создает детальные планы задач с истинными действиями, используя комитет рецензентов на основе больших языковых моделей (LLM) и итеративные циклы обратной связи. Эти планы затем преобразуются в полные траектории взаимодействия через симулированное взаимодействие человека и агента. Мы обучаем семейство моделей — серию xLAM-2-fc-r с размерами от 1B до 70B параметров. Наши модели превосходят передовые модели, такие как GPT-4o и Claude 3.5, на бенчмарках tau-bench и BFCL, причем меньшие модели обходят своих более крупных собратьев, особенно в многоходовых сценариях, сохраняя при этом превосходную согласованность в нескольких испытаниях. Комплексные эксперименты демонстрируют, что наш проверенный подход от плана к деталям обеспечивает высококачественные обучающие данные, что позволяет разрабатывать более надежных, эффективных и способных агентов. Мы открываем исходный код как для собранных синтетических данных, так и для обученных моделей xLAM-2-fc-r, чтобы способствовать исследованиям в области ИИ-агентов. Модели доступны на HuggingFace по ссылке https://huggingface.co/collections/Salesforce/xlam-2-67ef5be12949d8dcdae354c4, а проект представлен на сайте https://apigen-mt.github.io.
English
Training effective AI agents for multi-turn interactions requires high-quality data that captures realistic human-agent dynamics, yet such data is scarce and expensive to collect manually. We introduce APIGen-MT, a two-phase framework that generates verifiable and diverse multi-turn agent data. In the first phase, our agentic pipeline produces detailed task blueprints with ground-truth actions, leveraging a committee of LLM reviewers and iterative feedback loops. These blueprints are then transformed into complete interaction trajectories through simulated human-agent interplay. We train a family of models -- the xLAM-2-fc-r series with sizes ranging from 1B to 70B parameters. Our models outperform frontier models such as GPT-4o and Claude 3.5 on tau-bench and BFCL benchmarks, with the smaller models surpassing their larger counterparts, particularly in multi-turn settings, while maintaining superior consistency across multiple trials. Comprehensive experiments demonstrate that our verified blueprint-to-details approach yields high-quality training data, enabling the development of more reliable, efficient, and capable agents. We open-source both the synthetic data collected and the trained xLAM-2-fc-r models to advance research in AI agents. Models are available on HuggingFace at https://huggingface.co/collections/Salesforce/xlam-2-67ef5be12949d8dcdae354c4 and project website is https://apigen-mt.github.io
PDF164April 7, 2025