Синтез агентных данных для веб-агентов с механизмами прогрессивного повышения сложности
Synthesizing Agentic Data for Web Agents with Progressive Difficulty Enhancement Mechanisms
October 15, 2025
Авторы: Shrey Pandit, Xuan-Phi Nguyen, Yifei Ming, Austin Xu, Jiayu Wang, Caiming Xiong, Shafiq Joty
cs.AI
Аннотация
Веб-агенты для «глубокого исследования» направлены на решение сложных задач ответов на вопросы через долгосрочные взаимодействия с онлайн-инструментами. Эти задачи остаются сложными, поскольку базовые языковые модели часто не оптимизированы для долгосрочного рассуждения и исследования. Предыдущие работы предлагали подходы к созданию наборов данных для настройки инструкций, часто используя графы знаний. Однако такие методы обычно не обеспечивают детального контроля над сложностью и качеством, что приводит к синтетическим данным, которые не отражают необходимую сложность для долгосрочного рассуждения. Кроме того, многие исследования смешивают эффекты данных и обучения, сравнивая модели, обученные по разным рецептам оптимизации, что затрудняет изоляцию и оценку эффективности самих данных. Мы представляем двухэтапный конвейер синтеза данных, который генерирует пары вопрос-ответ, постепенно увеличивая сложность задачи до тех пор, пока базовый веб-агент не перестанет справляться. Базовый агент выполняет несколько ролей в этом процессе: пытается ответить на вопросы, проверяет фактологическую точность, ищет альтернативные ответы и обеспечивает фильтрацию. Для оценки эффективности наших методов синтеза мы используем контролируемую настройку обучения, основанную на дистилляции от сильных веб-агентов. Эксперименты на нескольких веб-ориентированных тестах показывают, что наш набор данных — несмотря на меньший размер — позволяет обучать более эффективные веб-агенты по сравнению с существующими наборами данных. В частности, наши данные демонстрируют вдвое большее разнообразие в использовании инструментов, что позволяет моделям, обученным на них, достигать более высокой производительности, избегая повторяющихся вызовов инструментов.
English
Web-based 'deep research' agents aim to solve complex question - answering
tasks through long-horizon interactions with online tools. These tasks remain
challenging, as the underlying language models are often not optimized for
long-horizon reasoning and exploration. Prior work has proposed workflows for
constructing instruction-tuning datasets, often leveraging knowledge graphs.
However, such methods typically lack fine-grained control over difficulty and
quality, yielding synthetic data that falls short of capturing the complexity
required for long-horizon reasoning. Furthermore, many studies conflate data
and training effects by comparing models trained under different optimization
recipes, making it difficult to isolate and evaluate the effectiveness of the
data itself. We introduce a two-pronged data synthesis pipeline that generates
question - answer pairs by progressively increasing task complexity until a
frontier baseline web agent fails. The baseline agent plays multiple roles in
this process: attempting the questions, validating factuality, checking for
alternative answers, and enforcing filtering. To evaluate the effectiveness of
our synthesis methods, we adopt a controlled training setup based on
distillation from strong web agents. Experiments across multiple web-based
benchmarks show that our dataset - despite being smaller - enables the training
of more effective web agents than existing datasets. In particular, our data
exhibits twice the diversity in tool-use actions, allowing models trained on it
to achieve stronger performance while avoiding repetitive tool-calling
behaviors.