Synthese von agentenbasierten Daten für Web-Agenten mit Mechanismen zur progressiven Schwierigkeitssteigerung
Synthesizing Agentic Data for Web Agents with Progressive Difficulty Enhancement Mechanisms
October 15, 2025
papers.authors: Shrey Pandit, Xuan-Phi Nguyen, Yifei Ming, Austin Xu, Jiayu Wang, Caiming Xiong, Shafiq Joty
cs.AI
papers.abstract
Web-basierte „Deep Research“-Agenten zielen darauf ab, komplexe Frage-Antwort-Aufgaben durch langfristige Interaktionen mit Online-Tools zu lösen. Diese Aufgaben bleiben herausfordernd, da die zugrunde liegenden Sprachmodelle oft nicht für langfristiges Denken und Exploration optimiert sind. Frühere Arbeiten haben Workflows für die Erstellung von Instruktions-Tuning-Datensätzen vorgeschlagen, die häufig Wissensgraphen nutzen. Solche Methoden bieten jedoch typischerweise keine feinkörnige Kontrolle über Schwierigkeitsgrad und Qualität, was zu synthetischen Daten führt, die die für langfristiges Denken erforderliche Komplexität nicht erfassen. Darüber hinaus vermischen viele Studien Daten- und Trainingseffekte, indem sie Modelle vergleichen, die unter verschiedenen Optimierungsrezepten trainiert wurden, was es schwierig macht, die Wirksamkeit der Daten selbst zu isolieren und zu bewerten. Wir stellen eine zweigleisige Daten-Synthese-Pipeline vor, die Frage-Antwort-Paare erzeugt, indem die Aufgabenkomplexität schrittweise erhöht wird, bis ein Baseline-Web-Agent scheitert. Der Baseline-Agent übernimmt in diesem Prozess mehrere Rollen: Er versucht, die Fragen zu beantworten, überprüft die Fakten, sucht nach alternativen Antworten und sorgt für Filterung. Um die Wirksamkeit unserer Synthesemethoden zu bewerten, verwenden wir ein kontrolliertes Trainingssetup, das auf der Destillation von starken Web-Agenten basiert. Experimente über mehrere webbasierte Benchmarks zeigen, dass unser Datensatz – trotz seiner geringeren Größe – das Training effektiverer Web-Agenten ermöglicht als bestehende Datensätze. Insbesondere weist unsere Daten eine doppelt so hohe Vielfalt bei der Nutzung von Tools auf, was es Modellen, die darauf trainiert werden, ermöglicht, eine stärkere Leistung zu erzielen, während wiederholte Tool-Aufrufe vermieden werden.
English
Web-based 'deep research' agents aim to solve complex question - answering
tasks through long-horizon interactions with online tools. These tasks remain
challenging, as the underlying language models are often not optimized for
long-horizon reasoning and exploration. Prior work has proposed workflows for
constructing instruction-tuning datasets, often leveraging knowledge graphs.
However, such methods typically lack fine-grained control over difficulty and
quality, yielding synthetic data that falls short of capturing the complexity
required for long-horizon reasoning. Furthermore, many studies conflate data
and training effects by comparing models trained under different optimization
recipes, making it difficult to isolate and evaluate the effectiveness of the
data itself. We introduce a two-pronged data synthesis pipeline that generates
question - answer pairs by progressively increasing task complexity until a
frontier baseline web agent fails. The baseline agent plays multiple roles in
this process: attempting the questions, validating factuality, checking for
alternative answers, and enforcing filtering. To evaluate the effectiveness of
our synthesis methods, we adopt a controlled training setup based on
distillation from strong web agents. Experiments across multiple web-based
benchmarks show that our dataset - despite being smaller - enables the training
of more effective web agents than existing datasets. In particular, our data
exhibits twice the diversity in tool-use actions, allowing models trained on it
to achieve stronger performance while avoiding repetitive tool-calling
behaviors.