Het Synthetiseren van Agentische Data voor Webagents met Mechanismen voor Progressieve Moeilijkheidsverhoging
Synthesizing Agentic Data for Web Agents with Progressive Difficulty Enhancement Mechanisms
October 15, 2025
Auteurs: Shrey Pandit, Xuan-Phi Nguyen, Yifei Ming, Austin Xu, Jiayu Wang, Caiming Xiong, Shafiq Joty
cs.AI
Samenvatting
Webgebaseerde 'diep onderzoek'-agentschappen hebben als doel complexe vraag-antwoordtaken op te lossen door langdurige interacties met online tools. Deze taken blijven uitdagend, omdat de onderliggende taalmodellen vaak niet zijn geoptimaliseerd voor langdurig redeneren en exploratie. Eerder werk heeft workflows voorgesteld voor het construeren van instructie-afstemmingsdatasets, vaak gebruikmakend van kennisgrafieken. Dergelijke methoden ontberen echter meestal fijnmazige controle over moeilijkheidsgraad en kwaliteit, wat resulteert in synthetische data die niet voldoet aan de complexiteit die nodig is voor langdurig redeneren. Bovendien verwarren veel studies data- en trainingseffecten door modellen te vergelijken die zijn getraind onder verschillende optimalisatierecepten, waardoor het moeilijk is om de effectiviteit van de data zelf te isoleren en te evalueren. Wij introduceren een tweeledige datasynthesepijplijn die vraag-antwoordparen genereert door de taakcomplexiteit geleidelijk te verhogen totdat een frontier baseline webagent faalt. De baselineagent speelt meerdere rollen in dit proces: het proberen te beantwoorden van de vragen, het valideren van feitelijkheid, het controleren op alternatieve antwoorden en het handhaven van filtering. Om de effectiviteit van onze synthesemethoden te evalueren, hanteren we een gecontroleerde trainingsopstelling gebaseerd op distillatie van sterke webagentschappen. Experimenten over meerdere webgebaseerde benchmarks tonen aan dat onze dataset - ondanks dat deze kleiner is - het trainen van effectievere webagentschappen mogelijk maakt dan bestaande datasets. In het bijzonder vertoont onze data een tweemaal zo grote diversiteit in toolgebruiksacties, waardoor modellen die erop zijn getraind betere prestaties kunnen bereiken terwijl repetitief tool-aanroepend gedrag wordt vermeden.
English
Web-based 'deep research' agents aim to solve complex question - answering
tasks through long-horizon interactions with online tools. These tasks remain
challenging, as the underlying language models are often not optimized for
long-horizon reasoning and exploration. Prior work has proposed workflows for
constructing instruction-tuning datasets, often leveraging knowledge graphs.
However, such methods typically lack fine-grained control over difficulty and
quality, yielding synthetic data that falls short of capturing the complexity
required for long-horizon reasoning. Furthermore, many studies conflate data
and training effects by comparing models trained under different optimization
recipes, making it difficult to isolate and evaluate the effectiveness of the
data itself. We introduce a two-pronged data synthesis pipeline that generates
question - answer pairs by progressively increasing task complexity until a
frontier baseline web agent fails. The baseline agent plays multiple roles in
this process: attempting the questions, validating factuality, checking for
alternative answers, and enforcing filtering. To evaluate the effectiveness of
our synthesis methods, we adopt a controlled training setup based on
distillation from strong web agents. Experiments across multiple web-based
benchmarks show that our dataset - despite being smaller - enables the training
of more effective web agents than existing datasets. In particular, our data
exhibits twice the diversity in tool-use actions, allowing models trained on it
to achieve stronger performance while avoiding repetitive tool-calling
behaviors.