Mise à l'échelle temporelle de la vérification par inférence : Agents de recherche profonds auto-évolutifs via la vérification guidée par rubrique en temps de test
Inference-Time Scaling of Verification: Self-Evolving Deep Research Agents via Test-Time Rubric-Guided Verification
January 22, 2026
Auteurs: Yuxuan Wan, Tianqing Fang, Zaitang Li, Yintong Huo, Wenxuan Wang, Haitao Mi, Dong Yu, Michael R. Lyu
cs.AI
Résumé
Les récents progrès des Agents de Recherche Profonde (DRAs) transforment la découverte automatisée de connaissances et la résolution de problèmes. Alors que la majorité des travaux existants se concentrent sur l'amélioration des capacités décisionnelles via le post-entraînement, nous proposons un paradigme alternatif : l'auto-évolution de la capacité de l'agent en vérifiant itérativement les sorties du modèle de décision, guidé par des grilles d'évaluation méticuleusement conçues. Cette approche donne naissance à la mise à l'échelle temporelle de l'inférence de la vérification, dans laquelle un agent s'auto-améliore en évaluant ses réponses générées pour produire des retours et des affinages itératifs. Nous dérivons les grilles d'évaluation sur la base d'une Taxonomie des Échecs des DRA construite automatiquement, qui classe systématiquement les échecs des agents en cinq catégories principales et treize sous-catégories. Nous présentons DeepVerifier, un vérificateur de récompense basé sur les résultats qui exploite l'asymétrie de la vérification et surpasse les lignes de base de l'agent-en-tant-que-juge standard et du juge LLM de 12 % à 48 % en score F1 de méta-évaluation. Pour permettre une auto-évolution pratique, DeepVerifier s'intègre comme un module plug-and-play pendant l'inférence au moment du test. Le vérificateur produit un retour détaillé basé sur les grilles, qui est réinjecté à l'agent pour un amorçage itératif, affinant les réponses sans entraînement supplémentaire. Cette mise à l'échelle au moment du test offre des gains de précision de 8 % à 11 % sur des sous-ensembles difficiles de GAIA et XBench-DeepResearch lorsqu'elle est alimentée par des LLM propriétaires performants. Enfin, pour soutenir l'avancement des modèles open-source, nous publions DeepVerifier-4K, un jeu de données d'apprentissage supervisé de 4 646 étapes d'agents de haute qualité axé sur la vérification des DRA. Ces exemples mettent l'accent sur la réflexion et l'autocritique, permettant aux modèles ouverts de développer des capacités de vérification robustes.
English
Recent advances in Deep Research Agents (DRAs) are transforming automated knowledge discovery and problem-solving. While the majority of existing efforts focus on enhancing policy capabilities via post-training, we propose an alternative paradigm: self-evolving the agent's ability by iteratively verifying the policy model's outputs, guided by meticulously crafted rubrics. This approach gives rise to the inference-time scaling of verification, wherein an agent self-improves by evaluating its generated answers to produce iterative feedback and refinements. We derive the rubrics based on an automatically constructed DRA Failure Taxonomy, which systematically classifies agent failures into five major categories and thirteen sub-categories. We present DeepVerifier, a rubrics-based outcome reward verifier that leverages the asymmetry of verification and outperforms vanilla agent-as-judge and LLM judge baselines by 12%-48% in meta-evaluation F1 score. To enable practical self-evolution, DeepVerifier integrates as a plug-and-play module during test-time inference. The verifier produces detailed rubric-based feedback, which is fed back to the agent for iterative bootstrapping, refining responses without additional training. This test-time scaling delivers 8%-11% accuracy gains on challenging subsets of GAIA and XBench-DeepResearch when powered by capable closed-source LLMs. Finally, to support open-source advancement, we release DeepVerifier-4K, a curated supervised fine-tuning dataset of 4,646 high-quality agent steps focused on DRA verification. These examples emphasize reflection and self-critique, enabling open models to develop robust verification capabilities.