Escalonamento de Verificação em Tempo de Inferência: Agentes de Pesquisa Profunda Autoevolutivos via Verificação Guiada por Rúbrica em Tempo de Teste
Inference-Time Scaling of Verification: Self-Evolving Deep Research Agents via Test-Time Rubric-Guided Verification
January 22, 2026
Autores: Yuxuan Wan, Tianqing Fang, Zaitang Li, Yintong Huo, Wenxuan Wang, Haitao Mi, Dong Yu, Michael R. Lyu
cs.AI
Resumo
Os recentes avanços nos Agentes de Pesquisa Profunda (DRAs) estão transformando a descoberta automatizada de conhecimento e a resolução de problemas. Enquanto a maioria dos esforços existentes se concentra em melhorar as capacidades da política via pós-treinamento, propomos um paradigma alternativo: a auto-evolução da capacidade do agente através da verificação iterativa das saídas do modelo de política, guiada por rubricas meticulosamente elaboradas. Esta abordagem dá origem à escalagem de verificação no tempo de inferência, na qual um agente se auto-melhora avaliando as respostas que gera para produzir feedback e refinamentos iterativos. Derivamos as rubricas com base numa Taxonomia de Falhas de DRA construída automaticamente, que classifica sistematicamente as falhas dos agentes em cinco categorias principais e treze subcategorias. Apresentamos o DeepVerifier, um verificador de recompensa de resultados baseado em rubricas que aproveita a assimetria da verificação e supera as linhas de base de agente-como-juiz simples e de juiz de LLM em 12% a 48% no score F1 de meta-avaliação. Para permitir uma auto-evolução prática, o DeepVerifier integra-se como um módulo "plug-and-play" durante a inferência em tempo de teste. O verificador produz um feedback detalhado baseado em rubricas, que é realimentado ao agente para um *bootstrapping* iterativo, refinando as respostas sem treinamento adicional. Esta escalagem em tempo de teste proporciona ganhos de precisão de 8% a 11% em subconjuntos desafiadores do GAIA e do XBench-DeepResearch quando alimentada por LLMs proprietários capazes. Finalmente, para apoiar o avanço de código aberto, disponibilizamos o DeepVerifier-4K, um conjunto de dados curado de fine-tuning supervisionado com 4.646 etapas de agente de alta qualidade focadas na verificação de DRA. Estes exemplos enfatizam a reflexão e a autocrítica, permitindo que modelos abertos desenvolvam capacidades robustas de verificação.
English
Recent advances in Deep Research Agents (DRAs) are transforming automated knowledge discovery and problem-solving. While the majority of existing efforts focus on enhancing policy capabilities via post-training, we propose an alternative paradigm: self-evolving the agent's ability by iteratively verifying the policy model's outputs, guided by meticulously crafted rubrics. This approach gives rise to the inference-time scaling of verification, wherein an agent self-improves by evaluating its generated answers to produce iterative feedback and refinements. We derive the rubrics based on an automatically constructed DRA Failure Taxonomy, which systematically classifies agent failures into five major categories and thirteen sub-categories. We present DeepVerifier, a rubrics-based outcome reward verifier that leverages the asymmetry of verification and outperforms vanilla agent-as-judge and LLM judge baselines by 12%-48% in meta-evaluation F1 score. To enable practical self-evolution, DeepVerifier integrates as a plug-and-play module during test-time inference. The verifier produces detailed rubric-based feedback, which is fed back to the agent for iterative bootstrapping, refining responses without additional training. This test-time scaling delivers 8%-11% accuracy gains on challenging subsets of GAIA and XBench-DeepResearch when powered by capable closed-source LLMs. Finally, to support open-source advancement, we release DeepVerifier-4K, a curated supervised fine-tuning dataset of 4,646 high-quality agent steps focused on DRA verification. These examples emphasize reflection and self-critique, enabling open models to develop robust verification capabilities.