ChatPaper.aiChatPaper

ReportBench: Evaluación de Agentes de Investigación Profunda mediante Tareas de Encuestas Académicas

ReportBench: Evaluating Deep Research Agents via Academic Survey Tasks

August 14, 2025
Autores: Minghao Li, Ying Zeng, Zhihao Cheng, Cong Ma, Kai Jia
cs.AI

Resumen

El surgimiento de los agentes de Investigación Profunda ha reducido sustancialmente el tiempo necesario para llevar a cabo tareas de investigación extensas. Sin embargo, estas tareas requieren inherentemente estándares rigurosos de precisión factual y exhaustividad, lo que hace necesaria una evaluación minuciosa antes de su adopción generalizada. En este artículo, proponemos ReportBench, un benchmark sistemático diseñado para evaluar la calidad del contenido de los informes de investigación generados por modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés). Nuestra evaluación se centra en dos dimensiones críticas: (1) la calidad y relevancia de la literatura citada, y (2) la fidelidad y veracidad de las afirmaciones dentro de los informes generados. ReportBench aprovecha artículos de revisión de alta calidad publicados en arXiv como referencias de estándar de oro, a partir de los cuales aplicamos ingeniería inversa de prompts para derivar instrucciones específicas del dominio y establecer un corpus de evaluación exhaustivo. Además, desarrollamos un marco automatizado basado en agentes dentro de ReportBench que analiza sistemáticamente los informes generados mediante la extracción de citas y afirmaciones, verificando la fidelidad del contenido citado frente a las fuentes originales y validando afirmaciones no citadas utilizando recursos basados en la web. Las evaluaciones empíricas demuestran que los agentes comerciales de Investigación Profunda, como los desarrollados por OpenAI y Google, generan informes más completos y confiables que los LLMs independientes potenciados con herramientas de búsqueda o navegación. Sin embargo, aún existe un margen considerable de mejora en términos de la amplitud y profundidad de la cobertura de investigación, así como en la consistencia factual. El código completo y los datos se publicarán en el siguiente enlace: https://github.com/ByteDance-BandAI/ReportBench.
English
The advent of Deep Research agents has substantially reduced the time required for conducting extensive research tasks. However, these tasks inherently demand rigorous standards of factual accuracy and comprehensiveness, necessitating thorough evaluation before widespread adoption. In this paper, we propose ReportBench, a systematic benchmark designed to evaluate the content quality of research reports generated by large language models (LLMs). Our evaluation focuses on two critical dimensions: (1) the quality and relevance of cited literature, and (2) the faithfulness and veracity of the statements within the generated reports. ReportBench leverages high-quality published survey papers available on arXiv as gold-standard references, from which we apply reverse prompt engineering to derive domain-specific prompts and establish a comprehensive evaluation corpus. Furthermore, we develop an agent-based automated framework within ReportBench that systematically analyzes generated reports by extracting citations and statements, checking the faithfulness of cited content against original sources, and validating non-cited claims using web-based resources. Empirical evaluations demonstrate that commercial Deep Research agents such as those developed by OpenAI and Google consistently generate more comprehensive and reliable reports than standalone LLMs augmented with search or browsing tools. However, there remains substantial room for improvement in terms of the breadth and depth of research coverage, as well as factual consistency. The complete code and data will be released at the following link: https://github.com/ByteDance-BandAI/ReportBench
PDF71August 27, 2025