ChatPaper.aiChatPaper

ReportBench: Evaluatie van Diepgaande Onderzoeksagenten via Academische Enquête Taken

ReportBench: Evaluating Deep Research Agents via Academic Survey Tasks

August 14, 2025
Auteurs: Minghao Li, Ying Zeng, Zhihao Cheng, Cong Ma, Kai Jia
cs.AI

Samenvatting

De opkomst van Deep Research-agents heeft de tijd die nodig is voor het uitvoeren van uitgebreide onderzoeks taken aanzienlijk verkort. Deze taken vereisen echter inherent strenge normen voor feitelijke nauwkeurigheid en volledigheid, wat een grondige evaluatie vereist voordat ze op grote schaal worden geadopteerd. In dit artikel stellen we ReportBench voor, een systematische benchmark die is ontworpen om de inhoudskwaliteit van onderzoeksrapporten gegenereerd door grote taalmodellen (LLMs) te evalueren. Onze evaluatie richt zich op twee kritische dimensies: (1) de kwaliteit en relevantie van geciteerde literatuur, en (2) de betrouwbaarheid en waarheidsgetrouwheid van de uitspraken in de gegenereerde rapporten. ReportBench maakt gebruik van hoogwaardige gepubliceerde overzichtspapers beschikbaar op arXiv als gouden standaardreferenties, waaruit we reverse prompt engineering toepassen om domeinspecifieke prompts af te leiden en een uitgebreid evaluatiecorpus op te zetten. Bovendien ontwikkelen we een agent-gebaseerd geautomatiseerd framework binnen ReportBench dat systematisch gegenereerde rapporten analyseert door citaten en uitspraken te extraheren, de betrouwbaarheid van geciteerde inhoud te controleren tegen de oorspronkelijke bronnen, en niet-geciteerde beweringen te valideren met behulp van webgebaseerde bronnen. Empirische evaluaties tonen aan dat commerciële Deep Research-agents, zoals die ontwikkeld door OpenAI en Google, consistent meer uitgebreide en betrouwbare rapporten genereren dan standalone LLMs die zijn uitgebreid met zoek- of browsetools. Er is echter nog steeds aanzienlijke ruimte voor verbetering wat betreft de breedte en diepte van onderzoeksdekking, evenals feitelijke consistentie. De volledige code en data zullen worden vrijgegeven op de volgende link: https://github.com/ByteDance-BandAI/ReportBench
English
The advent of Deep Research agents has substantially reduced the time required for conducting extensive research tasks. However, these tasks inherently demand rigorous standards of factual accuracy and comprehensiveness, necessitating thorough evaluation before widespread adoption. In this paper, we propose ReportBench, a systematic benchmark designed to evaluate the content quality of research reports generated by large language models (LLMs). Our evaluation focuses on two critical dimensions: (1) the quality and relevance of cited literature, and (2) the faithfulness and veracity of the statements within the generated reports. ReportBench leverages high-quality published survey papers available on arXiv as gold-standard references, from which we apply reverse prompt engineering to derive domain-specific prompts and establish a comprehensive evaluation corpus. Furthermore, we develop an agent-based automated framework within ReportBench that systematically analyzes generated reports by extracting citations and statements, checking the faithfulness of cited content against original sources, and validating non-cited claims using web-based resources. Empirical evaluations demonstrate that commercial Deep Research agents such as those developed by OpenAI and Google consistently generate more comprehensive and reliable reports than standalone LLMs augmented with search or browsing tools. However, there remains substantial room for improvement in terms of the breadth and depth of research coverage, as well as factual consistency. The complete code and data will be released at the following link: https://github.com/ByteDance-BandAI/ReportBench
PDF153August 27, 2025