ChatPaper.aiChatPaper

Evaluatie van Papierreconstructie: Beoordeling van Presentatie en Hallucinatie in AI-geschreven Artikelen

Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers

April 1, 2026
Auteurs: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI

Samenvatting

Dit artikel introduceert het eerste systematische evaluatiekader voor het kwantificeren van de kwaliteit en risico's van artikelen geschreven door moderne codeeragenten. Hoewel AI-gestuurd artikelenschrijven een groeiende zorg is geworden, blijft rigoureuze evaluatie van de kwaliteit en potentiële risico's van AI-geschreven artikelen beperkt, en ontbreekt het nog aan een eenduidig begrip van hun betrouwbaarheid. Wij introduceren Paper Reconstruction Evaluation (PaperRecon), een evaluatiekader waarbij een overzicht (overview.md) wordt gemaakt van een bestaand artikel, waarna een agent een volledig artikel genereert op basis van het overzicht en minimale aanvullende bronnen, en het resultaat vervolgens wordt vergeleken met het originele artikel. PaperRecon ontwart de evaluatie van AI-geschreven artikelen in twee orthogonale dimensies: Presentatie en Hallucinatie, waarbij Presentatie wordt geëvalueerd met een rubric en Hallucinatie wordt beoordeeld via agent-gebaseerde evaluatie verankerd in de originele artikelbron. Voor de evaluatie introduceren we PaperWrite-Bench, een benchmark met 51 artikelen uit top-tier conferenties across diverse domeinen, gepubliceerd na 2025. Onze experimenten tonen een duidelijke trade-off aan: hoewel zowel ClaudeCode als Codex verbeteren met modelvooruitgang, behaalt ClaudeCode een hogere presentatiekwaliteit ten koste van meer dan 10 hallucinaties per artikel gemiddeld, terwijl Codex minder hallucinaties produceert maar een lagere presentatiekwaliteit. Dit werk zet een eerste stap naar het opzetten van evaluatiekaders voor AI-gestuurd artikelenschrijven en het verbeteren van het begrip van de risico's ervan binnen de onderzoeksgemeenschap.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.
PDF60April 3, 2026