ChatPaper.aiChatPaper

Valutazione della Ricostruzione di Articoli: Analisi della Presentazione e delle Allucinazioni negli Articoli Scritti dall'Intelligenza Artificiale

Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers

April 1, 2026
Autori: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI

Abstract

Questo articolo introduce il primo quadro di valutazione sistematica per quantificare la qualità e i rischi degli articoli scritti da moderni agenti di codifica. Sebbene la scrittura di articoli basata sull'IA sia diventata una preoccupazione crescente, una valutazione rigorosa della qualità e dei potenziali rischi degli articoli scritti dall'IA rimane limitata, e manca ancora una comprensione unificata della loro affidabilità. Introduciamo Paper Reconstruction Evaluation (PaperRecon), un quadro di valutazione in cui viene creato un riassunto (overview.md) a partire da un articolo esistente; successivamente, un agente genera un articolo completo basandosi sul riassunto e su risorse aggiuntive minime, e il risultato viene poi confrontato con l'articolo originale. PaperRecon scompone la valutazione degli articoli scritti dall'IA in due dimensioni ortogonali, Presentazione e Allucinazione, dove la Presentazione è valutata mediante una rubrica e l'Allucinazione è valutata tramite una valutazione agentica basata sulla fonte originale dell'articolo. Per la valutazione, introduciamo PaperWrite-Bench, un benchmark di 51 articoli provenienti da conferenze di alto livello in diversi domini, pubblicati dopo il 2025. I nostri esperimenti rivelano un chiaro compromesso: sebbene sia ClaudeCode che Codex migliorino con l'avanzamento dei modelli, ClaudeCode raggiunge una qualità di presentazione più elevata al costo di più di 10 allucinazioni per articolo in media, mentre Codex produce meno allucinazioni ma una qualità di presentazione inferiore. Questo lavoro rappresenta un primo passo verso l'istituzione di quadri di valutazione per la scrittura di articoli basata sull'IA e il miglioramento della comprensione dei suoi rischi all'interno della comunità di ricerca.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.
PDF60April 3, 2026