ChatPaper.aiChatPaper

Bewertung der Papierrekonstruktion: Beurteilung von Darstellungsqualität und Halluzinationen in KI-verfassten wissenschaftlichen Arbeiten

Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers

April 1, 2026
Autoren: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI

Zusammenfassung

Dieses Papier stellt den ersten systematischen Evaluierungsrahmen zur Quantifizierung der Qualität und der Risiken von Artikeln vor, die von modernen Coding-Agents verfasst wurden. Während das KI-gestützte Verfassen von Artikeln zunehmend Bedenken aufwirft, bleiben rigorose Bewertungen der Qualität und potenzieller Risiken KI-generierter Arbeiten begrenzt, und ein einheitliches Verständnis ihrer Zuverlässigkeit fehlt nach wie vor. Wir führen die Paper Reconstruction Evaluation (PaperRecon) ein, einen Bewertungsrahmen, bei dem aus einem bestehenden Artikel eine Übersicht (overview.md) erstellt wird. Anschließend generiert ein Agent einen vollständigen Artikel auf Basis dieser Übersicht und minimaler zusätzlicher Ressourcen; das Ergebnis wird anschließend mit dem Originalartikel verglichen. PaperRecon unterteilt die Bewertung KI-generierter Artikel in zwei orthogonale Dimensionen: Präsentation und Halluzination. Die Präsentation wird anhand eines Bewertungsrasters evaluiert, während Halluzinationen durch eine agentenbasierte Evaluation bewertet werden, die auf der Originalquelle des Artikels basiert. Für die Evaluation führen wir PaperWrite-Bench ein, einen Benchmark mit 51 Artikeln aus Top-Konferenzen verschiedener Domänen, die nach 2025 veröffentlicht wurden. Unsere Experimente zeigen einen klaren Zielkonflikt: Während sowohl ClaudeCode als auch Codex mit Fortschritten der Modelle besser werden, erzielt ClaudeCode eine höhere Präsentationsqualität auf Kosten von durchschnittlich mehr als 10 Halluzinationen pro Artikel, wohingegen Codex weniger Halluzinationen, aber eine geringere Präsentationsqualität produziert. Diese Arbeit ist ein erster Schritt hin zur Etablierung von Evaluierungsrahmen für das KI-gestützte Verfassen von Artikeln und zur Verbesserung des Risikoverständnisses innerhalb der Forschungsgemeinschaft.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.
PDF60April 3, 2026