Оценка реконструкции научных статей: анализ качества изложения и галлюцинаций в текстах, созданных искусственным интеллектом
Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers
April 1, 2026
Авторы: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI
Аннотация
В данной работе представлена первая систематическая методология оценки для количественного определения качества и рисков научных статей, написанных современными код-генерирующими агентами. Хотя проблема автоматизированного написания статей с использованием ИИ вызывает растущую озабоченность, строгая оценка качества и потенциальных рисков таких работ остается ограниченной, а единое понимание их надежности отсутствует. Мы представляем Paper Reconstruction Evaluation (PaperRecon) — оценочную методологию, в которой на основе существующей статьи создается сокращенное описание (overview.md), после чего агент генерирует полный текст статьи на основе этого описания и минимальных дополнительных ресурсов, а результат сравнивается с оригинальной статьей. PaperRecon разделяет оценку статей, написанных ИИ, на две ортогональные составляющие: презентацию и галлюцинации, где презентация оценивается по рубрике, а галлюцинации определяются посредством агентной оценки, основанной на исходном тексте статьи. Для оценки мы представляем PaperWrite-Bench — набор из 51 статьи из ведущих научных изданий различных областей, опубликованных после 2025 года. Наши эксперименты выявляют четкий компромисс: хотя как ClaudeCode, так и Codex демонстрируют улучшение с развитием моделей, ClaudeCode достигает более высокого качества презентации ценой более чем 10 галлюцинаций в среднем на статью, тогда как Codex производит меньше галлюцинаций, но имеет более низкое качество презентации. Данная работа представляет собой первый шаг к созданию систем оценки для автоматизированного написания статей с помощью ИИ и углублению понимания связанных с этим рисков в научном сообществе.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.