Evaluación de la Reconstrucción de Artículos: Análisis de la Presentación y Alucinaciones en Textos Académicos Generados por IA
Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers
April 1, 2026
Autores: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI
Resumen
Este artículo presenta el primer marco de evaluación sistemática para cuantificar la calidad y los riesgos de artículos escritos por agentes de codificación modernos. Si bien la escritura de artículos impulsada por IA se ha convertido en una preocupación creciente, la evaluación rigurosa de la calidad y los riesgos potenciales de los artículos escritos por IA sigue siendo limitada, y aún falta una comprensión unificada de su fiabilidad. Introducimos Paper Reconstruction Evaluation (PaperRecon), un marco de evaluación en el que se crea un resumen (overview.md) a partir de un artículo existente, tras lo cual un agente genera un artículo completo basándose en el resumen y recursos adicionales mínimos, y el resultado se compara posteriormente con el artículo original. PaperRecon desglosa la evaluación de los artículos escritos por IA en dos dimensiones ortogonales, Presentación y Alucinación, donde la Presentación se evalúa mediante una rúbrica y la Alucinación se evalúa mediante una evaluación agéntica basada en la fuente del artículo original. Para la evaluación, presentamos PaperWrite-Bench, un benchmark de 51 artículos de conferencias de primer nivel en diversos dominios publicados después de 2025. Nuestros experimentos revelan una clara disyuntiva: aunque tanto ClaudeCode como Codex mejoran con los avances del modelo, ClaudeCode logra una mayor calidad de presentación a costa de más de 10 alucinaciones por artículo en promedio, mientras que Codex produce menos alucinaciones pero una calidad de presentación inferior. Este trabajo da un primer paso hacia el establecimiento de marcos de evaluación para la escritura de artículos impulsada por IA y la mejora de la comprensión de sus riesgos dentro de la comunidad investigadora.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.