ChatPaper.aiChatPaper

Avaliação da Reconstrução de Artigos: Análise da Apresentação e Alucinações em Artigos Escritos por IA

Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers

April 1, 2026
Autores: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI

Resumo

Este artigo introduz o primeiro quadro de avaliação sistemática para quantificar a qualidade e os riscos de artigos escritos por agentes de codificação modernos. Embora a escrita de artigos orientada por IA tenha se tornado uma preocupação crescente, a avaliação rigorosa da qualidade e dos riscos potenciais de artigos escritos por IA permanece limitada, e ainda falta uma compreensão unificada sobre sua confiabilidade. Introduzimos a Avaliação por Reconstrução de Artigo (PaperRecon), um quadro de avaliação no qual um resumo estruturado (overview.md) é criado a partir de um artigo existente; em seguida, um agente gera um artigo completo com base neste resumo e em recursos adicionais mínimos, e o resultado é subsequentemente comparado com o artigo original. O PaperRecon desacopla a avaliação dos artigos escritos por IA em duas dimensões ortogonais, Apresentação e Alucinação, onde a Apresentação é avaliada por meio de uma rubrica e a Alucinação é avaliada via avaliação agentica fundamentada na fonte do artigo original. Para a avaliação, introduzimos o PaperWrite-Bench, um benchmark composto por 51 artigos de eventos de alto nível em diversas áreas, publicados após 2025. Nossos experimentos revelam uma clara relação de compensação: embora tanto o ClaudeCode quanto o Codex apresentem melhorias com os avanços do modelo, o ClaudeCode alcança maior qualidade de apresentação ao custo de mais de 10 alucinações por artigo em média, enquanto o Codex produz menos alucinações, mas com qualidade de apresentação inferior. Este trabalho dá um primeiro passo em direção ao estabelecimento de quadros de avaliação para a escrita de artigos orientada por IA e à melhoria da compreensão de seus riscos dentro da comunidade de pesquisa.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.
PDF60April 3, 2026