논문 재구성 평가: AI 작성 논문의 표현 및 허구화 현상 평가
Paper Reconstruction Evaluation: Evaluating Presentation and Hallucination in AI-written Papers
April 1, 2026
저자: Atsuyuki Miyai, Mashiro Toyooka, Zaiying Zhao, Kenta Watanabe, Toshihiko Yamasaki, Kiyoharu Aizawa
cs.AI
초록
본 논문은 현대 코딩 에이전트가 작성한 논문의 질과 위험을 정량화하기 위한 최초의 체계적 평가 프레임워크를 소개한다. AI 기반 논문 작성이 점차 우려되는 상황이 되었지만, AI 작성 논문의 질과 잠재적 위험에 대한 엄격한 평가는 여전히 제한적이며, 이들의 신뢰성에 대한 통합된 이해는 부족한 실정이다. 우리는 Paper Reconstruction Evaluation(PaperRecon)이라는 평가 프레임워크를 제안한다. 이는 기존 논문에서 개요(overview.md)를 생성한 후, 에이전트가 이 개요와 최소한의 추가 자료를 바탕으로 전체 논문을 생성하게 하고, 그 결과를 원본 논문과 비교하는 방식이다. PaperRecon은 AI 작성 논문의 평가를 Presentation(표현력)과 Hallucination(환각)이라는 두 가지 직교 차원으로 분리한다. Presentation은 평가 기준표를 사용하여 측정하고, Hallucination은 원본 논문 소스에 기반한 에이전트 평가를 통해 측정한다. 평가를 위해 우리는 2025년 이후 출판된 다양한 분야의 최상위 학술대회 논문 51편으로 구성된 벤치마크인 PaperWrite-Bench를 도입했다. 실험 결과 명확한 트레이드오프가 관찰되었는데, ClaudeCode와 Codex 모두 모델 발전에 따라 향상되지만, ClaudeCode는 평균 논문당 10건 이상의 환각 현상을 초래하는 대가로 더 높은 표현력을 달성한 반면, Codex는 더 적은 환각 현상이 발생하지만 상대적으로 낮은 표현력을 보였다. 본 연구는 AI 기반 논문 작성을 위한 평가 프레임워크 구축과 연구 커뮤니티 내에서의 그 위험성 이해 개선을 위한 첫걸음을 내디뎠다.
English
This paper introduces the first systematic evaluation framework for quantifying the quality and risks of papers written by modern coding agents. While AI-driven paper writing has become a growing concern, rigorous evaluation of the quality and potential risks of AI-written papers remains limited, and a unified understanding of their reliability is still lacking. We introduce Paper Reconstruction Evaluation (PaperRecon), an evaluation framework in which an overview (overview.md) is created from an existing paper, after which an agent generates a full paper based on the overview and minimal additional resources, and the result is subsequently compared against the original paper. PaperRecon disentangles the evaluation of the AI-written papers into two orthogonal dimensions, Presentation and Hallucination, where Presentation is evaluated using a rubric and Hallucination is assessed via agentic evaluation grounded in the original paper source. For evaluation, we introduce PaperWrite-Bench, a benchmark of 51 papers from top-tier venues across diverse domains published after 2025. Our experiments reveal a clear trade-off: while both ClaudeCode and Codex improve with model advances, ClaudeCode achieves higher presentation quality at the cost of more than 10 hallucinations per paper on average, whereas Codex produces fewer hallucinations but lower presentation quality. This work takes a first step toward establishing evaluation frameworks for AI-driven paper writing and improving the understanding of its risks within the research community.