ChatPaper.aiChatPaper

사슬을 벗으며 춤추기: 마음이론을 통한 학술 반론의 전략적 설득

Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind

January 22, 2026
저자: Zhitao He, Zongwei Lyu, Yi R Fung
cs.AI

초록

인공지능(AI)이 연구 워크플로우의 다양한 단계에 깊이 통합되고 놀라운 발전을 이루었음에도 불구하고, 학술 논문 재반박(rebuttal)은 여전히 중요하면서도 충분히 탐구되지 않은 과제로 남아 있습니다. 이는 재반박이 단순한 기술적 논쟁이 아니라 심각한 정보 비대칭 하에서 이루어지는 전략적 커뮤니케이션의 복잡한 과정이기 때문입니다. 그 결과, 기존 접근법들은 표면적인 언어적 특징을 모방하는 데 그쳐 효과적인 설득에 필요한 핵심 요소인 관점 수용(perspective-taking)을 놓치며 어려움을 겪고 있습니다. 본 논문에서는 학술 재반박을 마음 이론(Theory of Mind, ToM)에 기반을 둔 최초의 프레임워크인 RebuttalAgent를 소개합니다. 이 프레임워크는 검토자의 심적 상태를 모델링하고, 설득 전략을 수립하며, 전략에 기반한 응답을 생성하는 ToM-전략-응답(TSR) 파이프라인을 통해 ToM을 운영화합니다. 에이전트를 학습시키기 위해 우리는 새로운 비판 및 개선(critique-and-refine) 접근법을 통해 합성된 대규모 데이터셋인 RebuttalBench를 구축했습니다. 학습 과정은 에이전트에 ToM 기반 분석 및 전략 수립 능력을 부여하는 지도 미세 조정 단계로 시작되고, 확장 가능한 자기 개선을 위한 자기 보상 메커니즘을 활용하는 강화 학습 단계가 뒤따르는 두 단계로 구성됩니다. 신뢰할 수 있고 효율적인 자동 평가를 위해 우리는 추가로 Rebuttal-RM을 개발했습니다. 이는 10만 개 이상의 다중 출처 재반박 데이터 샘플로 학습된 전문 평가자로, 강력한 judge GPT-4.1을 능가하는 인간 선호도와의 채점 일관성을 달성합니다. 폭넓은 실험 결과, RebuttalAgent는 자동 평가 지표에서 기준 모델 대비 평균 18.3% 크게 우수한 성능을 보였을 뿐만 아니라, 자동 및 인간 평가 모두에서 고급 상용 모델들도 능가하는 것으로 나타났습니다. 면책 조항: 생성된 재반박 내용은 저자에게 영감을 제공하고 초안 작성에 도움을 주기 위한 참고용입니다. 저자 자신의 비판적 분석과 응답을 대체하기 위한 것이 아닙니다.
English
Although artificial intelligence (AI) has become deeply integrated into various stages of the research workflow and achieved remarkable advancements, academic rebuttal remains a significant and underexplored challenge. This is because rebuttal is a complex process of strategic communication under severe information asymmetry rather than a simple technical debate. Consequently, current approaches struggle as they largely imitate surface-level linguistics, missing the essential element of perspective-taking required for effective persuasion. In this paper, we introduce RebuttalAgent, the first framework to ground academic rebuttal in Theory of Mind (ToM), operationalized through a ToM-Strategy-Response (TSR) pipeline that models reviewer mental state, formulates persuasion strategy, and generates strategy-grounded response. To train our agent, we construct RebuttalBench, a large-scale dataset synthesized via a novel critique-and-refine approach. Our training process consists of two stages, beginning with a supervised fine-tuning phase to equip the agent with ToM-based analysis and strategic planning capabilities, followed by a reinforcement learning phase leveraging the self-reward mechanism for scalable self-improvement. For reliable and efficient automated evaluation, we further develop Rebuttal-RM, a specialized evaluator trained on over 100K samples of multi-source rebuttal data, which achieves scoring consistency with human preferences surpassing powerful judge GPT-4.1. Extensive experiments show RebuttalAgent significantly outperforms the base model by an average of 18.3% on automated metrics, while also outperforming advanced proprietary models across both automated and human evaluations. Disclaimer: the generated rebuttal content is for reference only to inspire authors and assist in drafting. It is not intended to replace the author's own critical analysis and response.
PDF132January 27, 2026