Tanzen in Ketten: Strategische Überzeugungsarbeit in akademischen Repliken mittels Theory of Mind
Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind
January 22, 2026
papers.authors: Zhitao He, Zongwei Lyu, Yi R Fung
cs.AI
papers.abstract
Obwohl künstliche Intelligenz (KI) bereits tief in verschiedene Phasen des Forschungsarbeitsablaufs integriert ist und bemerkenswerte Fortschritte erzielt hat, bleibt die akademische Erwiderung (Rebuttal) eine bedeutende und unzureichend erforschte Herausforderung. Dies liegt daran, dass es sich bei einer Erwiderung um einen komplexen Prozess strategischer Kommunikation unter starker Informationsasymmetrie handelt und nicht um eine einfache technische Debatte. Folglich stoßen aktuelle Ansätze an Grenzen, da sie weitgehend oberflächliche linguistische Muster imitieren und das wesentliche Element der Perspektivenübernahme für eine effektive Persuasion vernachlässigen. In diesem Artikel stellen wir RebuttalAgent vor, den ersten Rahmenansatz, der akademische Erwiderungen in der Theory of Mind (ToM) verankert. Dies wird durch einen ToM-Strategie-Antwort (TSR)-Prozess operationalisiert, der den mentalen Zustand des Gutachters modelliert, Persuasionstrategien formuliert und strategiebasierte Antworten generiert. Um unseren Agenten zu trainieren, erstellen wir RebuttalBench, einen umfangreichen Datensatz, der durch einen neuartigen Kritik-und-Verbesserungs-Ansatz synthetisiert wird. Unser Trainingsprozess umfasst zwei Stufen: Beginnend mit einer überwachten Feinjustierung (SFT), um den Agenten mit ToM-basierter Analyse- und Strategieplanungsfähigkeiten auszustatten, gefolgt von einer Verstärkungslernphase (RL), die einen Selbstbelohnungsmechanismus für skalierbare Selbstverbesserung nutzt. Für eine zuverlässige und effiziente automatische Evaluation entwickeln wir weiterhin Rebuttal-RM, einen spezialisierten Bewertungsalgorithmus, der mit über 100.000 Stichproben aus multi-sourcigen Erwiderungsdaten trainiert wurde und eine Bewertungskonsistenz mit menschlichen Präferenzen erreicht, die leistungsstarke Richter-Modelle wie GPT-4.1 übertrifft. Umfangreiche Experimente zeigen, dass RebuttalAgent die Basismodellleistung bei automatischen Metriken im Durchschnitt um 18,3 % signifikant übertrifft und dabei auch fortschrittliche proprietäre Modelle sowohl in automatischen als auch in humanen Evaluationen übertrifft. Haftungsausschluss: Der generierte Erwiderungsinhalt dient nur als Referenz, um Autoren zu inspirieren und beim Verfassen zu unterstützen. Er soll nicht die eigene kritische Analyse und Antwort des Autors ersetzen.
English
Although artificial intelligence (AI) has become deeply integrated into various stages of the research workflow and achieved remarkable advancements, academic rebuttal remains a significant and underexplored challenge. This is because rebuttal is a complex process of strategic communication under severe information asymmetry rather than a simple technical debate. Consequently, current approaches struggle as they largely imitate surface-level linguistics, missing the essential element of perspective-taking required for effective persuasion. In this paper, we introduce RebuttalAgent, the first framework to ground academic rebuttal in Theory of Mind (ToM), operationalized through a ToM-Strategy-Response (TSR) pipeline that models reviewer mental state, formulates persuasion strategy, and generates strategy-grounded response. To train our agent, we construct RebuttalBench, a large-scale dataset synthesized via a novel critique-and-refine approach. Our training process consists of two stages, beginning with a supervised fine-tuning phase to equip the agent with ToM-based analysis and strategic planning capabilities, followed by a reinforcement learning phase leveraging the self-reward mechanism for scalable self-improvement. For reliable and efficient automated evaluation, we further develop Rebuttal-RM, a specialized evaluator trained on over 100K samples of multi-source rebuttal data, which achieves scoring consistency with human preferences surpassing powerful judge GPT-4.1. Extensive experiments show RebuttalAgent significantly outperforms the base model by an average of 18.3% on automated metrics, while also outperforming advanced proprietary models across both automated and human evaluations. Disclaimer: the generated rebuttal content is for reference only to inspire authors and assist in drafting. It is not intended to replace the author's own critical analysis and response.