ChatPaper.aiChatPaper

Danser dans les chaînes : La persuasion stratégique dans la réfutation académique via la théorie de l'esprit

Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind

January 22, 2026
Auteurs: Zhitao He, Zongwei Lyu, Yi R Fung
cs.AI

Résumé

Bien que l'intelligence artificielle (IA) se soit profondément intégrée dans diverses étapes du processus de recherche et ait réalisé des avancées remarquables, la rédaction de réponses aux relecteurs (rebuttal académique) reste un défi important et sous-exploré. Ceci s'explique par le fait que le rebuttal constitue un processus complexe de communication stratégique sous forte asymétrie d'information, et non un simple débat technique. Par conséquent, les approches actuelles peinent à être efficaces car elles imitent largement des aspects linguistiques superficiels, omettant l'élément essentiel de la prise de perspective nécessaire à une persuasion efficace. Dans cet article, nous présentons RebuttalAgent, le premier cadre qui ancre le rebuttal académique dans la Théorie de l'Esprit (ToM), opérationnalisée via un pipeline ToM-Stratégie-Réponse (TSR) qui modélise l'état mental du relecteur, formule une stratégie de persuasion et génère une réponse fondée sur cette stratégie. Pour entraîner notre agent, nous avons constitué RebuttalBench, un jeu de données à grande échelle synthétisé via une nouvelle approche de critique et d'affinage. Notre processus d'entraînement comporte deux étapes : une phase de fine-tuning supervisé pour doter l'agent de capacités d'analyse basées sur la ToM et de planification stratégique, suivie d'une phase d'apprentissage par renforcement exploitant un mécanisme d'auto-récompense pour une amélioration auto-supervisée évolutive. Pour une évaluation automatisée fiable et efficace, nous avons développé Rebuttal-RM, un évaluateur spécialisé entraîné sur plus de 100 000 échantillons de données de rebuttal multi-sources, qui atteint une cohérence de notation avec les préférences humaines dépassant celle du puissant modèle GPT-4.1. Des expériences approfondies montrent que RebuttalAgent surpasse significativement le modèle de base de 18,3 % en moyenne sur les métriques automatisées, tout en surpassant également les modèles propriétaires avancés dans les évaluations automatisées et humaines. Avertissement : le contenu de rebuttal généré est fourni uniquement à titre de référence pour inspirer les auteurs et aider à la rédaction. Il n'est pas destiné à remplacer l'analyse critique et la réponse propres à l'auteur.
English
Although artificial intelligence (AI) has become deeply integrated into various stages of the research workflow and achieved remarkable advancements, academic rebuttal remains a significant and underexplored challenge. This is because rebuttal is a complex process of strategic communication under severe information asymmetry rather than a simple technical debate. Consequently, current approaches struggle as they largely imitate surface-level linguistics, missing the essential element of perspective-taking required for effective persuasion. In this paper, we introduce RebuttalAgent, the first framework to ground academic rebuttal in Theory of Mind (ToM), operationalized through a ToM-Strategy-Response (TSR) pipeline that models reviewer mental state, formulates persuasion strategy, and generates strategy-grounded response. To train our agent, we construct RebuttalBench, a large-scale dataset synthesized via a novel critique-and-refine approach. Our training process consists of two stages, beginning with a supervised fine-tuning phase to equip the agent with ToM-based analysis and strategic planning capabilities, followed by a reinforcement learning phase leveraging the self-reward mechanism for scalable self-improvement. For reliable and efficient automated evaluation, we further develop Rebuttal-RM, a specialized evaluator trained on over 100K samples of multi-source rebuttal data, which achieves scoring consistency with human preferences surpassing powerful judge GPT-4.1. Extensive experiments show RebuttalAgent significantly outperforms the base model by an average of 18.3% on automated metrics, while also outperforming advanced proprietary models across both automated and human evaluations. Disclaimer: the generated rebuttal content is for reference only to inspire authors and assist in drafting. It is not intended to replace the author's own critical analysis and response.
PDF133February 8, 2026