ChatPaper.aiChatPaper

Danzando in Catene: La Persuasione Strategica nella Replica Accademica attraverso la Teoria della Mente

Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind

January 22, 2026
Autori: Zhitao He, Zongwei Lyu, Yi R Fung
cs.AI

Abstract

Sebbene l'intelligenza artificiale (IA) si sia profondamente integrata in varie fasi del flusso di lavoro della ricerca e abbia ottenuto progressi notevoli, la replica accademica rimane una sfida significativa e poco esplorata. Ciò accade perché la replica è un processo complesso di comunicazione strategica in condizioni di forte asimmetria informativa, piuttosto che un semplice dibattito tecnico. Di conseguenza, gli approcci attuali risultano inefficaci in quanto imitano prevalentemente la linguistica superficiale, tralasciando l'elemento essenziale dell'assunzione di prospettiva necessario per una persuasione efficace. In questo articolo presentiamo RebuttalAgent, il primo framework che fonda la replica accademica sulla Teoria della Mente (ToM), implementata attraverso una pipeline ToM-Strategia-Risposta (TSR) che modella lo stato mentale del revisore, formula una strategia persuasiva e genera una risposta ancorata alla strategia. Per addestrare il nostro agente, abbiamo costruito RebuttalBench, un dataset su larga scala sintetizzato mediante un innovativo approccio di critica e affinamento. Il processo di addestramento si articola in due fasi: una prima fase di fine-tuning supervisionato per dotare l'agente di capacità di analisi basate sulla ToM e di pianificazione strategica, seguita da una fase di apprendimento per rinforzo che sfrutta un meccanismo di auto-ricompensa per un miglioramento autonomo e scalabile. Per una valutazione automatica affidabile ed efficiente, abbiamo inoltre sviluppato Rebuttal-RM, un valutatore specializzato addestrato su oltre 100.000 campioni di dati replicativi multi-sorgente, che raggiunge una coerenza di valutazione con le preferenze umane superiore a quella del potente giudice GPT-4.1. Esperimenti estensivi dimostrano che RebuttalAgent supera significativamente il modello base di una media del 18,3% sulle metriche automatiche, oltre a superare modelli proprietari avanzati sia nelle valutazioni automatiche che in quelle umane. Dichiarazione di non responsabilità: i contenuti delle repliche generate sono forniti solo a scopo di riferimento per ispirare gli autori e assistere nella stesura. Non intendono sostituire l'analisi critica e la risposta autonoma dell'autore.
English
Although artificial intelligence (AI) has become deeply integrated into various stages of the research workflow and achieved remarkable advancements, academic rebuttal remains a significant and underexplored challenge. This is because rebuttal is a complex process of strategic communication under severe information asymmetry rather than a simple technical debate. Consequently, current approaches struggle as they largely imitate surface-level linguistics, missing the essential element of perspective-taking required for effective persuasion. In this paper, we introduce RebuttalAgent, the first framework to ground academic rebuttal in Theory of Mind (ToM), operationalized through a ToM-Strategy-Response (TSR) pipeline that models reviewer mental state, formulates persuasion strategy, and generates strategy-grounded response. To train our agent, we construct RebuttalBench, a large-scale dataset synthesized via a novel critique-and-refine approach. Our training process consists of two stages, beginning with a supervised fine-tuning phase to equip the agent with ToM-based analysis and strategic planning capabilities, followed by a reinforcement learning phase leveraging the self-reward mechanism for scalable self-improvement. For reliable and efficient automated evaluation, we further develop Rebuttal-RM, a specialized evaluator trained on over 100K samples of multi-source rebuttal data, which achieves scoring consistency with human preferences surpassing powerful judge GPT-4.1. Extensive experiments show RebuttalAgent significantly outperforms the base model by an average of 18.3% on automated metrics, while also outperforming advanced proprietary models across both automated and human evaluations. Disclaimer: the generated rebuttal content is for reference only to inspire authors and assist in drafting. It is not intended to replace the author's own critical analysis and response.
PDF133February 8, 2026