ChatPaper.aiChatPaper

Paper2Rebuttal : Un Cadre Multi-Agent pour une Assistance Transparente à la Réponse des Auteurs

Paper2Rebuttal: A Multi-Agent Framework for Transparent Author Response Assistance

January 20, 2026
Auteurs: Qianli Ma, Chang Guo, Zhiheng Tian, Siyu Wang, Jipeng Xiao, Yuanhao Yue, Zhipeng Zhang
cs.AI

Résumé

La rédaction de réponses aux rapports d'évaluation est une tâche cruciale qui exige plus qu'une maîtrise linguistique, car elle nécessite un alignement précis entre l'intention des évaluateurs et les détails du manuscrit. Les solutions actuelles traitent généralement ce problème comme une génération de texte directe, souffrant d'hallucinations, de critiques négligées et d'un manque de fondement vérifiable. Pour résoudre ces limitations, nous présentons RebuttalAgent, le premier cadre multi-agents qui reformule la génération de réponses comme une tâche de planification centrée sur les preuves. Notre système décompose les retours complexes en préoccupations atomiques et construit dynamiquement des contextes hybrides en synthétisant des résumés compressés avec du texte haute fidélité, tout en intégrant un module de recherche externe autonome et à la demande pour résoudre les préoccupations nécessitant une littérature externe. En générant un plan de réponse inspectable avant la rédaction, RebuttalAgent garantit que chaque argument est explicitement ancré dans des preuves internes ou externes. Nous validons notre approche sur le RebuttalBench proposé et démontrons que notre pipeline surpasse les bases de référence en couverture, fidélité et cohérence stratégique, offrant ainsi un assistant transparent et contrôlable pour le processus d'évaluation par les pairs. Le code sera publié.
English
Writing effective rebuttals is a high-stakes task that demands more than linguistic fluency, as it requires precise alignment between reviewer intent and manuscript details. Current solutions typically treat this as a direct-to-text generation problem, suffering from hallucination, overlooked critiques, and a lack of verifiable grounding. To address these limitations, we introduce RebuttalAgent, the first multi-agents framework that reframes rebuttal generation as an evidence-centric planning task. Our system decomposes complex feedback into atomic concerns and dynamically constructs hybrid contexts by synthesizing compressed summaries with high-fidelity text while integrating an autonomous and on-demand external search module to resolve concerns requiring outside literature. By generating an inspectable response plan before drafting, RebuttalAgent ensures that every argument is explicitly anchored in internal or external evidence. We validate our approach on the proposed RebuttalBench and demonstrate that our pipeline outperforms strong baselines in coverage, faithfulness, and strategic coherence, offering a transparent and controllable assistant for the peer review process. Code will be released.
PDF483February 7, 2026