Paper2Rebuttal: Ein Multi-Agenten-Framework für transparente Unterstützung bei Autorenantworten
Paper2Rebuttal: A Multi-Agent Framework for Transparent Author Response Assistance
January 20, 2026
papers.authors: Qianli Ma, Chang Guo, Zhiheng Tian, Siyu Wang, Jipeng Xiao, Yuanhao Yue, Zhipeng Zhang
cs.AI
papers.abstract
Das Verfassen effektiver Erwiderungen ist eine anspruchsvolle Aufgabe, die mehr erfordert als sprachliche Gewandtheit, da sie eine präzise Abstimmung zwischen der Absicht des Gutachters und den Manuskriptdetails erfordert. Bisherige Ansätze behandeln dies typischerweise als ein Direct-to-Text-Generierungsproblem, was zu Halluzinationen, übersehenen Kritikpunkten und einem Mangel an überprüfbaren Bezügen führt. Um diese Einschränkungen zu adressieren, stellen wir RebuttalAgent vor, das erste Multi-Agenten-Framework, das die Erwiderungsgenerierung als eine evidenzbasierte Planungsaufgabe neu konzipiert. Unser System zerlegt komplexes Feedback in atomare Kritikpunkte und konstruiert dynamisch hybride Kontexte, indem komprimierte Zusammenfassungen mit hochpräzisen Textstellen synthetisiert werden, während es ein autonomes und bedarfsgesteuertes externes Suchmodul integriert, um Kritikpunkte zu lösen, die externe Literatur erfordern. Durch die Generierung eines überprüfbaren Antwortplans vor der Abfassung stellt RebuttalAgent sicher, dass jedes Argument explizit in interner oder externer Evidenz verankert ist. Wir validieren unseren Ansatz auf der vorgeschlagenen RebuttalBench und zeigen, dass unsere Pipeline starke Baseline-Modelle in Bezug auf Abdeckung, Aussagetreue und strategische Kohärenz übertrifft und somit einen transparenten und steuerbaren Assistenten für den Peer-Review-Prozess bietet. Der Code wird veröffentlicht.
English
Writing effective rebuttals is a high-stakes task that demands more than linguistic fluency, as it requires precise alignment between reviewer intent and manuscript details. Current solutions typically treat this as a direct-to-text generation problem, suffering from hallucination, overlooked critiques, and a lack of verifiable grounding. To address these limitations, we introduce RebuttalAgent, the first multi-agents framework that reframes rebuttal generation as an evidence-centric planning task. Our system decomposes complex feedback into atomic concerns and dynamically constructs hybrid contexts by synthesizing compressed summaries with high-fidelity text while integrating an autonomous and on-demand external search module to resolve concerns requiring outside literature. By generating an inspectable response plan before drafting, RebuttalAgent ensures that every argument is explicitly anchored in internal or external evidence. We validate our approach on the proposed RebuttalBench and demonstrate that our pipeline outperforms strong baselines in coverage, faithfulness, and strategic coherence, offering a transparent and controllable assistant for the peer review process. Code will be released.