DRPG (Dekomponieren, Recherchieren, Planen, Generieren): Ein agentenbasiertes Framework für wissenschaftliche Erwiderungen
DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal
January 26, 2026
papers.authors: Peixuan Han, Yingjie Yu, Jingjun Xu, Jiaxuan You
cs.AI
papers.abstract
Trotz der zunehmenden Verbreitung großer Sprachmodelle (LLMs) in wissenschaftlichen Forschungsabläufen ist die automatisierte Unterstützung für akademische Repliken, ein entscheidender Schritt in der akademischen Kommunikation und im Peer-Review, weitgehend unerforscht. Bestehende Ansätze basieren typischerweise auf Standard-LLMs oder einfachen Pipelines, die mit dem Verständnis langer Kontexte kämpfen und oft keine zielgerichteten und überzeugenden Antworten liefern. In diesem Artikel stellen wir DRPG vor, ein agentenbasiertes Framework zur automatischen Generierung akademischer Repliken, das in vier Schritten arbeitet: Zerlege Reviews in atomare Kritikpunkte, Rufe relevante Beweise aus dem Paper ab, Plane Replikationsstrategien und Generiere Antworten entsprechend. Bemerkenswerterweise erreicht der Planner in DRPG eine Genauigkeit von über 98 % bei der Identifizierung der machbarsten Replikationsrichtung. Experimente mit Daten von Top-Konferenzen zeigen, dass DRPG bestehende Replikations-Pipelines deutlich übertrifft und mit nur einem 8B-Modell eine Leistung jenseits des durchschnittlichen menschlichen Niveaus erzielt. Unsere Analyse demonstriert weiterhin die Effektivität des Planner-Designs und seinen Wert bei der Bereitstellung multiperspektivischer und erklärbarer Vorschläge. Wir zeigten außerdem, dass DRPG auch in einer komplexeren Mehrrunden-Umgebung gut funktioniert. Diese Ergebnisse unterstreichen die Wirksamkeit von DRPG und sein Potenzial, hochwertige Replikationsinhalte bereitzustellen und die Skalierung akademischer Diskussionen zu unterstützen. Der Code für diese Arbeit ist verfügbar unter https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
English
Despite the growing adoption of large language models (LLMs) in scientific research workflows, automated support for academic rebuttal, a crucial step in academic communication and peer review, remains largely underexplored. Existing approaches typically rely on off-the-shelf LLMs or simple pipelines, which struggle with long-context understanding and often fail to produce targeted and persuasive responses. In this paper, we propose DRPG, an agentic framework for automatic academic rebuttal generation that operates through four steps: Decompose reviews into atomic concerns, Retrieve relevant evidence from the paper, Plan rebuttal strategies, and Generate responses accordingly. Notably, the Planner in DRPG reaches over 98% accuracy in identifying the most feasible rebuttal direction. Experiments on data from top-tier conferences demonstrate that DRPG significantly outperforms existing rebuttal pipelines and achieves performance beyond the average human level using only an 8B model. Our analysis further demonstrates the effectiveness of the planner design and its value in providing multi-perspective and explainable suggestions. We also showed that DRPG works well in a more complex multi-round setting. These results highlight the effectiveness of DRPG and its potential to provide high-quality rebuttal content and support the scaling of academic discussions. Codes for this work are available at https://github.com/ulab-uiuc/DRPG-RebuttalAgent.