ChatPaper.aiChatPaper

DRPG (Ontleden, Ophalen, Plannen, Genereren): Een agent-gebaseerd raamwerk voor wetenschappelijke weerlegging

DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal

January 26, 2026
Auteurs: Peixuan Han, Yingjie Yu, Jingjun Xu, Jiaxuan You
cs.AI

Samenvatting

Ondanks de toenemende adoptie van grote taalmodel(len) (LLM's) in wetenschappelijke onderzoekswerkstromen, blijft geautomatiseerde ondersteuning voor academische weerlegging, een cruciale stap in academische communicatie en peer review, grotendeels onontgonnen. Bestaande benaderingen maken doorgaans gebruik van kant-en-klare LLM's of eenvoudige pijplijnen, die moeite hebben met het begrijpen van lange contexten en vaak niet in staat zijn gerichte en overtuigende antwoorden te produceren. In dit artikel stellen we DRPG voor, een agent-gebaseerd raamwerk voor het automatisch genereren van academische weerleggingen dat opereert in vier stappen: Deel beoordelingen op in atomische punten van zorg, Haal relevante bewijsstukken uit het artikel op, Plan weerleggingsstrategieën en Genereer dienovereenkomstig antwoorden. Opmerkelijk is dat de Planner in DRPG een nauwkeurigheid van meer dan 98% bereikt in het identificeren van de meest haalbare weerleggingsrichting. Experimenten met gegevens van topconferenties tonen aan dat DRPG bestaande weerleggingspijplijnen significant overtreft en prestaties levert die het gemiddelde menselijke niveau overstijgen, waarbij slechts een 8B-model wordt gebruikt. Onze analyse toont verder de effectiviteit van het planner-ontwerp en de waarde ervan bij het geven van multi-perspectieve en uitlegbare suggesties. We toonden ook aan dat DRPG goed functioneert in een complexere, multi-ronde setting. Deze resultaten onderstrepen de effectiviteit van DRPG en het potentieel om hoogwaardige weerleggingsinhoud te bieden en de schaalvergroting van academische discussies te ondersteunen. Code voor dit werk is beschikbaar op https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
English
Despite the growing adoption of large language models (LLMs) in scientific research workflows, automated support for academic rebuttal, a crucial step in academic communication and peer review, remains largely underexplored. Existing approaches typically rely on off-the-shelf LLMs or simple pipelines, which struggle with long-context understanding and often fail to produce targeted and persuasive responses. In this paper, we propose DRPG, an agentic framework for automatic academic rebuttal generation that operates through four steps: Decompose reviews into atomic concerns, Retrieve relevant evidence from the paper, Plan rebuttal strategies, and Generate responses accordingly. Notably, the Planner in DRPG reaches over 98% accuracy in identifying the most feasible rebuttal direction. Experiments on data from top-tier conferences demonstrate that DRPG significantly outperforms existing rebuttal pipelines and achieves performance beyond the average human level using only an 8B model. Our analysis further demonstrates the effectiveness of the planner design and its value in providing multi-perspective and explainable suggestions. We also showed that DRPG works well in a more complex multi-round setting. These results highlight the effectiveness of DRPG and its potential to provide high-quality rebuttal content and support the scaling of academic discussions. Codes for this work are available at https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
PDF83March 6, 2026