DRPG (Décomposer, Récupérer, Planifier, Générer) : Un cadre agentique pour la réfutation académique
DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal
January 26, 2026
papers.authors: Peixuan Han, Yingjie Yu, Jingjun Xu, Jiaxuan You
cs.AI
papers.abstract
Malgré l'adoption croissante des grands modèles de langage (LLM) dans les flux de travail de recherche scientifique, le support automatisé pour la rédaction de réponses aux relecteurs (rebuttal), une étape cruciale de la communication académique et de l'évaluation par les pairs, reste largement inexploré. Les approches existantes reposent généralement sur des LLM standards ou des pipelines simples, qui peinent à comprendre les longs contextes et échouent souvent à produire des réponses ciblées et persuasives. Dans cet article, nous proposons DRPG, un framework agentique pour la génération automatique de réponses aux relecteurs, qui fonctionne en quatre étapes : Décomposer les reviews en points de critique atomiques, Récupérer les preuves pertinentes dans l'article, Planifier les stratégies de réponse, et Générer les réponses en conséquence. Il est à noter que le Planificateur de DRPG atteint une précision de plus de 98 % pour identifier la direction de réponse la plus réalisable. Des expériences sur des données issues de conférences de premier plan démontrent que DRPG surpasse significativement les pipelines de réponse existants et atteint des performances dépassant le niveau humain moyen en utilisant uniquement un modèle de 8B. Notre analyse démontre en outre l'efficacité de la conception du planificateur et sa valeur pour fournir des suggestions multi-perspectives et explicables. Nous avons également montré que DRPG fonctionne bien dans un cadre multi-tours plus complexe. Ces résultats soulignent l'efficacité de DRPG et son potentiel à fournir un contenu de réponse de haute qualité et à soutenir la montée en charge des discussions académiques. Les codes de ce travail sont disponibles à l'adresse https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
English
Despite the growing adoption of large language models (LLMs) in scientific research workflows, automated support for academic rebuttal, a crucial step in academic communication and peer review, remains largely underexplored. Existing approaches typically rely on off-the-shelf LLMs or simple pipelines, which struggle with long-context understanding and often fail to produce targeted and persuasive responses. In this paper, we propose DRPG, an agentic framework for automatic academic rebuttal generation that operates through four steps: Decompose reviews into atomic concerns, Retrieve relevant evidence from the paper, Plan rebuttal strategies, and Generate responses accordingly. Notably, the Planner in DRPG reaches over 98% accuracy in identifying the most feasible rebuttal direction. Experiments on data from top-tier conferences demonstrate that DRPG significantly outperforms existing rebuttal pipelines and achieves performance beyond the average human level using only an 8B model. Our analysis further demonstrates the effectiveness of the planner design and its value in providing multi-perspective and explainable suggestions. We also showed that DRPG works well in a more complex multi-round setting. These results highlight the effectiveness of DRPG and its potential to provide high-quality rebuttal content and support the scaling of academic discussions. Codes for this work are available at https://github.com/ulab-uiuc/DRPG-RebuttalAgent.