DRPG (Descomponer, Recuperar, Planificar, Generar): Un Marco Agéntico para la Réplica Académica
DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal
January 26, 2026
Autores: Peixuan Han, Yingjie Yu, Jingjun Xu, Jiaxuan You
cs.AI
Resumen
A pesar de la creciente adopción de los grandes modelos de lenguaje (LLMs) en los flujos de trabajo de investigación científica, el soporte automatizado para la refutación académica, un paso crucial en la comunicación académica y la revisión por pares, sigue estando en gran medida poco explorado. Los enfoques existentes suelen depender de LLMs estándar o de pipelines simples, que tienen dificultades con la comprensión de contextos largos y a menudo no logran producir respuestas específicas y persuasivas. En este artículo, proponemos DRPG, un marco agéntico para la generación automática de refutaciones académicas que opera en cuatro pasos: Descomponer las revisiones en preocupaciones atómicas, Recuperar evidencia relevante del artículo, Planificar estrategias de refutación y Generar respuestas en consecuencia. Cabe destacar que el Planificador en DRPG supera el 98% de precisión en la identificación de la dirección de refutación más factible. Los experimentos con datos de conferencias de primer nivel demuestran que DRPG supera significativamente a los pipelines de refutación existentes y logra un rendimiento más allá del nivel humano promedio utilizando solo un modelo de 8B. Nuestro análisis demuestra además la eficacia del diseño del planificador y su valor para proporcionar sugerencias explicables y desde múltiples perspectivas. También mostramos que DRPG funciona bien en un entorno más complejo de múltiples rondas. Estos resultados destacan la efectividad de DRPG y su potencial para proporcionar contenido de refutación de alta calidad y apoyar la escalabilidad de las discusiones académicas. Los códigos de este trabajo están disponibles en https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
English
Despite the growing adoption of large language models (LLMs) in scientific research workflows, automated support for academic rebuttal, a crucial step in academic communication and peer review, remains largely underexplored. Existing approaches typically rely on off-the-shelf LLMs or simple pipelines, which struggle with long-context understanding and often fail to produce targeted and persuasive responses. In this paper, we propose DRPG, an agentic framework for automatic academic rebuttal generation that operates through four steps: Decompose reviews into atomic concerns, Retrieve relevant evidence from the paper, Plan rebuttal strategies, and Generate responses accordingly. Notably, the Planner in DRPG reaches over 98% accuracy in identifying the most feasible rebuttal direction. Experiments on data from top-tier conferences demonstrate that DRPG significantly outperforms existing rebuttal pipelines and achieves performance beyond the average human level using only an 8B model. Our analysis further demonstrates the effectiveness of the planner design and its value in providing multi-perspective and explainable suggestions. We also showed that DRPG works well in a more complex multi-round setting. These results highlight the effectiveness of DRPG and its potential to provide high-quality rebuttal content and support the scaling of academic discussions. Codes for this work are available at https://github.com/ulab-uiuc/DRPG-RebuttalAgent.