APRES : Système Agentique de Révision et d'Évaluation d'Articles
APRES: An Agentic Paper Revision and Evaluation System
March 3, 2026
Auteurs: Bingchen Zhao, Jenny Zhang, Chenxi Whitehouse, Minqi Jiang, Michael Shvartsman, Abhishek Charnalia, Despoina Magka, Tatiana Shavrina, Derek Dunfield, Oisin Mac Aodha, Yoram Bachrach
cs.AI
Résumé
Les découvertes scientifiques doivent être communiquées clairement pour réaliser leur plein potentiel. Sans une communication efficace, même les résultats les plus novateurs risquent d'être négligés ou mal interprétés. Le principal moyen par lequel les scientifiques communiquent leurs travaux et reçoivent des retours de la communauté est l'évaluation par les pairs. Cependant, le système actuel produit souvent des retours incohérents entre les relecteurs, ce qui finit par entraver l'amélioration d'un manuscrit et limite son impact potentiel. Dans cet article, nous présentons une nouvelle méthode, APRES, reposant sur les Grands Modèles de Langage (LLM) pour mettre à jour le texte d'un article scientifique sur la base d'une grille d'évaluation. Notre méthode automatique découvre une grille d'évaluation très prédictive des futurs nombres de citations et l'intègre à APRES dans un système automatisé qui révise les articles pour en améliorer la qualité et l'impact. Il est crucial que cet objectif soit atteint sans altérer le contenu scientifique fondamental. Nous démontrons le succès d'APRES, qui améliore la prédiction des citations futures de 19,6% en erreur moyenne absolue par rapport à la meilleure base de référence, et montrons que notre processus de révision produit des articles préférés aux originaux par des évaluateurs experts humains dans 79% des cas. Nos résultats fournissent un soutien empirique solide à l'utilisation des LLM comme outil pour aider les auteurs à tester la robustesse de leurs manuscrits avant soumission. En définitive, notre travail vise à compléter, et non à remplacer, le rôle essentiel des relecteurs experts humains, car ce doivent être les humains qui discernent quelles découvertes comptent véritablement, guidant la science vers l'avancement des connaissances et l'enrichissement des vies.
English
Scientific discoveries must be communicated clearly to realize their full potential. Without effective communication, even the most groundbreaking findings risk being overlooked or misunderstood. The primary way scientists communicate their work and receive feedback from the community is through peer review. However, the current system often provides inconsistent feedback between reviewers, ultimately hindering the improvement of a manuscript and limiting its potential impact. In this paper, we introduce a novel method APRES powered by Large Language Models (LLMs) to update a scientific papers text based on an evaluation rubric. Our automated method discovers a rubric that is highly predictive of future citation counts, and integrate it with APRES in an automated system that revises papers to enhance their quality and impact. Crucially, this objective should be met without altering the core scientific content. We demonstrate the success of APRES, which improves future citation prediction by 19.6% in mean averaged error over the next best baseline, and show that our paper revision process yields papers that are preferred over the originals by human expert evaluators 79% of the time. Our findings provide strong empirical support for using LLMs as a tool to help authors stress-test their manuscripts before submission. Ultimately, our work seeks to augment, not replace, the essential role of human expert reviewers, for it should be humans who discern which discoveries truly matter, guiding science toward advancing knowledge and enriching lives.