APRES: Un Sistema Agente per la Revisione e Valutazione di Articoli
APRES: An Agentic Paper Revision and Evaluation System
March 3, 2026
Autori: Bingchen Zhao, Jenny Zhang, Chenxi Whitehouse, Minqi Jiang, Michael Shvartsman, Abhishek Charnalia, Despoina Magka, Tatiana Shavrina, Derek Dunfield, Oisin Mac Aodha, Yoram Bachrach
cs.AI
Abstract
Le scoperte scientifiche devono essere comunicate chiaramente per realizzare il loro pieno potenziale. Senza una comunicazione efficace, anche i risultati più rivoluzionari rischiano di essere trascurati o fraintesi. Il modo principale con cui gli scienziati comunicano il proprio lavoro e ricevono feedback dalla comunità è la revisione tra pari. Tuttavia, l'attuale sistema fornisce spesso valutazioni incoerenti tra i revisori, ostacolando di fatto il miglioramento di un manoscritto e limitandone il potenziale impatto. In questo articolo, presentiamo un metodo innovativo, APRES, basato su Large Language Models (LLM) per aggiornare il testo di un articolo scientifico sulla base di una griglia di valutazione. Il nostro metodo automatizzato individua una griglia di valutazione altamente predittiva dei futuri conteggi di citazioni e la integra con APRES in un sistema automatizzato che revisiona gli articoli per migliorarne la qualità e l'impatto. È cruciale che questo obiettivo venga raggiunto senza alterare il contenuto scientifico di base. Dimostriamo il successo di APRES, che migliora la previsione delle citazioni future del 19,6% nell'errore medio assoluto rispetto al miglior metodo di riferimento, e mostriamo che il nostro processo di revisione produce articoli preferiti rispetto agli originali dal 79% degli esperti umani valutatori. I nostri risultati forniscono un solido supporto empirico per l'uso degli LLM come strumento per aiutare gli autori a testare la robustezza dei propri manoscritti prima della sottomissione. In definitiva, il nostro lavoro mira a potenziare, non a sostituire, il ruolo essenziale dei revisori esperti umani, poiché spetta agli esseri umani discernere quali scoperte contano veramente, guidando la scienza verso l'avanzamento della conoscenza e il miglioramento della vita.
English
Scientific discoveries must be communicated clearly to realize their full potential. Without effective communication, even the most groundbreaking findings risk being overlooked or misunderstood. The primary way scientists communicate their work and receive feedback from the community is through peer review. However, the current system often provides inconsistent feedback between reviewers, ultimately hindering the improvement of a manuscript and limiting its potential impact. In this paper, we introduce a novel method APRES powered by Large Language Models (LLMs) to update a scientific papers text based on an evaluation rubric. Our automated method discovers a rubric that is highly predictive of future citation counts, and integrate it with APRES in an automated system that revises papers to enhance their quality and impact. Crucially, this objective should be met without altering the core scientific content. We demonstrate the success of APRES, which improves future citation prediction by 19.6% in mean averaged error over the next best baseline, and show that our paper revision process yields papers that are preferred over the originals by human expert evaluators 79% of the time. Our findings provide strong empirical support for using LLMs as a tool to help authors stress-test their manuscripts before submission. Ultimately, our work seeks to augment, not replace, the essential role of human expert reviewers, for it should be humans who discern which discoveries truly matter, guiding science toward advancing knowledge and enriching lives.