ChatPaper.aiChatPaper

I Modelli Linguistici Possono Falsificare? Valutazione del Ragionamento Algoritmico attraverso la Creazione di Controesempi

Can Language Models Falsify? Evaluating Algorithmic Reasoning with Counterexample Creation

February 26, 2025
Autori: Shiven Sinha, Shashwat Goel, Ponnurangam Kumaraguru, Jonas Geiping, Matthias Bethge, Ameya Prabhu
cs.AI

Abstract

C'è un crescente entusiasmo riguardo al potenziale dei Modelli Linguistici (LMs) di accelerare la scoperta scientifica. La falsificazione delle ipotesi è fondamentale per il progresso scientifico, poiché consente di affinare iterativamente le affermazioni nel tempo. Questo processo richiede un notevole sforzo, ragionamento e ingegnosità da parte dei ricercatori. Tuttavia, gli attuali benchmark per i LMs valutano principalmente la loro capacità di generare soluzioni piuttosto che di metterle in discussione. Sosteniamo lo sviluppo di benchmark che valutino questa capacità inversa: creare controesempi per soluzioni sottilmente errate. Per dimostrare questo approccio, partiamo dal dominio della risoluzione algoritmica dei problemi, dove i controesempi possono essere valutati automaticamente tramite l'esecuzione di codice. Nello specifico, introduciamo REFUTE, un benchmark in costante aggiornamento che include problemi recenti e soluzioni errate provenienti da competizioni di programmazione, in cui esperti umani hanno identificato con successo controesempi. La nostra analisi rileva che i migliori agenti di ragionamento, persino OpenAI o3-mini (high) con feedback sull'esecuzione del codice, riescono a creare controesempi solo per <9% delle soluzioni errate in REFUTE, nonostante le valutazioni indichino la sua capacità di risolvere fino al 48% di questi problemi da zero. Speriamo che il nostro lavoro stimoli progressi nella valutazione e nel potenziamento della capacità dei LMs di falsificare soluzioni errate, una competenza cruciale sia per accelerare la ricerca sia per permettere ai modelli di migliorarsi autonomamente attraverso un ragionamento riflessivo affidabile.
English
There is growing excitement about the potential of Language Models (LMs) to accelerate scientific discovery. Falsifying hypotheses is key to scientific progress, as it allows claims to be iteratively refined over time. This process requires significant researcher effort, reasoning, and ingenuity. Yet current benchmarks for LMs predominantly assess their ability to generate solutions rather than challenge them. We advocate for developing benchmarks that evaluate this inverse capability - creating counterexamples for subtly incorrect solutions. To demonstrate this approach, we start with the domain of algorithmic problem solving, where counterexamples can be evaluated automatically using code execution. Specifically, we introduce REFUTE, a dynamically updating benchmark that includes recent problems and incorrect submissions from programming competitions, where human experts successfully identified counterexamples. Our analysis finds that the best reasoning agents, even OpenAI o3-mini (high) with code execution feedback, can create counterexamples for only <9% of incorrect solutions in REFUTE, even though ratings indicate its ability to solve up to 48% of these problems from scratch. We hope our work spurs progress in evaluating and enhancing LMs' ability to falsify incorrect solutions - a capability that is crucial for both accelerating research and making models self-improve through reliable reflective reasoning.

Summary

AI-Generated Summary

PDF202February 27, 2025