Os Modelos de Linguagem Podem Falsificar? Avaliando o Raciocínio Algorítmico com a Criação de Contraexemplos
Can Language Models Falsify? Evaluating Algorithmic Reasoning with Counterexample Creation
February 26, 2025
Autores: Shiven Sinha, Shashwat Goel, Ponnurangam Kumaraguru, Jonas Geiping, Matthias Bethge, Ameya Prabhu
cs.AI
Resumo
Existe uma crescente empolgação sobre o potencial dos Modelos de Linguagem (LMs) para acelerar a descoberta científica. Falsificar hipóteses é fundamental para o progresso científico, pois permite que as afirmações sejam refinadas iterativamente ao longo do tempo. Esse processo requer um esforço significativo por parte dos pesquisadores, raciocínio e engenhosidade. No entanto, os benchmarks atuais para LMs avaliam predominantemente sua capacidade de gerar soluções em vez de desafiá-las. Defendemos o desenvolvimento de benchmarks que avaliem essa capacidade inversa - criar contraexemplos para soluções sutilmente incorretas. Para demonstrar essa abordagem, começamos com o domínio da resolução de problemas algorítmicos, onde contraexemplos podem ser avaliados automaticamente usando a execução de código. Especificamente, apresentamos o REFUTE, um benchmark em atualização dinâmica que inclui problemas recentes e submissões incorretas de competições de programação, onde especialistas humanos identificaram com sucesso contraexemplos. Nossa análise mostra que os melhores agentes de raciocínio, inclusive o OpenAI o3-mini (alto) com feedback de execução de código, podem criar contraexemplos para apenas <9% das soluções incorretas no REFUTE, mesmo que as avaliações indiquem sua capacidade de resolver até 48% desses problemas do zero. Esperamos que nosso trabalho estimule o progresso na avaliação e aprimoramento da capacidade dos LMs de falsificar soluções incorretas - uma habilidade crucial tanto para acelerar a pesquisa quanto para fazer com que os modelos se aprimorem por meio de um raciocínio reflexivo confiável.
English
There is growing excitement about the potential of Language Models (LMs) to
accelerate scientific discovery. Falsifying hypotheses is key to scientific
progress, as it allows claims to be iteratively refined over time. This process
requires significant researcher effort, reasoning, and ingenuity. Yet current
benchmarks for LMs predominantly assess their ability to generate solutions
rather than challenge them. We advocate for developing benchmarks that evaluate
this inverse capability - creating counterexamples for subtly incorrect
solutions. To demonstrate this approach, we start with the domain of
algorithmic problem solving, where counterexamples can be evaluated
automatically using code execution. Specifically, we introduce REFUTE, a
dynamically updating benchmark that includes recent problems and incorrect
submissions from programming competitions, where human experts successfully
identified counterexamples. Our analysis finds that the best reasoning agents,
even OpenAI o3-mini (high) with code execution feedback, can create
counterexamples for only <9% of incorrect solutions in REFUTE, even though
ratings indicate its ability to solve up to 48% of these problems from scratch.
We hope our work spurs progress in evaluating and enhancing LMs' ability to
falsify incorrect solutions - a capability that is crucial for both
accelerating research and making models self-improve through reliable
reflective reasoning.Summary
AI-Generated Summary