ChatPaper.aiChatPaper

¿Pueden los modelos de lenguaje falsificar? Evaluación del razonamiento algorítmico mediante la creación de contraejemplos

Can Language Models Falsify? Evaluating Algorithmic Reasoning with Counterexample Creation

February 26, 2025
Autores: Shiven Sinha, Shashwat Goel, Ponnurangam Kumaraguru, Jonas Geiping, Matthias Bethge, Ameya Prabhu
cs.AI

Resumen

Existe un creciente entusiasmo sobre el potencial de los Modelos de Lenguaje (LMs) para acelerar el descubrimiento científico. La falsificación de hipótesis es clave para el progreso científico, ya que permite refinar afirmaciones de manera iterativa con el tiempo. Este proceso requiere un esfuerzo significativo por parte de los investigadores, así como razonamiento e ingenio. Sin embargo, los puntos de referencia actuales para los LMs evalúan principalmente su capacidad para generar soluciones en lugar de cuestionarlas. Abogamos por el desarrollo de puntos de referencia que evalúen esta capacidad inversa: la creación de contraejemplos para soluciones sutilmente incorrectas. Para demostrar este enfoque, comenzamos con el dominio de la resolución algorítmica de problemas, donde los contraejemplos pueden evaluarse automáticamente mediante la ejecución de código. Específicamente, presentamos REFUTE, un punto de referencia de actualización dinámica que incluye problemas recientes y envíos incorrectos de competencias de programación, donde expertos humanos identificaron exitosamente contraejemplos. Nuestro análisis revela que los mejores agentes de razonamiento, incluso OpenAI o3-mini (alto) con retroalimentación de ejecución de código, solo pueden crear contraejemplos para <9% de las soluciones incorrectas en REFUTE, a pesar de que las calificaciones indican su capacidad para resolver hasta el 48% de estos problemas desde cero. Esperamos que nuestro trabajo impulse el progreso en la evaluación y mejora de la capacidad de los LMs para falsificar soluciones incorrectas, una habilidad crucial tanto para acelerar la investigación como para permitir que los modelos se auto-mejoren mediante un razonamiento reflexivo confiable.
English
There is growing excitement about the potential of Language Models (LMs) to accelerate scientific discovery. Falsifying hypotheses is key to scientific progress, as it allows claims to be iteratively refined over time. This process requires significant researcher effort, reasoning, and ingenuity. Yet current benchmarks for LMs predominantly assess their ability to generate solutions rather than challenge them. We advocate for developing benchmarks that evaluate this inverse capability - creating counterexamples for subtly incorrect solutions. To demonstrate this approach, we start with the domain of algorithmic problem solving, where counterexamples can be evaluated automatically using code execution. Specifically, we introduce REFUTE, a dynamically updating benchmark that includes recent problems and incorrect submissions from programming competitions, where human experts successfully identified counterexamples. Our analysis finds that the best reasoning agents, even OpenAI o3-mini (high) with code execution feedback, can create counterexamples for only <9% of incorrect solutions in REFUTE, even though ratings indicate its ability to solve up to 48% of these problems from scratch. We hope our work spurs progress in evaluating and enhancing LMs' ability to falsify incorrect solutions - a capability that is crucial for both accelerating research and making models self-improve through reliable reflective reasoning.

Summary

AI-Generated Summary

PDF202February 27, 2025