ChatPaper.aiChatPaper

Können Sprachmodelle falsifizieren? Algorithmisches Denken durch die Erstellung von Gegenbeispielen bewerten

Can Language Models Falsify? Evaluating Algorithmic Reasoning with Counterexample Creation

February 26, 2025
Autoren: Shiven Sinha, Shashwat Goel, Ponnurangam Kumaraguru, Jonas Geiping, Matthias Bethge, Ameya Prabhu
cs.AI

Zusammenfassung

Es herrscht zunehmende Begeisterung über das Potenzial von Sprachmodellen (Language Models, LMs), wissenschaftliche Entdeckungen zu beschleunigen. Das Falsifizieren von Hypothesen ist entscheidend für den wissenschaftlichen Fortschritt, da es ermöglicht, Behauptungen im Laufe der Zeit iterativ zu verfeinern. Dieser Prozess erfordert erheblichen Aufwand, logisches Denken und Kreativität seitens der Forschenden. Dennoch bewerten aktuelle Benchmarks für LMs hauptsächlich deren Fähigkeit, Lösungen zu generieren, anstatt sie in Frage zu stellen. Wir plädieren für die Entwicklung von Benchmarks, die diese umgekehrte Fähigkeit bewerten – nämlich die Erstellung von Gegenbeispielen für subtil falsche Lösungen. Um diesen Ansatz zu demonstrieren, beginnen wir mit dem Bereich des algorithmischen Problemlösens, wo Gegenbeispiele automatisch mithilfe von Codeausführung bewertet werden können. Konkret stellen wir REFUTE vor, einen dynamisch aktualisierten Benchmark, der aktuelle Probleme und fehlerhafte Einreichungen aus Programmierwettbewerben enthält, bei denen menschliche Experten erfolgreich Gegenbeispiele identifiziert haben. Unsere Analyse zeigt, dass die besten Denkagenten, selbst OpenAI o3-mini (hoch) mit Codeausführungsfeedback, Gegenbeispiele für nur <9% der fehlerhaften Lösungen in REFUTE erstellen können, obwohl Bewertungen darauf hindeuten, dass sie bis zu 48% dieser Probleme von Grund auf lösen können. Wir hoffen, dass unsere Arbeit Fortschritte bei der Bewertung und Verbesserung der Fähigkeit von LMs anregt, falsche Lösungen zu widerlegen – eine Fähigkeit, die sowohl für die Beschleunigung der Forschung als auch für die Selbstverbesserung von Modellen durch zuverlässiges reflektierendes Denken von entscheidender Bedeutung ist.
English
There is growing excitement about the potential of Language Models (LMs) to accelerate scientific discovery. Falsifying hypotheses is key to scientific progress, as it allows claims to be iteratively refined over time. This process requires significant researcher effort, reasoning, and ingenuity. Yet current benchmarks for LMs predominantly assess their ability to generate solutions rather than challenge them. We advocate for developing benchmarks that evaluate this inverse capability - creating counterexamples for subtly incorrect solutions. To demonstrate this approach, we start with the domain of algorithmic problem solving, where counterexamples can be evaluated automatically using code execution. Specifically, we introduce REFUTE, a dynamically updating benchmark that includes recent problems and incorrect submissions from programming competitions, where human experts successfully identified counterexamples. Our analysis finds that the best reasoning agents, even OpenAI o3-mini (high) with code execution feedback, can create counterexamples for only <9% of incorrect solutions in REFUTE, even though ratings indicate its ability to solve up to 48% of these problems from scratch. We hope our work spurs progress in evaluating and enhancing LMs' ability to falsify incorrect solutions - a capability that is crucial for both accelerating research and making models self-improve through reliable reflective reasoning.

Summary

AI-Generated Summary

PDF202February 27, 2025