ChatPaper.aiChatPaper

AbstentionBench: Sprachmodelle scheitern bei unbeantwortbaren Fragen

AbstentionBench: Reasoning LLMs Fail on Unanswerable Questions

June 10, 2025
Autoren: Polina Kirichenko, Mark Ibrahim, Kamalika Chaudhuri, Samuel J. Bell
cs.AI

Zusammenfassung

Damit Large Language Models (LLMs) sowohl im Alltag als auch in hochriskanten Bereichen zuverlässig eingesetzt werden können, ist es ebenso entscheidend zu wissen, wann keine Antwort gegeben werden sollte, wie korrekt zu antworten. Reale Benutzeranfragen, die unzureichend spezifiziert, schlecht gestellt oder grundsätzlich unbeantwortbar sein können, erfordern, dass LLMs Unsicherheiten bewerten und selektiv verzichten – das heißt, sich weigern, definitiv zu antworten. Dennoch bleibt das Thema des Verzichts untererforscht, ohne ein systematisches Bewertungsrahmenwerk für moderne LLMs. In dieser Arbeit stellen wir AbstentionBench vor, einen groß angelegten Benchmark zur ganzheitlichen Bewertung des Verzichts über 20 verschiedene Datensätze hinweg, einschließlich Fragen mit unbekannten Antworten, Unzureichender Spezifikation, falschen Prämissen, subjektiven Interpretationen und veralteten Informationen. Die Bewertung von 20 führenden LLMs zeigt, dass das Problem des Verzichts ungelöst ist und dass die Skalierung von Modellen wenig Nutzen bringt. Während neuere Reasoning-LLMs beeindruckende Ergebnisse bei der Lösung komplexer Probleme gezeigt haben, stellen wir überraschenderweise fest, dass Reasoning-Fine-Tuning den Verzicht verschlechtert (im Durchschnitt um 24 %), selbst in mathematischen und naturwissenschaftlichen Bereichen, auf die Reasoning-Modelle explizit trainiert sind. Wir stellen fest, dass ein sorgfältig gestalteter System-Prompt den Verzicht in der Praxis zwar verbessern kann, aber die grundlegende Unfähigkeit der Modelle, Unsicherheiten zu bewerten, nicht behebt. Wir veröffentlichen AbstentionBench, um die Forschung zur Verbesserung der Zuverlässigkeit von LLMs zu fördern.
English
For Large Language Models (LLMs) to be reliably deployed in both everyday and high-stakes domains, knowing when not to answer is equally critical as answering correctly. Real-world user queries, which can be underspecified, ill-posed, or fundamentally unanswerable, require LLMs to reason about uncertainty and selectively abstain -- i.e., refuse to answer definitively. However, abstention remains understudied, without a systematic evaluation framework for modern LLMs. In this work, we introduce AbstentionBench, a large-scale benchmark for holistically evaluating abstention across 20 diverse datasets, including questions with unknown answers, underspecification, false premises, subjective interpretations, and outdated information. Evaluating 20 frontier LLMs reveals abstention is an unsolved problem, and one where scaling models is of little use. While recent reasoning LLMs have shown impressive results in complex problem solving, surprisingly, we find that reasoning fine-tuning degrades abstention (by 24% on average), even for math and science domains on which reasoning models are explicitly trained. We find that while a carefully crafted system prompt can boost abstention in practice, it does not resolve models' fundamental inability to reason about uncertainty. We release AbstentionBench to foster research into advancing LLM reliability.
PDF52June 16, 2025