AbstentionBench: Sprachmodelle scheitern bei unbeantwortbaren Fragen
AbstentionBench: Reasoning LLMs Fail on Unanswerable Questions
June 10, 2025
Autoren: Polina Kirichenko, Mark Ibrahim, Kamalika Chaudhuri, Samuel J. Bell
cs.AI
Zusammenfassung
Damit Large Language Models (LLMs) sowohl im Alltag als auch in hochriskanten Bereichen zuverlässig eingesetzt werden können, ist es ebenso entscheidend zu wissen, wann keine Antwort gegeben werden sollte, wie korrekt zu antworten. Reale Benutzeranfragen, die unzureichend spezifiziert, schlecht gestellt oder grundsätzlich unbeantwortbar sein können, erfordern, dass LLMs Unsicherheiten bewerten und selektiv verzichten – das heißt, sich weigern, definitiv zu antworten. Dennoch bleibt das Thema des Verzichts untererforscht, ohne ein systematisches Bewertungsrahmenwerk für moderne LLMs. In dieser Arbeit stellen wir AbstentionBench vor, einen groß angelegten Benchmark zur ganzheitlichen Bewertung des Verzichts über 20 verschiedene Datensätze hinweg, einschließlich Fragen mit unbekannten Antworten, Unzureichender Spezifikation, falschen Prämissen, subjektiven Interpretationen und veralteten Informationen. Die Bewertung von 20 führenden LLMs zeigt, dass das Problem des Verzichts ungelöst ist und dass die Skalierung von Modellen wenig Nutzen bringt. Während neuere Reasoning-LLMs beeindruckende Ergebnisse bei der Lösung komplexer Probleme gezeigt haben, stellen wir überraschenderweise fest, dass Reasoning-Fine-Tuning den Verzicht verschlechtert (im Durchschnitt um 24 %), selbst in mathematischen und naturwissenschaftlichen Bereichen, auf die Reasoning-Modelle explizit trainiert sind. Wir stellen fest, dass ein sorgfältig gestalteter System-Prompt den Verzicht in der Praxis zwar verbessern kann, aber die grundlegende Unfähigkeit der Modelle, Unsicherheiten zu bewerten, nicht behebt. Wir veröffentlichen AbstentionBench, um die Forschung zur Verbesserung der Zuverlässigkeit von LLMs zu fördern.
English
For Large Language Models (LLMs) to be reliably deployed in both everyday and
high-stakes domains, knowing when not to answer is equally critical as
answering correctly. Real-world user queries, which can be underspecified,
ill-posed, or fundamentally unanswerable, require LLMs to reason about
uncertainty and selectively abstain -- i.e., refuse to answer definitively.
However, abstention remains understudied, without a systematic evaluation
framework for modern LLMs. In this work, we introduce AbstentionBench, a
large-scale benchmark for holistically evaluating abstention across 20 diverse
datasets, including questions with unknown answers, underspecification, false
premises, subjective interpretations, and outdated information. Evaluating 20
frontier LLMs reveals abstention is an unsolved problem, and one where scaling
models is of little use. While recent reasoning LLMs have shown impressive
results in complex problem solving, surprisingly, we find that reasoning
fine-tuning degrades abstention (by 24% on average), even for math and
science domains on which reasoning models are explicitly trained. We find that
while a carefully crafted system prompt can boost abstention in practice, it
does not resolve models' fundamental inability to reason about uncertainty. We
release AbstentionBench to foster research into advancing LLM reliability.