ChatPaper.aiChatPaper

AbstentionBench: Ошибки языковых моделей при обработке неразрешимых вопросов

AbstentionBench: Reasoning LLMs Fail on Unanswerable Questions

June 10, 2025
Авторы: Polina Kirichenko, Mark Ibrahim, Kamalika Chaudhuri, Samuel J. Bell
cs.AI

Аннотация

Для надежного развертывания крупных языковых моделей (LLM) как в повседневных, так и в критически важных областях, умение определить, когда не отвечать, столь же важно, как и способность давать правильные ответы. Реальные запросы пользователей, которые могут быть неполными, некорректно сформулированными или принципиально неразрешимыми, требуют от LLM способности рассуждать о неопределенности и избирательно воздерживаться от ответа — то есть отказываться давать окончательный ответ. Однако проблема воздержания остается недостаточно изученной, и для современных LLM отсутствует систематическая структура оценки. В данной работе мы представляем AbstentionBench — масштабный бенчмарк для комплексной оценки воздержания на основе 20 разнообразных наборов данных, включающих вопросы с неизвестными ответами, неполными условиями, ложными предпосылками, субъективными интерпретациями и устаревшей информацией. Оценка 20 передовых LLM показывает, что проблема воздержания остается нерешенной, и масштабирование моделей мало помогает в ее решении. Хотя недавние модели, ориентированные на рассуждения, продемонстрировали впечатляющие результаты в решении сложных задач, удивительно, что мы обнаружили, что тонкая настройка на рассуждения ухудшает способность к воздержанию (в среднем на 24%), даже в областях математики и естественных наук, на которых такие модели явно обучались. Мы также выяснили, что хотя тщательно разработанный системный запрос может улучшить воздержание на практике, он не устраняет фундаментальную неспособность моделей рассуждать о неопределенности. Мы публикуем AbstentionBench для стимулирования исследований, направленных на повышение надежности LLM.
English
For Large Language Models (LLMs) to be reliably deployed in both everyday and high-stakes domains, knowing when not to answer is equally critical as answering correctly. Real-world user queries, which can be underspecified, ill-posed, or fundamentally unanswerable, require LLMs to reason about uncertainty and selectively abstain -- i.e., refuse to answer definitively. However, abstention remains understudied, without a systematic evaluation framework for modern LLMs. In this work, we introduce AbstentionBench, a large-scale benchmark for holistically evaluating abstention across 20 diverse datasets, including questions with unknown answers, underspecification, false premises, subjective interpretations, and outdated information. Evaluating 20 frontier LLMs reveals abstention is an unsolved problem, and one where scaling models is of little use. While recent reasoning LLMs have shown impressive results in complex problem solving, surprisingly, we find that reasoning fine-tuning degrades abstention (by 24% on average), even for math and science domains on which reasoning models are explicitly trained. We find that while a carefully crafted system prompt can boost abstention in practice, it does not resolve models' fundamental inability to reason about uncertainty. We release AbstentionBench to foster research into advancing LLM reliability.
PDF52June 16, 2025