もし前提を除去できるならば:前提を含まない質問分解による主張の堅牢な検証
If We May De-Presuppose: Robustly Verifying Claims through Presupposition-Free Question Decomposition
August 22, 2025
著者: Shubhashis Roy Dipta, Francis Ferraro
cs.AI
要旨
先行研究では、生成された質問における前提が未検証の仮定を導入し、主張検証における不整合を引き起こすことが示されています。さらに、プロンプトに対する感応性は大規模言語モデル(LLM)にとって重要な課題であり、その性能変動は3-6%にも及ぶことが報告されています。最近の進歩によりこのギャップは縮小されつつありますが、本研究ではプロンプト感応性が依然として持続的な問題であることを実証しています。この課題に対処するため、我々は前提を含まない分解された質問を通じて推論を行う、構造化された堅牢な主張検証フレームワークを提案します。複数のプロンプト、データセット、LLMにわたる広範な実験により、最先端のモデルでさえプロンプト変動と前提の影響を受けやすいことが明らかになりました。我々の手法はこれらの問題を一貫して軽減し、最大2-5%の改善を達成しています。
English
Prior work has shown that presupposition in generated questions can introduce
unverified assumptions, leading to inconsistencies in claim verification.
Additionally, prompt sensitivity remains a significant challenge for large
language models (LLMs), resulting in performance variance as high as 3-6%.
While recent advancements have reduced this gap, our study demonstrates that
prompt sensitivity remains a persistent issue. To address this, we propose a
structured and robust claim verification framework that reasons through
presupposition-free, decomposed questions. Extensive experiments across
multiple prompts, datasets, and LLMs reveal that even state-of-the-art models
remain susceptible to prompt variance and presupposition. Our method
consistently mitigates these issues, achieving up to a 2-5% improvement.