Si podemos prescindir de las presuposiciones: Verificación robusta de afirmaciones mediante la descomposición de preguntas sin presuposiciones
If We May De-Presuppose: Robustly Verifying Claims through Presupposition-Free Question Decomposition
August 22, 2025
Autores: Shubhashis Roy Dipta, Francis Ferraro
cs.AI
Resumen
Trabajos previos han demostrado que la presuposición en preguntas generadas puede introducir suposiciones no verificadas, lo que lleva a inconsistencias en la verificación de afirmaciones. Además, la sensibilidad a los prompts sigue siendo un desafío significativo para los modelos de lenguaje de gran escala (LLMs), resultando en una variación de rendimiento de hasta un 3-6%. Aunque avances recientes han reducido esta brecha, nuestro estudio demuestra que la sensibilidad a los prompts sigue siendo un problema persistente. Para abordar esto, proponemos un marco estructurado y robusto para la verificación de afirmaciones que razona a través de preguntas descompuestas y libres de presuposición. Experimentos exhaustivos en múltiples prompts, conjuntos de datos y LLMs revelan que incluso los modelos más avanzados siguen siendo susceptibles a la variación de prompts y a la presuposición. Nuestro método mitiga consistentemente estos problemas, logrando una mejora de hasta un 2-5%.
English
Prior work has shown that presupposition in generated questions can introduce
unverified assumptions, leading to inconsistencies in claim verification.
Additionally, prompt sensitivity remains a significant challenge for large
language models (LLMs), resulting in performance variance as high as 3-6%.
While recent advancements have reduced this gap, our study demonstrates that
prompt sensitivity remains a persistent issue. To address this, we propose a
structured and robust claim verification framework that reasons through
presupposition-free, decomposed questions. Extensive experiments across
multiple prompts, datasets, and LLMs reveal that even state-of-the-art models
remain susceptible to prompt variance and presupposition. Our method
consistently mitigates these issues, achieving up to a 2-5% improvement.