ChatPaper.aiChatPaper

REFLEX: Verificación de Hechos Explicable y Autopulida mediante la Separación de la Verdad en Estilo y Sustancia

REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance

November 25, 2025
Autores: Chuyi Kong, Gao Wei, Jing Ma, Hongzhan Lin, Yaxin Fan
cs.AI

Resumen

La prevalencia de la desinformación en las redes sociales amenaza la confianza pública, exigiendo sistemas automatizados de verificación de hechos que proporcionen veredictos precisos con explicaciones interpretables. Sin embargo, los enfoques existentes basados en modelos de lenguaje extenso (LLM) a menudo dependen en gran medida de fuentes de conocimiento externas, introduciendo una latencia sustancial e incluso alucinaciones que socavan la fiabilidad, interpretabilidad y capacidad de respuesta, cruciales para su uso en tiempo real. Para abordar estos desafíos, proponemos el paradigma REFLEX (REason-guided Fact-checking with Latent EXplanations), un paradigma plug-and-play y de auto-refinamiento que aprovecha el conocimiento interno del modelo base para mejorar tanto la precisión del veredicto como la calidad de la explicación. REFLEX reformula la verificación de hechos como un diálogo de juego de roles y entrena conjuntamente la predicción del veredicto y la generación de explicaciones. Extrae adaptativamente pares de activación contrastivos entre el modelo base y su variante ajustada para construir vectores de direccionamiento que desentrañan la verdad en estilo y sustancia de forma natural. Estas señales a nivel de activación guían la inferencia y suprimen explicaciones ruidosas, permitiendo un razonamiento más fiel y eficiente. Los experimentos en conjuntos de datos del mundo real muestran que REFLEX supera a métodos anteriores que se dirigen hacia una única dirección de verdad y subrayan el desafío que los enfoques tradicionales enfrentan al manejar la verdad sutil y desconocida para los humanos en las tareas de verificación de hechos. Notablemente, con solo 465 muestras de entrenamiento auto-refinadas, REFLEX logra un rendimiento de vanguardia. Además, los modelos entrenados con objetivos explicativos pueden guiar efectivamente a aquellos sin ellos, logrando una mejora de hasta el 7,57%, destacando que las señales explicativas internas juegan un doble papel tanto en la interpretación como en la mejora del razonamiento factual.
English
The prevalence of misinformation on social media threatens public trust, demanding automated fact-checking systems that provide accurate verdicts with interpretable explanations. However, existing large language model-based (LLM-based) approaches often rely heavily on external knowledge sources, introducing substantial latency and even hallucinations that undermine reliability, interpretability, and responsiveness, which is crucial for real-time use. To address these challenges, we propose REason-guided Fact-checking with Latent EXplanations REFLEX paradigm, a plug-and-play, self-refining paradigm that leverages the internal knowledge in backbone model to improve both verdict accuracy and explanation quality. REFLEX reformulates fact-checking as a role-play dialogue and jointly trains verdict prediction and explanation generation. It adaptively extracts contrastive activation pairs between the backbone model and its fine-tuned variant to construct steering vectors that disentangle truth into style and substance naturally. These activation-level signals guide inference and suppress noisy explanations, enabling more faithful and efficient reasoning. Experiments on real-world datasets show that REFLEX outperforms previous methods that steer toward a single truth direction and underscores the challenge traditional approaches face when handling the subtle, human-unknown truth in fact-checking tasks. Remarkably, with only 465 self-refined training samples, RELFEX achieves state-of-the-art performance. Furthermore, models trained with explanatory objectives can effectively guide those without them, yielding up to a 7.57% improvement, highlighting that internal explanation signals play a dual role in both interpreting and enhancing factual reasoning.
PDF01December 6, 2025