REFLEX: Zelfverfijnende verklaarbare feitencontrole door waarheid te ontwarren in stijl en inhoud
REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance
November 25, 2025
Auteurs: Chuyi Kong, Gao Wei, Jing Ma, Hongzhan Lin, Yaxin Fan
cs.AI
Samenvatting
De verspreiding van desinformatie op sociale media vormt een bedreiging voor het publieke vertrouwen, wat de behoefte aan geautomatiseerde feitencontrolesystemen vergroot die accurate uitspraken kunnen geven met interpreteerbare verklaringen. Bestaande methoden gebaseerd op grote taalmmodellen (LLM's) zijn echter vaak sterk afhankelijk van externe kennisbronnen, wat aanzienlijke vertraging en zelfs hallucinaties introduceert. Dit ondermijnt de betrouwbaarheid, interpreteerbaarheid en reactiesnelheid, wat cruciaal is voor real-time gebruik. Om deze uitdagingen aan te pakken, stellen wij het REason-guided Fact-checking with Latent EXplanations (REFLEX) paradigma voor: een plug-and-play, zelfverfijnend paradigma dat gebruikmaakt van de interne kennis in het basismodel om zowel de nauwkeurigheid van de uitspraak als de kwaliteit van de verklaring te verbeteren. REFLEX herformuleert feitencontrole als een rollenspel-dialoog en traint de voorspelling van de uitspraak en de generatie van de verklaring gezamenlijk. Het extraheert adaptief contrastieve activatieparen tussen het basismodel en zijn gefinetunede variant om stuurvectoren te construeren die waarheid op een natuurlijke manier ontwarren in stijl en substantie. Deze signaalniveau-signalen sturen de inferentie en onderdrukken ruis in verklaringen, wat een betrouwbaardere en efficiëntere redenering mogelijk maakt. Experimenten op real-world datasets tonen aan dat REFLEX eerdere methoden die sturen naar een enkele waarheidsrichting overtreft, en benadrukt de uitdaging die traditionele benaderingen hebben bij het verwerken van de subtiele, mens-onbekende waarheid in feitencontroletaken. Opmerkelijk is dat REFLEX, met slechts 465 zelfverfijnde trainingsvoorbeelden, state-of-the-art prestaties bereikt. Bovendien kunnen modellen die met verklaringsdoelstellingen zijn getraind, effectief modellen zonder dergelijke doelstellingen sturen, wat een verbetering tot 7,57% oplevert. Dit onderstreept dat interne verklaringssignalen een dubbele rol spelen in zowel het interpreteren als het verbeteren van feitelijke redenering.
English
The prevalence of misinformation on social media threatens public trust, demanding automated fact-checking systems that provide accurate verdicts with interpretable explanations. However, existing large language model-based (LLM-based) approaches often rely heavily on external knowledge sources, introducing substantial latency and even hallucinations that undermine reliability, interpretability, and responsiveness, which is crucial for real-time use. To address these challenges, we propose REason-guided Fact-checking with Latent EXplanations REFLEX paradigm, a plug-and-play, self-refining paradigm that leverages the internal knowledge in backbone model to improve both verdict accuracy and explanation quality. REFLEX reformulates fact-checking as a role-play dialogue and jointly trains verdict prediction and explanation generation. It adaptively extracts contrastive activation pairs between the backbone model and its fine-tuned variant to construct steering vectors that disentangle truth into style and substance naturally. These activation-level signals guide inference and suppress noisy explanations, enabling more faithful and efficient reasoning. Experiments on real-world datasets show that REFLEX outperforms previous methods that steer toward a single truth direction and underscores the challenge traditional approaches face when handling the subtle, human-unknown truth in fact-checking tasks. Remarkably, with only 465 self-refined training samples, RELFEX achieves state-of-the-art performance. Furthermore, models trained with explanatory objectives can effectively guide those without them, yielding up to a 7.57% improvement, highlighting that internal explanation signals play a dual role in both interpreting and enhancing factual reasoning.