ChatPaper.aiChatPaper

Erklärung der Unsicherheitsquellen in der automatisierten Faktenprüfung

Explaining Sources of Uncertainty in Automated Fact-Checking

May 23, 2025
Autoren: Jingyi Sun, Greta Warren, Irina Shklovski, Isabelle Augenstein
cs.AI

Zusammenfassung

Das Verständnis der Quellen der Unsicherheit eines Modells in Bezug auf seine Vorhersagen ist entscheidend für eine effektive Mensch-KI-Zusammenarbeit. Bisherige Arbeiten schlagen die Verwendung von numerischer Unsicherheit oder Abschwächungen („Ich bin mir nicht sicher, aber ...“) vor, die jedoch keine Erklärungen für Unsicherheiten liefern, die aus widersprüchlichen Beweisen resultieren, wodurch Nutzer nicht in der Lage sind, Meinungsverschiedenheiten zu klären oder sich auf die Ausgabe zu verlassen. Wir stellen CLUE (Conflict-and-Agreement-aware Language-model Uncertainty Explanations) vor, das erste Framework, das natürliche Spracherklärungen der Modellunsicherheit generiert, indem es (i) Beziehungen zwischen Textabschnitten identifiziert, die Behauptungs-Beweis- oder Beweis-Beweis-Konflikte und Übereinstimmungen aufdecken, die die Vorhersageunsicherheit des Modells auf unüberwachte Weise antreiben, und (ii) Erklärungen durch Prompting und Attention Steering erzeugt, die diese kritischen Interaktionen verbalisieren. Über drei Sprachmodelle und zwei Faktenprüfungsdatensätze hinweg zeigen wir, dass CLUE Erklärungen liefert, die treuer zur Unsicherheit des Modells und konsistenter mit Faktenprüfungsentscheidungen sind als das Anfordern von Unsicherheitserklärungen ohne Anleitung zur Textabschnittsinteraktion. Menschliche Bewerter beurteilen unsere Erklärungen als hilfreicher, informativer, weniger redundant und logisch konsistenter mit der Eingabe als diesen Basisansatz. CLUE erfordert kein Fine-Tuning oder architektonische Änderungen, was es zu einem Plug-and-Play-Tool für jedes White-Box-Sprachmodell macht. Durch die explizite Verknüpfung von Unsicherheit mit Beweiskonflikten bietet es praktische Unterstützung für die Faktenprüfung und lässt sich leicht auf andere Aufgaben übertragen, die das Schlussfolgern über komplexe Informationen erfordern.
English
Understanding sources of a model's uncertainty regarding its predictions is crucial for effective human-AI collaboration. Prior work proposes using numerical uncertainty or hedges ("I'm not sure, but ..."), which do not explain uncertainty that arises from conflicting evidence, leaving users unable to resolve disagreements or rely on the output. We introduce CLUE (Conflict-and-Agreement-aware Language-model Uncertainty Explanations), the first framework to generate natural language explanations of model uncertainty by (i) identifying relationships between spans of text that expose claim-evidence or inter-evidence conflicts and agreements that drive the model's predictive uncertainty in an unsupervised way, and (ii) generating explanations via prompting and attention steering that verbalize these critical interactions. Across three language models and two fact-checking datasets, we show that CLUE produces explanations that are more faithful to the model's uncertainty and more consistent with fact-checking decisions than prompting for uncertainty explanations without span-interaction guidance. Human evaluators judge our explanations to be more helpful, more informative, less redundant, and more logically consistent with the input than this baseline. CLUE requires no fine-tuning or architectural changes, making it plug-and-play for any white-box language model. By explicitly linking uncertainty to evidence conflicts, it offers practical support for fact-checking and generalises readily to other tasks that require reasoning over complex information.

Summary

AI-Generated Summary

PDF11May 28, 2025