ChatPaper.aiChatPaper

Können LLMs ihre eigenen Fehler vorhersagen? Selbstwahrnehmung durch interne Schaltkreise

Can LLMs Predict Their Own Failures? Self-Awareness via Internal Circuits

December 23, 2025
papers.authors: Amirhosein Ghasemabadi, Di Niu
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) erzeugen flüssige und komplexe Ausgaben, erkennen jedoch häufig ihre eigenen Fehler und Halluzinationen nicht. Bestehende Ansätze greifen typischerweise auf externe Bewertungen, Mehrfachstichproben-Konsistenz oder textbasierte Selbstkritik zurück, die zusätzliche Rechenleistung erfordern oder schwach mit der tatsächlichen Korrektheit korrelieren. Wir fragen: Können LLMs ihre eigenen Fehler vorhersagen, indem sie interne Zustände während des Inferenzvorgangs untersuchen? Wir stellen Gnosis vor, einen leichten Selbstbewusstseinsmechanismus, der eingefrorenen LLMs ermöglicht, intrinsische Selbstverifikation durchzuführen, indem Signale aus verborgenen Zuständen und Aufmerksamkeitsmustern decodiert werden. Gnosis beobachtet passive interne Spuren, komprimiert sie in Deskriptoren mit festem Budget und sagt die Korrektheit mit vernachlässigbarem Inferenzaufwand voraus, wobei nur ~5M Parameter hinzugefügt werden und unabhängig von der Sequenzlänge gearbeitet wird. Über mathematische Reasoning-Aufgaben, Open-Domain-Fragebeantwortung und akademische Wissensbenchmarks hinweg sowie über eingefrorene Architekturen von 1,7B bis 20B Parametern hinweg übertrifft Gnosis konsistent starke interne Baselines und große externe Bewertungen sowohl in Genauigkeit als auch Kalibrierung. Darüber hinaus verallgemeinert es Zero-Shot auf partielle Generierungen, was eine frühzeitige Erkennung fehlschlagender Trajektorien und rechenbewusste Steuerung ermöglicht. Diese Ergebnisse zeigen, dass zuverlässige Korrektheitshinweise dem Generierungsprozess inhärent sind und effizient ohne externe Überwachung extrahiert werden können.
English
Large language models (LLMs) generate fluent and complex outputs but often fail to recognize their own mistakes and hallucinations. Existing approaches typically rely on external judges, multi-sample consistency, or text-based self-critique, which incur additional compute or correlate weakly with true correctness. We ask: can LLMs predict their own failures by inspecting internal states during inference? We introduce Gnosis, a lightweight self-awareness mechanism that enables frozen LLMs to perform intrinsic self-verification by decoding signals from hidden states and attention patterns. Gnosis passively observes internal traces, compresses them into fixed-budget descriptors, and predicts correctness with negligible inference cost, adding only ~5M parameters and operating independently of sequence length. Across math reasoning, open-domain question answering, and academic knowledge benchmarks, and over frozen backbones ranging from 1.7B to 20B parameters, Gnosis consistently outperforms strong internal baselines and large external judges in both accuracy and calibration. Moreover, it generalizes zero-shot to partial generations, enabling early detection of failing trajectories and compute-aware control. These results show that reliable correctness cues are intrinsic to generation process and can be extracted efficiently without external supervision.
PDF462January 7, 2026