ChatPaper.aiChatPaper

Kunnen LLM's hun eigen fouten voorspellen? Zelfbewustzijn via interne circuits

Can LLMs Predict Their Own Failures? Self-Awareness via Internal Circuits

December 23, 2025
Auteurs: Amirhosein Ghasemabadi, Di Niu
cs.AI

Samenvatting

Grote taalmodellen (LLM's) genereren vloeiende en complexe uitvoer, maar slagen er vaak niet in hun eigen fouten en hallucinaties te herkennen. Bestaande benaderingen maken meestal gebruik van externe beoordelaars, consistentie over meerdere steekproeven of op tekst gebaseerde zelfkritiek, wat extra rekenkracht vereist of slechts zwak correleert met daadwerkelijke correctheid. Wij vragen: kunnen LLM's hun eigen mislukkingen voorspellen door tijdens de inferentie naar interne toestanden te kijken? Wij introduceren Gnosis, een lichtgewicht zelfbewustzijnsmechanisme dat bevroren LLM's in staat stelt intrinsieke zelfverificatie uit te voeren door signalen uit verborgen toestanden en aandachtspatronen te decoderen. Gnosis observeert passief interne sporen, comprimeert deze naar descriptoren met een vast budget en voorspelt correctheid met verwaarloosbare inferentiekosten, door slechts ~5M parameters toe te voegen en onafhankelijk van de sequentielengte te werken. Over benchmarks voor wiskundig redeneren, open-domein vraag-antwoordtaken en academische kennis, en over bevroren backbones variërend van 1,7B tot 20B parameters, presteert Gnosis consistent beter dan sterke interne baseline-methoden en grote externe beoordelaars in zowel nauwkeurigheid als calibratie. Bovendien generaliseert het zero-shot naar partiële generaties, wat vroege detectie van mislukkende trajecten en rekenbewuste controle mogelijk maakt. Deze resultaten tonen aan dat betrouwbare correctheidssignalen intrinsiek zijn aan het generatieproces en efficiënt kunnen worden geëxtraheerd zonder externe supervisie.
English
Large language models (LLMs) generate fluent and complex outputs but often fail to recognize their own mistakes and hallucinations. Existing approaches typically rely on external judges, multi-sample consistency, or text-based self-critique, which incur additional compute or correlate weakly with true correctness. We ask: can LLMs predict their own failures by inspecting internal states during inference? We introduce Gnosis, a lightweight self-awareness mechanism that enables frozen LLMs to perform intrinsic self-verification by decoding signals from hidden states and attention patterns. Gnosis passively observes internal traces, compresses them into fixed-budget descriptors, and predicts correctness with negligible inference cost, adding only ~5M parameters and operating independently of sequence length. Across math reasoning, open-domain question answering, and academic knowledge benchmarks, and over frozen backbones ranging from 1.7B to 20B parameters, Gnosis consistently outperforms strong internal baselines and large external judges in both accuracy and calibration. Moreover, it generalizes zero-shot to partial generations, enabling early detection of failing trajectories and compute-aware control. These results show that reliable correctness cues are intrinsic to generation process and can be extracted efficiently without external supervision.
PDF462January 7, 2026