ChatPaper.aiChatPaper

CodeCircuit: Zur Ableitung der Korrektheit von LLM-generiertem Code durch Attributionsgraphen

CodeCircuit: Toward Inferring LLM-Generated Code Correctness via Attribution Graphs

February 6, 2026
papers.authors: Yicheng He, Zheng Zhao, Zhou Kaiyu, Bryan Dai, Jie Fu, Yonghui Yang
cs.AI

papers.abstract

Aktuelle Paradigmen zur Code-Verifikation stützen sich stark auf externe Mechanismen – wie ausführungsbasierte Unit-Tests oder zusätzliche LLM-Prüfer –, die oft arbeitsintensiv sind oder durch die Fähigkeiten des bewertenden Modells selbst begrenzt werden. Dies wirft eine grundlegende, aber bisher unerforschte Frage auf: Kann die funktionale Korrektheit eines LLMs ausschließlich anhand seiner internen Rechenstruktur bewertet werden? Unser Hauptziel ist es zu untersuchen, ob die neuronalen Dynamiken des Modells intern decodierbare Signale kodieren, die die logische Validität während der Code-Generierung vorhersagbar machen. Inspiriert von mechanistischer Interpretierbarkeit schlagen wir vor, Code-Verifikation als eine mechanistische Diagnoseaufgabe zu behandeln, bei der die explizite algorithmische Trajektorie des Modells in zeilenbezogene Attributionsgraphen abgebildet wird. Durch die Zerlegung komplexer Residualflüsse zielen wir darauf ab, die strukturellen Signaturen zu identifizieren, die solide Argumentation von logischem Versagen innerhalb der internen Schaltkreise des Modells unterscheiden. Analysen in Python, C++ und Java bestätigen, dass intrinsische Korrektheitssignale über verschiedene Syntaxen hinweg robust sind. Topologische Merkmale dieser internen Graphen sagen Korrektheit verlässlicher vorher als oberflächliche Heuristiken und ermöglichen gezielte kausale Interventionen, um fehlerhafte Logik zu korrigieren. Diese Ergebnisse etablieren interne Introspektion als eine decodierbare Eigenschaft zur Verifikation von generiertem Code. Unser Code ist unter https://github.com/bruno686/CodeCircuit verfügbar.
English
Current paradigms for code verification rely heavily on external mechanisms-such as execution-based unit tests or auxiliary LLM judges-which are often labor-intensive or limited by the judging model's own capabilities. This raises a fundamental, yet unexplored question: Can an LLM's functional correctness be assessed purely from its internal computational structure? Our primary objective is to investigate whether the model's neural dynamics encode internally decodable signals that are predictive of logical validity during code generation. Inspired by mechanistic interpretability, we propose to treat code verification as a mechanistic diagnostic task, mapping the model's explicit algorithmic trajectory into line-level attribution graphs. By decomposing complex residual flows, we aim to identify the structural signatures that distinguish sound reasoning from logical failure within the model's internal circuits. Analysis across Python, C++, and Java confirms that intrinsic correctness signals are robust across diverse syntaxes. Topological features from these internal graphs predict correctness more reliably than surface heuristics and enable targeted causal interventions to fix erroneous logic. These findings establish internal introspection as a decodable property for verifying generated code. Our code is at https:// github.com/bruno686/CodeCircuit.
PDF62February 11, 2026