大規模言語モデルにおけるエネルギー損失
Spilled Energy in Large Language Models
February 21, 2026
著者: Adrian Robert Minut, Hazem Dewidar, Iacopo Masi
cs.AI
要旨
大規模言語モデル(LLM)の最終ソフトマックス分類器をエネルギー基準モデル(EBM)として再解釈し、系列対系列の確率連鎖を推論時に複数の相互作用するEBMへ分解します。この原理に基づくアプローチにより、デコーディング中の「エネルギー流出」を追跡可能にし、これが事実誤認、バイアス、失敗と経験的に関連することを実証します。Orgad et al. (2025) と同様に、本手法は正確な回答トークンを特定した上で幻覚の検証を行います。しかし決定的な違いは、訓練済みのプローブ分類器や活性化除去を必要とせず、出力ロジットから直接導出される2つの完全な訓練不要指標を導入する点にあります。すなわち、連続する生成ステップ間で理論的に一致すべきエネルギー値の不一致を捕捉する「流出エネルギー」と、単一ステップで計測可能な「周辺化エネルギー」です。LLaMA、Mistral、Gemmaなどの最先端LLM、および合成代数演算タスク(Qwen3)を含む9つのベンチマークで評価した結果、本手法は頑健かつ競争力のある幻覚検出能力とタスク横断的な一般化性能を示しました。特に、これらの結果は事前学習モデルと指示チューニングモデルの両方で、一切の訓練オーバーヘッドを導入することなく成立します。コードは github.com/OmnAI-Lab/spilled-energy で公開されています。
English
We reinterpret the final Large Language Model (LLM) softmax classifier as an Energy-Based Model (EBM), decomposing the sequence-to-sequence probability chain into multiple interacting EBMs at inference. This principled approach allows us to track "energy spills" during decoding, which we empirically show correlate with factual errors, biases, and failures. Similar to Orgad et al. (2025), our method localizes the exact answer token and subsequently tests for hallucinations. Crucially, however, we achieve this without requiring trained probe classifiers or activation ablations. Instead, we introduce two completely training-free metrics derived directly from output logits: spilled energy, which captures the discrepancy between energy values across consecutive generation steps that should theoretically match, and marginalized energy, which is measurable at a single step. Evaluated on nine benchmarks across state-of-the-art LLMs (including LLaMA, Mistral, and Gemma) and on synthetic algebraic operations (Qwen3), our approach demonstrates robust, competitive hallucination detection and cross-task generalization. Notably, these results hold for both pretrained and instruction-tuned variants without introducing any training overhead. Code available at: github.com/OmnAI-Lab/spilled-energy