ChatPaper.aiChatPaper

LayerCake: Decodifica Contrastiva Consapevole dei Token tra i Livelli dei Modelli Linguistici di Grande Dimensione

LayerCake: Token-Aware Contrastive Decoding within Large Language Model Layers

July 6, 2025
Autori: Jingze Zhu, Yongliang Wu, Wenbo Zhu, Jiawang Cao, Yanqiang Zheng, Jiawei Chen, Xu Yang, Bernt Schiele, Jonas Fischer, Xinting Hu
cs.AI

Abstract

I grandi modelli linguistici (LLM) eccellono nella comprensione e generazione del linguaggio naturale, ma rimangono vulnerabili a errori fattuali, limitando la loro affidabilità in compiti ad alta intensità di conoscenza. Sebbene le strategie di decodifica in fase di inferenza offrano una soluzione efficiente e promettente senza necessità di addestramento, i metodi esistenti trattano tipicamente i segnali a livello di token e di strato in modo isolato, trascurando la dinamica congiunta tra di essi. In questo lavoro, introduciamo un metodo di decodifica contrastiva consapevole dei token e localizzato a livello di strato, che allinea specifici tipi di token con gli strati del trasformatore che li influenzano maggiormente, al fine di migliorare la generazione di contenuti fattuali. Attraverso un'analisi empirica dell'attenzione, identifichiamo due pattern chiave: i token di punteggiatura ricevono un'attenzione dominante negli strati iniziali, mentre i token concettuali governano il ragionamento semantico negli strati intermedi. Sopprimendo selettivamente l'attenzione a questi tipi di token alle rispettive profondità, otteniamo l'induzione di una degradazione fattuale controllata e deriviamo segnali contrastivi per guidare la decodifica fattuale finale. Il nostro metodo non richiede ulteriore addestramento o modifiche al modello, e gli esperimenti dimostrano che il metodo migliora costantemente la fattualità su più LLM e vari benchmark.
English
Large language models (LLMs) excel at natural language understanding and generation but remain vulnerable to factual errors, limiting their reliability in knowledge-intensive tasks. While decoding-time strategies provide a promising efficient solution without training, existing methods typically treat token-level and layer-level signals in isolation, overlooking the joint dynamics between them. In this work, we introduce a token-aware, layer-localized contrastive decoding method that aligns specific token types with their most influential transformer layers to improve factual generation. Through empirical attention analysis, we identify two key patterns: punctuation tokens receive dominant attention in early layers, while conceptual tokens govern semantic reasoning in intermediate layers. By selectively suppressing attention to these token types at their respective depths, we achieve the induction of controlled factual degradation and derive contrastive signals to guide the final factual decoding. Our method requires no additional training or model modification, and experiments demonstrate that our method consistently improves factuality across multiple LLMs and various benchmarks.
PDF201July 15, 2025