ChatPaper.aiChatPaper

DoLa: Decoderen door Lagen te Vergelijken Verbeterd de Feitelijkheid in Grote Taalmodellen

DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models

September 7, 2023
Auteurs: Yung-Sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, Pengcheng He
cs.AI

Samenvatting

Ondanks hun indrukwekkende capaciteiten zijn grote taalmodelen (LLM's) gevoelig voor hallucinaties, oftewel het genereren van inhoud die afwijkt van feiten die tijdens de voorafgaande training zijn gezien. Wij stellen een eenvoudige decodeerstrategie voor om hallucinaties te verminderen bij vooraf getrainde LLM's, zonder dat hiervoor conditionering op opgehaalde externe kennis of aanvullende fine-tuning nodig is. Onze benadering verkrijgt de verdeling van het volgende token door de verschillen in logits te contrasteren die worden verkregen door de latere lagen versus de eerdere lagen te projecteren naar de vocabulaire-ruimte, waarbij wordt gebruikgemaakt van het feit dat feitelijke kennis in een LLM over het algemeen gelokaliseerd is in specifieke transformer-lagen. Wij ontdekken dat deze Decoding by Contrasting Layers (DoLa)-benadering beter in staat is om feitelijke kennis naar voren te brengen en de generatie van onjuiste feiten te verminderen. DoLa verbetert consistent de waarheidsgetrouwheid bij meerkeuzetaken en open-eind-generatietaken, bijvoorbeeld door de prestaties van LLaMA-familie-modellen op TruthfulQA met 12-17% absolute punten te verbeteren, wat het potentieel aantoont om LLM's betrouwbaar waarheidsgetrouwe feiten te laten genereren.
English
Despite their impressive capabilities, large language models (LLMs) are prone to hallucinations, i.e., generating content that deviates from facts seen during pretraining. We propose a simple decoding strategy for reducing hallucinations with pretrained LLMs that does not require conditioning on retrieved external knowledge nor additional fine-tuning. Our approach obtains the next-token distribution by contrasting the differences in logits obtained from projecting the later layers versus earlier layers to the vocabulary space, exploiting the fact that factual knowledge in an LLMs has generally been shown to be localized to particular transformer layers. We find that this Decoding by Contrasting Layers (DoLa) approach is able to better surface factual knowledge and reduce the generation of incorrect facts. DoLa consistently improves the truthfulness across multiple choices tasks and open-ended generation tasks, for example improving the performance of LLaMA family models on TruthfulQA by 12-17% absolute points, demonstrating its potential in making LLMs reliably generate truthful facts.
PDF354December 15, 2024