DoLa: Декодирование через контрастирование слоев улучшает фактическую точность в больших языковых моделях
DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models
September 7, 2023
Авторы: Yung-Sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, Pengcheng He
cs.AI
Аннотация
Несмотря на их впечатляющие возможности, крупные языковые модели (LLM) склонны к галлюцинациям, то есть к генерации контента, который отклоняется от фактов, наблюдаемых в процессе предварительного обучения. Мы предлагаем простую стратегию декодирования для уменьшения галлюцинаций в предварительно обученных LLM, которая не требует использования внешних знаний, полученных из поиска, или дополнительной тонкой настройки. Наш подход получает распределение следующего токена, сравнивая различия в логитах, полученных путем проекции более поздних слоев по сравнению с более ранними слоями в пространство словаря, используя тот факт, что фактические знания в LLM, как правило, локализованы в определенных слоях трансформера. Мы обнаруживаем, что этот подход Decoding by Contrasting Layers (DoLa) позволяет лучше выявлять фактические знания и уменьшать генерацию неверных фактов. DoLa последовательно улучшает правдивость в задачах с множественным выбором и задачах открытой генерации, например, повышая производительность моделей семейства LLaMA на TruthfulQA на 12-17% абсолютных пунктов, демонстрируя свой потенциал в обеспечении надежной генерации правдивых фактов LLM.
English
Despite their impressive capabilities, large language models (LLMs) are prone
to hallucinations, i.e., generating content that deviates from facts seen
during pretraining. We propose a simple decoding strategy for reducing
hallucinations with pretrained LLMs that does not require conditioning on
retrieved external knowledge nor additional fine-tuning. Our approach obtains
the next-token distribution by contrasting the differences in logits obtained
from projecting the later layers versus earlier layers to the vocabulary space,
exploiting the fact that factual knowledge in an LLMs has generally been shown
to be localized to particular transformer layers. We find that this Decoding by
Contrasting Layers (DoLa) approach is able to better surface factual knowledge
and reduce the generation of incorrect facts. DoLa consistently improves the
truthfulness across multiple choices tasks and open-ended generation tasks, for
example improving the performance of LLaMA family models on TruthfulQA by
12-17% absolute points, demonstrating its potential in making LLMs reliably
generate truthful facts.