ChatPaper.aiChatPaper

SAEベースの表現工学を通じてLLMの知識選択行動を誘導する

Steering Knowledge Selection Behaviours in LLMs via SAE-Based Representation Engineering

October 21, 2024
著者: Yu Zhao, Alessio Devoto, Giwon Hong, Xiaotang Du, Aryo Pradipta Gema, Hongru Wang, Kam-Fai Wong, Pasquale Minervini
cs.AI

要旨

大規模言語モデル(LLMs)は、そのパラメータに膨大な事実知識を格納することができます。しかし、そのパラメータ知識は文脈で提供される情報と矛盾する可能性があります。この現象はコンテキストメモリ知識の衝突として知られており、古い情報や誤った情報への依存など、望ましくないモデルの振る舞いにつながる可能性があります。LLMsの内部活性を分析すると、中間層で知識の衝突の信号を内部的に登録できることがわかります。このような信号により、知識の衝突が発生しているかどうかを検出し、推論時の介入戦略を使用して解決することができます。本研究では、事前学習された疎なオートエンコーダ(SAEs)を使用してLLMsの知識選択挙動を制御するトレーニングフリーの表現エンジニアリング手法であるSpAREを提案しています。SpAREは、知識選択挙動を制御する機能的特徴を特定し、それらを適用して推論時にLLMsの内部活性を編集します。実験結果によると、SpAREはオープンドメインの質問応答タスクにおいて知識の衝突を解決するためにどちらの知識ソースの使用を効果的に制御でき、既存の表現エンジニアリング手法(+10%)やコントラストデコーディング手法(+15%)を上回ることが示されました。
English
Large language models (LLMs) can store a significant amount of factual knowledge in their parameters. However, their parametric knowledge may conflict with the information provided in the context -- this phenomenon, known as context-memory knowledge conflicts, can lead to undesirable model behaviour, such as reliance on outdated or incorrect information. Analysing the internal activations of LLMs, we find that they can internally register the signals of knowledge conflict at mid-layers. Such signals allow us to detect whether a knowledge conflict occurs and use inference-time intervention strategies to resolve it. In this work, we propose SpARE, a training-free representation engineering method that uses pre-trained sparse auto-encoders (SAEs) to control the knowledge selection behaviour of LLMs. SpARE identifies the functional features that control the knowledge selection behaviours and applies them to edit the internal activations of LLMs at inference time. Our experimental results show that SpARE can effectively control the usage of either knowledge source to resolve knowledge conflict in open-domain question-answering tasks, surpassing existing representation engineering methods (+10%) as well as contrastive decoding methods (+15%).

Summary

AI-Generated Summary

PDF203November 16, 2024