インコンテクスト編集:自己誘導分布からの知識学習
In-Context Editing: Learning Knowledge from Self-Induced Distributions
June 17, 2024
著者: Siyuan Qi, Bangcheng Yang, Kailin Jiang, Xiaobo Wang, Jiaqi Li, Yifan Zhong, Yaodong Yang, Zilong Zheng
cs.AI
要旨
既存の言語モデルファインチューニングパラダイムは、知識編集シナリオにおいて脆弱性を示します。このシナリオでは、モデルは大規模な再トレーニングなしに新しい情報を取り込む必要があります。この脆弱性は、過学習、性能低下、不自然な言語生成を引き起こすことがよくあります。この問題に対処するため、我々はConsistent In-Context Editing(ICE)という新しいアプローチを提案します。ICEは、モデルの文脈内学習能力を活用し、ワンホットターゲットではなく文脈的分布に向けてチューニングを行います。ICEは、ターゲットと手順の両方を含むシンプルな最適化フレームワークを導入し、勾配ベースのチューニング手法の堅牢性と有効性を向上させます。我々は、知識編集の4つの重要な側面(精度、局所性、汎化性、言語品質)においてICEの分析的な洞察を提供し、その利点を示します。4つのデータセットにわたる実験結果は、ICEの有効性を確認し、更新された情報を組み込みながらモデルの整合性を維持する継続的編集の可能性を示しています。
English
The existing fine-tuning paradigm for language models is brittle in knowledge
editing scenarios, where the model must incorporate new information without
extensive retraining. This brittleness often results in overfitting, reduced
performance, and unnatural language generation. To address this, we propose
Consistent In-Context Editing (ICE), a novel approach that leverages the
model's in-context learning capability to tune toward a contextual distribution
rather than a one-hot target. ICE introduces a straightforward optimization
framework that includes both a target and a procedure, enhancing the robustness
and effectiveness of gradient-based tuning methods. We provide analytical
insights into ICE across four critical aspects of knowledge editing: accuracy,
locality, generalization, and linguistic quality, showing its advantages.
Experimental results across four datasets confirm the effectiveness of ICE and
demonstrate its potential for continual editing, ensuring that updated
information is incorporated while preserving the integrity of the model.Summary
AI-Generated Summary