ChatPaper.aiChatPaper

Larimar: エピソード記憶制御を備えた大規模言語モデル

Larimar: Large Language Models with Episodic Memory Control

March 18, 2024
著者: Payel Das, Subhajit Chaudhury, Elliot Nelson, Igor Melnyk, Sarath Swaminathan, Sihui Dai, Aurélie Lozano, Georgios Kollias, Vijil Chenthamarakshan, Jiří, Navrátil, Soham Dan, Pin-Yu Chen
cs.AI

要旨

大規模言語モデル(LLM)に蓄積された知識の効率的かつ正確な更新は、現在最も喫緊の研究課題の一つである。本論文では、LLMを分散型エピソード記憶で強化する、脳に着想を得た新規アーキテクチャ「Larimar」を提案する。Larimarの記憶機構は、計算コストの高い再学習やファインチューニングを必要とせず、動的なワンショット知識更新を可能にする。複数の事実編集ベンチマークにおける実験結果は、Larimarが最も競争力のあるベースラインと同等の精度を達成するだけでなく、特に逐次編集設定においても優れた性能を示すことを実証している。さらに、提案アーキテクチャはシンプルでLLMに依存しない汎用性を有するため、速度面ではベースLLMに応じて4~10倍の高速化を実現し、柔軟性にも優れている。我々はさらに、Larimarを用いた選択的事実忘却と入力コンテキスト長の一般化のメカニズムを提供し、その有効性を示す。
English
Efficient and accurate updating of knowledge stored in Large Language Models (LLMs) is one of the most pressing research challenges today. This paper presents Larimar - a novel, brain-inspired architecture for enhancing LLMs with a distributed episodic memory. Larimar's memory allows for dynamic, one-shot updates of knowledge without the need for computationally expensive re-training or fine-tuning. Experimental results on multiple fact editing benchmarks demonstrate that Larimar attains accuracy comparable to most competitive baselines, even in the challenging sequential editing setup, but also excels in speed - yielding speed-ups of 4-10x depending on the base LLM - as well as flexibility due to the proposed architecture being simple, LLM-agnostic, and hence general. We further provide mechanisms for selective fact forgetting and input context length generalization with Larimar and show their effectiveness.

Summary

AI-Generated Summary

PDF345December 15, 2024