Menschengleiches episodisches Gedächtnis für LLMs mit unendlichem Kontext
Human-like Episodic Memory for Infinite Context LLMs
July 12, 2024
Autoren: Zafeirios Fountas, Martin A Benfeghoul, Adnan Oomerjee, Fenia Christopoulou, Gerasimos Lampouras, Haitham Bou-Ammar, Jun Wang
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten gezeigt, kämpfen jedoch immer noch mit der Verarbeitung umfangreicher Kontexte, was ihre Fähigkeit zur Aufrechterhaltung von Kohärenz und Genauigkeit über lange Sequenzen hinweg einschränkt. Im Gegensatz dazu zeichnet sich das menschliche Gehirn durch die Organisation und den Abruf episodischer Erfahrungen über enorme zeitliche Skalen aus, die ein ganzes Leben umspannen. In dieser Arbeit stellen wir EM-LLM vor, einen neuartigen Ansatz, der wesentliche Aspekte des menschlichen episodischen Gedächtnisses und der Ereigniskognition in LLMs integriert und ihnen ermöglicht, praktisch unendliche Kontextlängen effektiv zu verarbeiten, während die Rechenleistung erhalten bleibt. EM-LLM organisiert Tokensequenzen in kohärente episodische Ereignisse mithilfe einer Kombination aus bayesianischer Überraschung und graphentheoretischer Grenzverfeinerung in Echtzeit. Bei Bedarf werden diese Ereignisse durch einen zweistufigen Speicherprozess abgerufen, der Ähnlichkeits- und zeitlich zusammenhängende Abrufmethoden kombiniert, um einen effizienten und menschenähnlichen Zugriff auf relevante Informationen zu ermöglichen. Experimente mit dem LongBench-Datensatz zeigen die überragende Leistung von EM-LLM, die das modernste InfLLM-Modell mit einer Gesamtverbesserung von 4,3% in verschiedenen Aufgaben übertrifft, einschließlich einer 33%igen Verbesserung bei der Passage-Retrieval-Aufgabe. Darüber hinaus zeigen unsere Analysen starke Korrelationen zwischen der Ereignissegmentierung von EM-LLM und von Menschen wahrgenommenen Ereignissen, was auf eine Verbindung zwischen diesem künstlichen System und seinem biologischen Gegenstück hinweist. Diese Arbeit verbessert nicht nur die Fähigkeiten von LLMs bei der Verarbeitung erweiterter Kontexte, sondern bietet auch einen Rechenrahmen zur Erforschung menschlicher Gedächtnismechanismen und eröffnet neue Möglichkeiten für interdisziplinäre Forschung in KI und Kognitionswissenschaft.
English
Large language models (LLMs) have shown remarkable capabilities, but still
struggle with processing extensive contexts, limiting their ability to maintain
coherence and accuracy over long sequences. In contrast, the human brain excels
at organising and retrieving episodic experiences across vast temporal scales,
spanning a lifetime. In this work, we introduce EM-LLM, a novel approach that
integrates key aspects of human episodic memory and event cognition into LLMs,
enabling them to effectively handle practically infinite context lengths while
maintaining computational efficiency. EM-LLM organises sequences of tokens into
coherent episodic events using a combination of Bayesian surprise and
graph-theoretic boundary refinement in an on-line fashion. When needed, these
events are retrieved through a two-stage memory process, combining
similarity-based and temporally contiguous retrieval for efficient and
human-like access to relevant information. Experiments on the LongBench dataset
demonstrate EM-LLM's superior performance, outperforming the state-of-the-art
InfLLM model with an overall relative improvement of 4.3% across various tasks,
including a 33% improvement on the PassageRetrieval task. Furthermore, our
analysis reveals strong correlations between EM-LLM's event segmentation and
human-perceived events, suggesting a bridge between this artificial system and
its biological counterpart. This work not only advances LLM capabilities in
processing extended contexts but also provides a computational framework for
exploring human memory mechanisms, opening new avenues for interdisciplinary
research in AI and cognitive science.Summary
AI-Generated Summary