ChatPaper.aiChatPaper

Menschengleiches episodisches Gedächtnis für LLMs mit unendlichem Kontext

Human-like Episodic Memory for Infinite Context LLMs

July 12, 2024
Autoren: Zafeirios Fountas, Martin A Benfeghoul, Adnan Oomerjee, Fenia Christopoulou, Gerasimos Lampouras, Haitham Bou-Ammar, Jun Wang
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten gezeigt, kämpfen jedoch immer noch mit der Verarbeitung umfangreicher Kontexte, was ihre Fähigkeit zur Aufrechterhaltung von Kohärenz und Genauigkeit über lange Sequenzen hinweg einschränkt. Im Gegensatz dazu zeichnet sich das menschliche Gehirn durch die Organisation und den Abruf episodischer Erfahrungen über enorme zeitliche Skalen aus, die ein ganzes Leben umspannen. In dieser Arbeit stellen wir EM-LLM vor, einen neuartigen Ansatz, der wesentliche Aspekte des menschlichen episodischen Gedächtnisses und der Ereigniskognition in LLMs integriert und ihnen ermöglicht, praktisch unendliche Kontextlängen effektiv zu verarbeiten, während die Rechenleistung erhalten bleibt. EM-LLM organisiert Tokensequenzen in kohärente episodische Ereignisse mithilfe einer Kombination aus bayesianischer Überraschung und graphentheoretischer Grenzverfeinerung in Echtzeit. Bei Bedarf werden diese Ereignisse durch einen zweistufigen Speicherprozess abgerufen, der Ähnlichkeits- und zeitlich zusammenhängende Abrufmethoden kombiniert, um einen effizienten und menschenähnlichen Zugriff auf relevante Informationen zu ermöglichen. Experimente mit dem LongBench-Datensatz zeigen die überragende Leistung von EM-LLM, die das modernste InfLLM-Modell mit einer Gesamtverbesserung von 4,3% in verschiedenen Aufgaben übertrifft, einschließlich einer 33%igen Verbesserung bei der Passage-Retrieval-Aufgabe. Darüber hinaus zeigen unsere Analysen starke Korrelationen zwischen der Ereignissegmentierung von EM-LLM und von Menschen wahrgenommenen Ereignissen, was auf eine Verbindung zwischen diesem künstlichen System und seinem biologischen Gegenstück hinweist. Diese Arbeit verbessert nicht nur die Fähigkeiten von LLMs bei der Verarbeitung erweiterter Kontexte, sondern bietet auch einen Rechenrahmen zur Erforschung menschlicher Gedächtnismechanismen und eröffnet neue Möglichkeiten für interdisziplinäre Forschung in KI und Kognitionswissenschaft.
English
Large language models (LLMs) have shown remarkable capabilities, but still struggle with processing extensive contexts, limiting their ability to maintain coherence and accuracy over long sequences. In contrast, the human brain excels at organising and retrieving episodic experiences across vast temporal scales, spanning a lifetime. In this work, we introduce EM-LLM, a novel approach that integrates key aspects of human episodic memory and event cognition into LLMs, enabling them to effectively handle practically infinite context lengths while maintaining computational efficiency. EM-LLM organises sequences of tokens into coherent episodic events using a combination of Bayesian surprise and graph-theoretic boundary refinement in an on-line fashion. When needed, these events are retrieved through a two-stage memory process, combining similarity-based and temporally contiguous retrieval for efficient and human-like access to relevant information. Experiments on the LongBench dataset demonstrate EM-LLM's superior performance, outperforming the state-of-the-art InfLLM model with an overall relative improvement of 4.3% across various tasks, including a 33% improvement on the PassageRetrieval task. Furthermore, our analysis reveals strong correlations between EM-LLM's event segmentation and human-perceived events, suggesting a bridge between this artificial system and its biological counterpart. This work not only advances LLM capabilities in processing extended contexts but also provides a computational framework for exploring human memory mechanisms, opening new avenues for interdisciplinary research in AI and cognitive science.

Summary

AI-Generated Summary

PDF636November 28, 2024