ChatPaper.aiChatPaper

LightMem: Lichtgewicht en efficiënte geheugen-augmentatie generatie

LightMem: Lightweight and Efficient Memory-Augmented Generation

October 21, 2025
Auteurs: Jizhan Fang, Xinle Deng, Haoming Xu, Ziyan Jiang, Yuqi Tang, Ziwen Xu, Shumin Deng, Yunzhi Yao, Mengru Wang, Shuofei Qiao, Huajun Chen, Ningyu Zhang
cs.AI

Samenvatting

Ondanks hun opmerkelijke capaciteiten hebben Large Language Models (LLMs) moeite om historische interactie-informatie effectief te benutten in dynamische en complexe omgevingen. Geheugensystemen stellen LLMs in staat om verder te gaan dan stateless interacties door het introduceren van mechanismen voor persistente informatieopslag, -opvraging en -gebruik. Bestaande geheugensystemen brengen echter vaak aanzienlijke tijd- en rekenkosten met zich mee. Daarom introduceren we een nieuw geheugensysteem genaamd LightMem, dat een balans vindt tussen de prestaties en efficiëntie van geheugensystemen. Geïnspireerd door het Atkinson-Shiffrin-model van het menselijk geheugen, organiseert LightMem het geheugen in drie complementaire fasen. Ten eerste filtert het op cognitie geïnspireerde sensorische geheugen irrelevante informatie snel uit door middel van lichtgewicht compressie en groepeert het informatie op basis van hun onderwerpen. Vervolgens consolideert het onderwerpbewuste kortetermijngeheugen deze op onderwerp gebaseerde groepen, waarbij het inhoud organiseert en samenvat voor gestructureerdere toegang. Tot slot gebruikt het langetermijngeheugen met slaaptijd-update een offline procedure die consolidatie ontkoppelt van online inferentie. Experimenten op LongMemEval met GPT- en Qwen-backbones laten zien dat LightMem sterke baseline-methoden overtreft in nauwkeurigheid (tot 10,9% winst) terwijl het tokengebruik tot 117x, API-aanroepen tot 159x en de looptijd met meer dan 12x reduceert. De code is beschikbaar op https://github.com/zjunlp/LightMem.
English
Despite their remarkable capabilities, Large Language Models (LLMs) struggle to effectively leverage historical interaction information in dynamic and complex environments. Memory systems enable LLMs to move beyond stateless interactions by introducing persistent information storage, retrieval, and utilization mechanisms. However, existing memory systems often introduce substantial time and computational overhead. To this end, we introduce a new memory system called LightMem, which strikes a balance between the performance and efficiency of memory systems. Inspired by the Atkinson-Shiffrin model of human memory, LightMem organizes memory into three complementary stages. First, cognition-inspired sensory memory rapidly filters irrelevant information through lightweight compression and groups information according to their topics. Next, topic-aware short-term memory consolidates these topic-based groups, organizing and summarizing content for more structured access. Finally, long-term memory with sleep-time update employs an offline procedure that decouples consolidation from online inference. Experiments on LongMemEval with GPT and Qwen backbones show that LightMem outperforms strong baselines in accuracy (up to 10.9% gains) while reducing token usage by up to 117x, API calls by up to 159x, and runtime by over 12x. The code is available at https://github.com/zjunlp/LightMem.
PDF913October 22, 2025