MemOS: Un Sistema Operativo della Memoria per Sistemi di Intelligenza Artificiale
MemOS: A Memory OS for AI System
July 4, 2025
Autori: Zhiyu Li, Shichao Song, Chenyang Xi, Hanyu Wang, Chen Tang, Simin Niu, Ding Chen, Jiawei Yang, Chunyu Li, Qingchen Yu, Jihao Zhao, Yezhaohui Wang, Peng Liu, Zehao Lin, Pengyuan Wang, Jiahao Huo, Tianyi Chen, Kai Chen, Kehang Li, Zhen Tao, Junpeng Ren, Huayi Lai, Hao Wu, Bo Tang, Zhenren Wang, Zhaoxin Fan, Ningyu Zhang, Linfeng Zhang, Junchi Yan, Mingchuan Yang, Tong Xu, Wei Xu, Huajun Chen, Haofeng Wang, Hongkang Yang, Wentao Zhang, Zhi-Qin John Xu, Siheng Chen, Feiyu Xiong
cs.AI
Abstract
I Large Language Model (LLM) sono diventati un'infrastruttura essenziale per l'Intelligenza Artificiale Generale (AGI), tuttavia la mancanza di sistemi di gestione della memoria ben definiti ostacola lo sviluppo del ragionamento a lungo contesto, della personalizzazione continua e della coerenza delle conoscenze. I modelli esistenti si basano principalmente su parametri statici e stati contestuali di breve durata, limitando la loro capacità di tracciare le preferenze degli utenti o aggiornare le conoscenze su periodi prolungati. Sebbene la Generazione Aumentata dal Recupero (RAG) introduca conoscenze esterne in testo semplice, rimane una soluzione temporanea senza stato, priva di controllo del ciclo di vita o integrazione con rappresentazioni persistenti. Recenti lavori hanno modellato il costo di addestramento e inferenza degli LLM da una prospettiva gerarchica della memoria, dimostrando che l'introduzione di un livello di memoria esplicito tra la memoria dei parametri e il recupero esterno può ridurre sostanzialmente questi costi esternalizzando conoscenze specifiche. Oltre all'efficienza computazionale, gli LLM affrontano sfide più ampie derivanti dalla distribuzione delle informazioni nel tempo e nel contesto, richiedendo sistemi in grado di gestire conoscenze eterogenee che abbracciano diverse scale temporali e fonti. Per affrontare questa sfida, proponiamo MemOS, un sistema operativo della memoria che tratta la memoria come una risorsa di sistema gestibile. Esso unifica la rappresentazione, la pianificazione e l'evoluzione di memorie in testo semplice, basate sull'attivazione e a livello di parametri, consentendo uno stoccaggio e un recupero efficienti in termini di costi. Come unità di base, un MemCube incapsula sia il contenuto della memoria che i metadati come la provenienza e il versionamento. I MemCube possono essere composti, migrati e fusi nel tempo, consentendo transizioni flessibili tra tipi di memoria e collegando il recupero con l'apprendimento basato su parametri. MemOS stabilisce un framework di sistema centrato sulla memoria che porta controllabilità, plasticità e evolvibilità agli LLM, gettando le basi per l'apprendimento continuo e la modellazione personalizzata.
English
Large Language Models (LLMs) have become an essential infrastructure for
Artificial General Intelligence (AGI), yet their lack of well-defined memory
management systems hinders the development of long-context reasoning, continual
personalization, and knowledge consistency.Existing models mainly rely on
static parameters and short-lived contextual states, limiting their ability to
track user preferences or update knowledge over extended periods.While
Retrieval-Augmented Generation (RAG) introduces external knowledge in plain
text, it remains a stateless workaround without lifecycle control or
integration with persistent representations.Recent work has modeled the
training and inference cost of LLMs from a memory hierarchy perspective,
showing that introducing an explicit memory layer between parameter memory and
external retrieval can substantially reduce these costs by externalizing
specific knowledge. Beyond computational efficiency, LLMs face broader
challenges arising from how information is distributed over time and context,
requiring systems capable of managing heterogeneous knowledge spanning
different temporal scales and sources. To address this challenge, we propose
MemOS, a memory operating system that treats memory as a manageable system
resource. It unifies the representation, scheduling, and evolution of
plaintext, activation-based, and parameter-level memories, enabling
cost-efficient storage and retrieval. As the basic unit, a MemCube encapsulates
both memory content and metadata such as provenance and versioning. MemCubes
can be composed, migrated, and fused over time, enabling flexible transitions
between memory types and bridging retrieval with parameter-based learning.
MemOS establishes a memory-centric system framework that brings
controllability, plasticity, and evolvability to LLMs, laying the foundation
for continual learning and personalized modeling.