MemOS: Um Sistema Operacional de Memória para Sistemas de IA
MemOS: A Memory OS for AI System
July 4, 2025
Autores: Zhiyu Li, Shichao Song, Chenyang Xi, Hanyu Wang, Chen Tang, Simin Niu, Ding Chen, Jiawei Yang, Chunyu Li, Qingchen Yu, Jihao Zhao, Yezhaohui Wang, Peng Liu, Zehao Lin, Pengyuan Wang, Jiahao Huo, Tianyi Chen, Kai Chen, Kehang Li, Zhen Tao, Junpeng Ren, Huayi Lai, Hao Wu, Bo Tang, Zhenren Wang, Zhaoxin Fan, Ningyu Zhang, Linfeng Zhang, Junchi Yan, Mingchuan Yang, Tong Xu, Wei Xu, Huajun Chen, Haofeng Wang, Hongkang Yang, Wentao Zhang, Zhi-Qin John Xu, Siheng Chen, Feiyu Xiong
cs.AI
Resumo
Os Modelos de Linguagem de Grande Escala (LLMs) tornaram-se uma infraestrutura essencial para a Inteligência Artificial Geral (AGI), mas a falta de sistemas de gerenciamento de memória bem definidos dificulta o desenvolvimento de raciocínio de longo contexto, personalização contínua e consistência de conhecimento. Os modelos existentes dependem principalmente de parâmetros estáticos e estados contextuais de curta duração, limitando sua capacidade de rastrear preferências do usuário ou atualizar conhecimentos ao longo de períodos prolongados. Embora a Geração Aumentada por Recuperação (RAG) introduza conhecimento externo em texto simples, ela permanece uma solução temporária sem controle de ciclo de vida ou integração com representações persistentes. Trabalhos recentes modelaram o custo de treinamento e inferência de LLMs a partir de uma perspectiva de hierarquia de memória, mostrando que a introdução de uma camada de memória explícita entre a memória de parâmetros e a recuperação externa pode reduzir substancialmente esses custos ao externalizar conhecimentos específicos. Além da eficiência computacional, os LLMs enfrentam desafios mais amplos decorrentes de como a informação é distribuída ao longo do tempo e do contexto, exigindo sistemas capazes de gerenciar conhecimentos heterogêneos que abrangem diferentes escalas temporais e fontes. Para enfrentar esse desafio, propomos o MemOS, um sistema operacional de memória que trata a memória como um recurso de sistema gerenciável. Ele unifica a representação, o agendamento e a evolução de memórias em texto simples, baseadas em ativação e em nível de parâmetros, permitindo armazenamento e recuperação com custo eficiente. Como unidade básica, um MemCube encapsula tanto o conteúdo da memória quanto metadados, como proveniência e versionamento. Os MemCubes podem ser compostos, migrados e fundidos ao longo do tempo, permitindo transições flexíveis entre tipos de memória e conectando a recuperação com o aprendizado baseado em parâmetros. O MemOS estabelece uma estrutura de sistema centrada na memória que traz controlabilidade, plasticidade e evolutividade aos LLMs, lançando as bases para aprendizado contínuo e modelagem personalizada.
English
Large Language Models (LLMs) have become an essential infrastructure for
Artificial General Intelligence (AGI), yet their lack of well-defined memory
management systems hinders the development of long-context reasoning, continual
personalization, and knowledge consistency.Existing models mainly rely on
static parameters and short-lived contextual states, limiting their ability to
track user preferences or update knowledge over extended periods.While
Retrieval-Augmented Generation (RAG) introduces external knowledge in plain
text, it remains a stateless workaround without lifecycle control or
integration with persistent representations.Recent work has modeled the
training and inference cost of LLMs from a memory hierarchy perspective,
showing that introducing an explicit memory layer between parameter memory and
external retrieval can substantially reduce these costs by externalizing
specific knowledge. Beyond computational efficiency, LLMs face broader
challenges arising from how information is distributed over time and context,
requiring systems capable of managing heterogeneous knowledge spanning
different temporal scales and sources. To address this challenge, we propose
MemOS, a memory operating system that treats memory as a manageable system
resource. It unifies the representation, scheduling, and evolution of
plaintext, activation-based, and parameter-level memories, enabling
cost-efficient storage and retrieval. As the basic unit, a MemCube encapsulates
both memory content and metadata such as provenance and versioning. MemCubes
can be composed, migrated, and fused over time, enabling flexible transitions
between memory types and bridging retrieval with parameter-based learning.
MemOS establishes a memory-centric system framework that brings
controllability, plasticity, and evolvability to LLMs, laying the foundation
for continual learning and personalized modeling.