MemOS: AI 시스템을 위한 메모리 운영체제
MemOS: A Memory OS for AI System
July 4, 2025
저자: Zhiyu Li, Shichao Song, Chenyang Xi, Hanyu Wang, Chen Tang, Simin Niu, Ding Chen, Jiawei Yang, Chunyu Li, Qingchen Yu, Jihao Zhao, Yezhaohui Wang, Peng Liu, Zehao Lin, Pengyuan Wang, Jiahao Huo, Tianyi Chen, Kai Chen, Kehang Li, Zhen Tao, Junpeng Ren, Huayi Lai, Hao Wu, Bo Tang, Zhenren Wang, Zhaoxin Fan, Ningyu Zhang, Linfeng Zhang, Junchi Yan, Mingchuan Yang, Tong Xu, Wei Xu, Huajun Chen, Haofeng Wang, Hongkang Yang, Wentao Zhang, Zhi-Qin John Xu, Siheng Chen, Feiyu Xiong
cs.AI
초록
대형 언어 모델(LLM)은 인공 일반 지능(AGI)을 위한 필수 인프라로 자리 잡았지만, 명확하게 정의된 메모리 관리 시스템의 부재로 인해 장기적 맥락 추론, 지속적 개인화, 그리고 지식 일관성의 발전이 저해되고 있다. 기존 모델들은 주로 정적 매개변수와 단기적인 맥락 상태에 의존하여, 사용자 선호도를 추적하거나 장기간에 걸쳐 지식을 업데이트하는 능력이 제한적이다. 검색 증강 생성(RAG)은 일반 텍스트 형태의 외부 지식을 도입하지만, 이는 생명주기 제어나 지속적 표현과의 통합이 없는 상태 비저장형 임시 해결책에 불과하다. 최근 연구에서는 메모리 계층 구조 관점에서 LLM의 학습 및 추론 비용을 모델링하여, 매개변수 메모리와 외부 검색 사이에 명시적 메모리 계층을 도입함으로써 특정 지식을 외부화하여 이러한 비용을 상당히 줄일 수 있음을 보여주었다. 계산 효율성 외에도, LLM은 시간과 맥락에 걸쳐 정보가 분포되는 방식에서 발생하는 더 넓은 도전 과제에 직면해 있으며, 이는 다양한 시간적 규모와 출처에 걸친 이질적 지식을 관리할 수 있는 시스템을 필요로 한다. 이러한 도전 과제를 해결하기 위해, 우리는 메모리를 관리 가능한 시스템 자원으로 취급하는 메모리 운영 체제(MemOS)를 제안한다. MemOS는 일반 텍스트, 활성화 기반, 그리고 매개변수 수준의 메모리를 통합적으로 표현, 스케줄링, 진화시켜 비용 효율적인 저장 및 검색을 가능하게 한다. 기본 단위인 MemCube는 메모리 내용과 출처, 버전 관리와 같은 메타데이터를 모두 캡슐화한다. MemCube는 시간에 따라 구성, 이동, 융합될 수 있어, 메모리 유형 간의 유연한 전환을 가능하게 하고 검색과 매개변수 기반 학습을 연결한다. MemOS는 메모리 중심의 시스템 프레임워크를 구축하여 LLM에 제어 가능성, 가소성, 그리고 진화 가능성을 부여함으로써, 지속적 학습과 개인화된 모델링의 기반을 마련한다.
English
Large Language Models (LLMs) have become an essential infrastructure for
Artificial General Intelligence (AGI), yet their lack of well-defined memory
management systems hinders the development of long-context reasoning, continual
personalization, and knowledge consistency.Existing models mainly rely on
static parameters and short-lived contextual states, limiting their ability to
track user preferences or update knowledge over extended periods.While
Retrieval-Augmented Generation (RAG) introduces external knowledge in plain
text, it remains a stateless workaround without lifecycle control or
integration with persistent representations.Recent work has modeled the
training and inference cost of LLMs from a memory hierarchy perspective,
showing that introducing an explicit memory layer between parameter memory and
external retrieval can substantially reduce these costs by externalizing
specific knowledge. Beyond computational efficiency, LLMs face broader
challenges arising from how information is distributed over time and context,
requiring systems capable of managing heterogeneous knowledge spanning
different temporal scales and sources. To address this challenge, we propose
MemOS, a memory operating system that treats memory as a manageable system
resource. It unifies the representation, scheduling, and evolution of
plaintext, activation-based, and parameter-level memories, enabling
cost-efficient storage and retrieval. As the basic unit, a MemCube encapsulates
both memory content and metadata such as provenance and versioning. MemCubes
can be composed, migrated, and fused over time, enabling flexible transitions
between memory types and bridging retrieval with parameter-based learning.
MemOS establishes a memory-centric system framework that brings
controllability, plasticity, and evolvability to LLMs, laying the foundation
for continual learning and personalized modeling.