ChatPaper.aiChatPaper

MemOS: Un sistema operativo de memoria para sistemas de IA

MemOS: A Memory OS for AI System

July 4, 2025
Autores: Zhiyu Li, Shichao Song, Chenyang Xi, Hanyu Wang, Chen Tang, Simin Niu, Ding Chen, Jiawei Yang, Chunyu Li, Qingchen Yu, Jihao Zhao, Yezhaohui Wang, Peng Liu, Zehao Lin, Pengyuan Wang, Jiahao Huo, Tianyi Chen, Kai Chen, Kehang Li, Zhen Tao, Junpeng Ren, Huayi Lai, Hao Wu, Bo Tang, Zhenren Wang, Zhaoxin Fan, Ningyu Zhang, Linfeng Zhang, Junchi Yan, Mingchuan Yang, Tong Xu, Wei Xu, Huajun Chen, Haofeng Wang, Hongkang Yang, Wentao Zhang, Zhi-Qin John Xu, Siheng Chen, Feiyu Xiong
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) se han convertido en una infraestructura esencial para la Inteligencia General Artificial (AGI, por sus siglas en inglés), aunque la falta de sistemas de gestión de memoria bien definidos dificulta el desarrollo del razonamiento de contexto prolongado, la personalización continua y la consistencia del conocimiento. Los modelos existentes dependen principalmente de parámetros estáticos y estados contextuales de corta duración, lo que limita su capacidad para rastrear las preferencias de los usuarios o actualizar el conocimiento durante períodos prolongados. Si bien la Generación Aumentada por Recuperación (RAG, por sus siglas en inglés) introduce conocimiento externo en texto plano, sigue siendo una solución sin estado, sin control del ciclo de vida ni integración con representaciones persistentes. Trabajos recientes han modelado el costo de entrenamiento e inferencia de los LLMs desde una perspectiva jerárquica de memoria, demostrando que la introducción de una capa de memoria explícita entre la memoria de parámetros y la recuperación externa puede reducir sustancialmente estos costos al externalizar conocimiento específico. Más allá de la eficiencia computacional, los LLMs enfrentan desafíos más amplios derivados de cómo se distribuye la información en el tiempo y el contexto, lo que requiere sistemas capaces de gestionar conocimiento heterogéneo que abarca diferentes escalas temporales y fuentes. Para abordar este desafío, proponemos MemOS, un sistema operativo de memoria que trata la memoria como un recurso del sistema gestionable. Unifica la representación, programación y evolución de memorias en texto plano, basadas en activación y a nivel de parámetros, permitiendo un almacenamiento y recuperación eficiente en términos de costos. Como unidad básica, un MemCube encapsula tanto el contenido de la memoria como metadatos como la procedencia y el versionado. Los MemCubes pueden componerse, migrarse y fusionarse con el tiempo, permitiendo transiciones flexibles entre tipos de memoria y conectando la recuperación con el aprendizaje basado en parámetros. MemOS establece un marco de sistema centrado en la memoria que aporta controlabilidad, plasticidad y capacidad de evolución a los LLMs, sentando las bases para el aprendizaje continuo y el modelado personalizado.
English
Large Language Models (LLMs) have become an essential infrastructure for Artificial General Intelligence (AGI), yet their lack of well-defined memory management systems hinders the development of long-context reasoning, continual personalization, and knowledge consistency.Existing models mainly rely on static parameters and short-lived contextual states, limiting their ability to track user preferences or update knowledge over extended periods.While Retrieval-Augmented Generation (RAG) introduces external knowledge in plain text, it remains a stateless workaround without lifecycle control or integration with persistent representations.Recent work has modeled the training and inference cost of LLMs from a memory hierarchy perspective, showing that introducing an explicit memory layer between parameter memory and external retrieval can substantially reduce these costs by externalizing specific knowledge. Beyond computational efficiency, LLMs face broader challenges arising from how information is distributed over time and context, requiring systems capable of managing heterogeneous knowledge spanning different temporal scales and sources. To address this challenge, we propose MemOS, a memory operating system that treats memory as a manageable system resource. It unifies the representation, scheduling, and evolution of plaintext, activation-based, and parameter-level memories, enabling cost-efficient storage and retrieval. As the basic unit, a MemCube encapsulates both memory content and metadata such as provenance and versioning. MemCubes can be composed, migrated, and fused over time, enabling flexible transitions between memory types and bridging retrieval with parameter-based learning. MemOS establishes a memory-centric system framework that brings controllability, plasticity, and evolvability to LLMs, laying the foundation for continual learning and personalized modeling.
PDF711July 8, 2025