O Hipocampo da IA: Quão Perto Estamos da Memória Humana?
The AI Hippocampus: How Far are We From Human Memory?
January 14, 2026
Autores: Zixia Jia, Jiaqi Li, Yipeng Kang, Yuxuan Wang, Tong Wu, Quansen Wang, Xiaobo Wang, Shuyi Zhang, Junzhe Shen, Qing Li, Siyuan Qi, Yitao Liang, Di He, Zilong Zheng, Song-Chun Zhu
cs.AI
Resumo
A memória desempenha um papel fundamental no aumento da capacidade de raciocínio, adaptabilidade e fidelidade contextual dos modernos Modelos de Linguagem de Grande Porte (LLMs) e LLMs Multimodais (MLLMs). À medida que esses modelos transitam de preditores estáticos para sistemas interativos capazes de aprendizagem contínua e inferência personalizada, a incorporação de mecanismos de memória emergiu como um tema central em sua evolução arquitetônica e funcional. Este estudo apresenta uma síntese abrangente e estruturada da memória em LLMs e MLLMs, organizando a literatura em uma taxonomia coesa que compreende os paradigmas de memória implícita, explícita e agentiva. Especificamente, o estudo delineia três estruturas de memória primárias. A memória implícita refere-se ao conhecimento incorporado nos parâmetros internos de transformadores pré-treinados, abrangendo sua capacidade de memorização, recuperação associativa e raciocínio contextual. Trabalhos recentes exploraram métodos para interpretar, manipular e reconfigurar essa memória latente. A memória explícita envolve componentes externos de armazenamento e recuperação projetados para aumentar as saídas do modelo com representações de conhecimento dinâmicas e consultáveis, como corpora textuais, vetores densos e estruturas baseadas em grafos, permitindo assim uma interação escalável e atualizável com fontes de informação. A memória agentiva introduz estruturas de memória persistentes e temporalmente estendidas dentro de agentes autônomos, facilitando o planejamento de longo prazo, a autoconsistência e o comportamento colaborativo em sistemas multiagente, com relevância para a IA incorporada e interativa. Indo além do texto, o estudo examina a integração da memória em contextos multimodais, onde a coerência entre as modalidades visual, linguística, auditiva e de ação é essencial. Avanços arquitetônicos-chave, tarefas de benchmark e desafios em aberto são discutidos, incluindo questões relacionadas à capacidade de memória, alinhamento, consistência factual e interoperabilidade entre sistemas.
English
Memory plays a foundational role in augmenting the reasoning, adaptability, and contextual fidelity of modern Large Language Models and Multi-Modal LLMs. As these models transition from static predictors to interactive systems capable of continual learning and personalized inference, the incorporation of memory mechanisms has emerged as a central theme in their architectural and functional evolution. This survey presents a comprehensive and structured synthesis of memory in LLMs and MLLMs, organizing the literature into a cohesive taxonomy comprising implicit, explicit, and agentic memory paradigms. Specifically, the survey delineates three primary memory frameworks. Implicit memory refers to the knowledge embedded within the internal parameters of pre-trained transformers, encompassing their capacity for memorization, associative retrieval, and contextual reasoning. Recent work has explored methods to interpret, manipulate, and reconfigure this latent memory. Explicit memory involves external storage and retrieval components designed to augment model outputs with dynamic, queryable knowledge representations, such as textual corpora, dense vectors, and graph-based structures, thereby enabling scalable and updatable interaction with information sources. Agentic memory introduces persistent, temporally extended memory structures within autonomous agents, facilitating long-term planning, self-consistency, and collaborative behavior in multi-agent systems, with relevance to embodied and interactive AI. Extending beyond text, the survey examines the integration of memory within multi-modal settings, where coherence across vision, language, audio, and action modalities is essential. Key architectural advances, benchmark tasks, and open challenges are discussed, including issues related to memory capacity, alignment, factual consistency, and cross-system interoperability.