ChatPaper.aiChatPaper

Искусственный гиппокамп: насколько далеки мы от человеческой памяти?

The AI Hippocampus: How Far are We From Human Memory?

January 14, 2026
Авторы: Zixia Jia, Jiaqi Li, Yipeng Kang, Yuxuan Wang, Tong Wu, Quansen Wang, Xiaobo Wang, Shuyi Zhang, Junzhe Shen, Qing Li, Siyuan Qi, Yitao Liang, Di He, Zilong Zheng, Song-Chun Zhu
cs.AI

Аннотация

Память играет фундаментальную роль в усилении способности к рассуждению, адаптивности и контекстуальной точности современных больших языковых моделей (LLM) и мультимодальных LLM. По мере перехода этих моделей от статических предсказателей к интерактивным системам, способным к непрерывному обучению и персонализированному выводу, внедрение механизмов памяти стало центральной темой в их архитектурной и функциональной эволюции. В данном обзоре представлен всесторонний и структурированный синтез знаний о памяти в LLM и MLLM, организующий литературу в единую таксономию, включающую имплицитную, эксплицитную и агентную парадигмы памяти. В частности, обзор выделяет три основные архитектуры памяти. Имплицитная память относится к знаниям, встроенным во внутренние параметры предварительно обученных трансформеров, включая их способность к запоминанию, ассоциативному поиску и контекстуальным рассуждениям. Недавние работы исследуют методы интерпретации, манипуляции и реконфигурации этой скрытой памяти. Эксплицитная память включает внешние компоненты хранения и поиска, предназначенные для дополнения выходных данных модели динамическими, запрашиваемыми представлениями знаний, такими как текстовые корпуса, плотные векторы и графовые структуры, что позволяет осуществлять масштабируемое и обновляемое взаимодействие с источниками информации. Агентная память вводит постоянные, временно протяженные структуры памяти в автономных агентах, способствуя долгосрочному планированию, самосогласованности и коллективному поведению в мультиагентных системах, что актуально для воплощенного и интерактивного ИИ. Выходя за рамки текста, обзор рассматривает интеграцию памяти в мультимодальных средах, где важна согласованность между модальностями зрения, языка, звука и действий. Обсуждаются ключевые архитектурные достижения, эталонные задачи и открытые проблемы, включая вопросы, связанные с объемом памяти, выравниванием, фактической согласованностью и межсистемной совместимостью.
English
Memory plays a foundational role in augmenting the reasoning, adaptability, and contextual fidelity of modern Large Language Models and Multi-Modal LLMs. As these models transition from static predictors to interactive systems capable of continual learning and personalized inference, the incorporation of memory mechanisms has emerged as a central theme in their architectural and functional evolution. This survey presents a comprehensive and structured synthesis of memory in LLMs and MLLMs, organizing the literature into a cohesive taxonomy comprising implicit, explicit, and agentic memory paradigms. Specifically, the survey delineates three primary memory frameworks. Implicit memory refers to the knowledge embedded within the internal parameters of pre-trained transformers, encompassing their capacity for memorization, associative retrieval, and contextual reasoning. Recent work has explored methods to interpret, manipulate, and reconfigure this latent memory. Explicit memory involves external storage and retrieval components designed to augment model outputs with dynamic, queryable knowledge representations, such as textual corpora, dense vectors, and graph-based structures, thereby enabling scalable and updatable interaction with information sources. Agentic memory introduces persistent, temporally extended memory structures within autonomous agents, facilitating long-term planning, self-consistency, and collaborative behavior in multi-agent systems, with relevance to embodied and interactive AI. Extending beyond text, the survey examines the integration of memory within multi-modal settings, where coherence across vision, language, audio, and action modalities is essential. Key architectural advances, benchmark tasks, and open challenges are discussed, including issues related to memory capacity, alignment, factual consistency, and cross-system interoperability.
PDF41January 16, 2026