ChatPaper.aiChatPaper

Au-delà de la récupération de faits : mémoire épisodique pour les systèmes RAG avec espaces sémantiques génératifs

Beyond Fact Retrieval: Episodic Memory for RAG with Generative Semantic Workspaces

November 10, 2025
papers.authors: Shreyas Rajesh, Pavan Holur, Chenda Duan, David Chong, Vwani Roychowdhury
cs.AI

papers.abstract

Les modèles de langage de grande taille (LLM) rencontrent des défis fondamentaux dans le raisonnement à long contexte : de nombreux documents dépassent leurs fenêtres de contexte finies, tandis que les performances sur les textes qui y entrent se dégradent avec la longueur des séquences, nécessitant leur augmentation par des frameworks de mémoire externe. Les solutions actuelles, qui ont évolué du retrieval utilisant des embeddings sémantiques vers des représentations plus sophistiquées par graphes de connaissances structurés pour une meilleure construction de sens et d'associativité, sont conçues pour la récupération factuelle et échouent à construire les représentations narratives ancrées dans l'espace-temps requises pour suivre les entités à travers des événements épisodiques. Pour combler cette lacune, nous proposons l'Espace Sémantique Génératif (GSW), un framework de mémoire générative neuro-inspiré qui construit des représentations structurées et interprétables de situations évolutives, permettant aux LLM de raisonner sur des rôles, actions et contextes spatiotemporels dynamiques. Notre framework comprend un Opérateur, qui cartographie les observations entrantes vers des structures sémantiques intermédiaires, et un Réconciliateur, qui les intègre dans un espace de travail persistant garantissant la cohérence temporelle, spatiale et logique. Sur le benchmark de mémoire épisodique (EpBench) huet_episodique_2025 comprenant des corpus de 100k à 1M de tokens, GSW surpasse les bases de référence basées sur RAG jusqu'à 20%. De plus, GSW est hautement efficace, réduisant les tokens de contexte au moment des requêtes de 51% par rapport à la base de référence la plus économe en tokens, diminuant considérablement les coûts en temps d'inférence. Plus largement, GSW offre un plan concret pour doter les LLM d'une mémoire épisodique semblable à celle des humains, ouvrant la voie à des agents plus capables de raisonner sur de long horizons.
English
Large Language Models (LLMs) face fundamental challenges in long-context reasoning: many documents exceed their finite context windows, while performance on texts that do fit degrades with sequence length, necessitating their augmentation with external memory frameworks. Current solutions, which have evolved from retrieval using semantic embeddings to more sophisticated structured knowledge graphs representations for improved sense-making and associativity, are tailored for fact-based retrieval and fail to build the space-time-anchored narrative representations required for tracking entities through episodic events. To bridge this gap, we propose the Generative Semantic Workspace (GSW), a neuro-inspired generative memory framework that builds structured, interpretable representations of evolving situations, enabling LLMs to reason over evolving roles, actions, and spatiotemporal contexts. Our framework comprises an Operator, which maps incoming observations to intermediate semantic structures, and a Reconciler, which integrates these into a persistent workspace that enforces temporal, spatial, and logical coherence. On the Episodic Memory Benchmark (EpBench) huet_episodic_2025 comprising corpora ranging from 100k to 1M tokens in length, GSW outperforms existing RAG based baselines by up to 20\%. Furthermore, GSW is highly efficient, reducing query-time context tokens by 51\% compared to the next most token-efficient baseline, reducing inference time costs considerably. More broadly, GSW offers a concrete blueprint for endowing LLMs with human-like episodic memory, paving the way for more capable agents that can reason over long horizons.
PDF82December 2, 2025