ChatPaper.aiChatPaper

Oltre il Recupero di Fatti: Memoria Episodica per RAG con Spazi Semantici Generativi

Beyond Fact Retrieval: Episodic Memory for RAG with Generative Semantic Workspaces

November 10, 2025
Autori: Shreyas Rajesh, Pavan Holur, Chenda Duan, David Chong, Vwani Roychowdhury
cs.AI

Abstract

I Modelli Linguistici di Grande Dimensione (LLM) affrontano sfide fondamentali nel ragionamento su contesti lunghi: molti documenti superano le loro finestre di contesto finite, mentre le prestazioni su testi che vi rientrano si degradano all'aumentare della lunghezza della sequenza, rendendo necessaria la loro integrazione con framework di memoria esterna. Le soluzioni attuali, evolutesi dal retrieval tramite embedding semantici a rappresentazioni più sofisticate basate su grafi di conoscenza strutturati per migliorare la costruzione del senso e l'associatività, sono concepite per un retrieval basato su fatti e non riescono a costruire le rappresentazioni narrative ancorate spazio-temporalmente necessarie per tracciare entità attraverso eventi episodici. Per colmare questa lacuna, proponiamo il Generative Semantic Workspace (GSW), un framework di memoria generativa di ispirazione neurale che costruisce rappresentazioni strutturate e interpretabili di situazioni in evoluzione, consentendo agli LLM di ragionare su ruoli, azioni e contesti spaziotemporali dinamici. Il nostro framework comprende un Operatore, che mappa le osservazioni in ingresso su strutture semantiche intermedie, e un Riconciliatore, che le integra in uno workspace persistente che garantisce coerenza temporale, spaziale e logica. Sull'Episodic Memory Benchmark (EpBench) huet_episodic_2025, che comprende corpus di lunghezza compresa tra 100k e 1M di token, GSW supera le baseline esistenti basate su RAG fino al 20%. Inoltre, GSW è altamente efficiente, riducendo i token di contesto al momento della query del 51% rispetto alla baseline più efficiente in termini di token successiva, riducendo notevolmente i costi di tempo di inferenza. Più in generale, GSW offre un progetto concreto per dotare gli LLM di una memoria episodica simile a quella umana, aprendo la strada a agenti più capaci di ragionare su orizzonti temporali lunghi.
English
Large Language Models (LLMs) face fundamental challenges in long-context reasoning: many documents exceed their finite context windows, while performance on texts that do fit degrades with sequence length, necessitating their augmentation with external memory frameworks. Current solutions, which have evolved from retrieval using semantic embeddings to more sophisticated structured knowledge graphs representations for improved sense-making and associativity, are tailored for fact-based retrieval and fail to build the space-time-anchored narrative representations required for tracking entities through episodic events. To bridge this gap, we propose the Generative Semantic Workspace (GSW), a neuro-inspired generative memory framework that builds structured, interpretable representations of evolving situations, enabling LLMs to reason over evolving roles, actions, and spatiotemporal contexts. Our framework comprises an Operator, which maps incoming observations to intermediate semantic structures, and a Reconciler, which integrates these into a persistent workspace that enforces temporal, spatial, and logical coherence. On the Episodic Memory Benchmark (EpBench) huet_episodic_2025 comprising corpora ranging from 100k to 1M tokens in length, GSW outperforms existing RAG based baselines by up to 20\%. Furthermore, GSW is highly efficient, reducing query-time context tokens by 51\% compared to the next most token-efficient baseline, reducing inference time costs considerably. More broadly, GSW offers a concrete blueprint for endowing LLMs with human-like episodic memory, paving the way for more capable agents that can reason over long horizons.
PDF82December 2, 2025