ChatPaper.aiChatPaper

De RAG à la mémoire : Apprentissage continu non paramétrique pour les grands modèles de langage

From RAG to Memory: Non-Parametric Continual Learning for Large Language Models

February 20, 2025
Auteurs: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su
cs.AI

Résumé

Notre capacité à acquérir, organiser et exploiter continuellement des connaissances est une caractéristique essentielle de l'intelligence humaine que les systèmes d'IA doivent approcher pour débloquer leur plein potentiel. Face aux défis de l'apprentissage continu avec les grands modèles de langage (LLM), la génération augmentée par récupération (RAG) est devenue la méthode dominante pour introduire de nouvelles informations. Cependant, sa dépendance à la récupération vectorielle entrave sa capacité à imiter la nature dynamique et interconnectée de la mémoire à long terme humaine. Les approches RAG récentes enrichissent les embeddings vectoriels avec diverses structures, comme les graphes de connaissances, pour combler certaines lacunes, notamment la compréhension contextuelle et l'associativité. Pourtant, leur performance sur des tâches de mémoire factuelle plus basiques chute considérablement par rapport au RAG standard. Nous abordons cette détérioration involontaire et proposons HippoRAG 2, un cadre qui surpasse le RAG standard de manière exhaustive sur les tâches de mémoire factuelle, de compréhension contextuelle et de mémoire associative. HippoRAG 2 s'appuie sur l'algorithme Personalized PageRank utilisé dans HippoRAG et l'améliore avec une intégration plus profonde des passages et une utilisation en ligne plus efficace d'un LLM. Cette combinaison rapproche ce système RAG de l'efficacité de la mémoire à long terme humaine, obtenant une amélioration de 7 % sur les tâches de mémoire associative par rapport au modèle d'embedding de pointe, tout en démontrant des capacités supérieures en matière de connaissances factuelles et de mémoire de compréhension contextuelle. Ce travail ouvre la voie à l'apprentissage continu non paramétrique pour les LLM. Notre code et nos données seront publiés sur https://github.com/OSU-NLP-Group/HippoRAG.
English
Our ability to continuously acquire, organize, and leverage knowledge is a key feature of human intelligence that AI systems must approximate to unlock their full potential. Given the challenges in continual learning with large language models (LLMs), retrieval-augmented generation (RAG) has become the dominant way to introduce new information. However, its reliance on vector retrieval hinders its ability to mimic the dynamic and interconnected nature of human long-term memory. Recent RAG approaches augment vector embeddings with various structures like knowledge graphs to address some of these gaps, namely sense-making and associativity. However, their performance on more basic factual memory tasks drops considerably below standard RAG. We address this unintended deterioration and propose HippoRAG 2, a framework that outperforms standard RAG comprehensively on factual, sense-making, and associative memory tasks. HippoRAG 2 builds upon the Personalized PageRank algorithm used in HippoRAG and enhances it with deeper passage integration and more effective online use of an LLM. This combination pushes this RAG system closer to the effectiveness of human long-term memory, achieving a 7% improvement in associative memory tasks over the state-of-the-art embedding model while also exhibiting superior factual knowledge and sense-making memory capabilities. This work paves the way for non-parametric continual learning for LLMs. Our code and data will be released at https://github.com/OSU-NLP-Group/HippoRAG.

Summary

AI-Generated Summary

PDF132February 21, 2025