De RAG à la mémoire : Apprentissage continu non paramétrique pour les grands modèles de langage
From RAG to Memory: Non-Parametric Continual Learning for Large Language Models
February 20, 2025
Auteurs: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su
cs.AI
Résumé
Notre capacité à acquérir, organiser et exploiter continuellement des connaissances est une caractéristique essentielle de l'intelligence humaine que les systèmes d'IA doivent approcher pour débloquer leur plein potentiel. Face aux défis de l'apprentissage continu avec les grands modèles de langage (LLM), la génération augmentée par récupération (RAG) est devenue la méthode dominante pour introduire de nouvelles informations. Cependant, sa dépendance à la récupération vectorielle entrave sa capacité à imiter la nature dynamique et interconnectée de la mémoire à long terme humaine. Les approches RAG récentes enrichissent les embeddings vectoriels avec diverses structures, comme les graphes de connaissances, pour combler certaines lacunes, notamment la compréhension contextuelle et l'associativité. Pourtant, leur performance sur des tâches de mémoire factuelle plus basiques chute considérablement par rapport au RAG standard. Nous abordons cette détérioration involontaire et proposons HippoRAG 2, un cadre qui surpasse le RAG standard de manière exhaustive sur les tâches de mémoire factuelle, de compréhension contextuelle et de mémoire associative. HippoRAG 2 s'appuie sur l'algorithme Personalized PageRank utilisé dans HippoRAG et l'améliore avec une intégration plus profonde des passages et une utilisation en ligne plus efficace d'un LLM. Cette combinaison rapproche ce système RAG de l'efficacité de la mémoire à long terme humaine, obtenant une amélioration de 7 % sur les tâches de mémoire associative par rapport au modèle d'embedding de pointe, tout en démontrant des capacités supérieures en matière de connaissances factuelles et de mémoire de compréhension contextuelle. Ce travail ouvre la voie à l'apprentissage continu non paramétrique pour les LLM. Notre code et nos données seront publiés sur https://github.com/OSU-NLP-Group/HippoRAG.
English
Our ability to continuously acquire, organize, and leverage knowledge is a
key feature of human intelligence that AI systems must approximate to unlock
their full potential. Given the challenges in continual learning with large
language models (LLMs), retrieval-augmented generation (RAG) has become the
dominant way to introduce new information. However, its reliance on vector
retrieval hinders its ability to mimic the dynamic and interconnected nature of
human long-term memory. Recent RAG approaches augment vector embeddings with
various structures like knowledge graphs to address some of these gaps, namely
sense-making and associativity. However, their performance on more basic
factual memory tasks drops considerably below standard RAG. We address this
unintended deterioration and propose HippoRAG 2, a framework that outperforms
standard RAG comprehensively on factual, sense-making, and associative memory
tasks. HippoRAG 2 builds upon the Personalized PageRank algorithm used in
HippoRAG and enhances it with deeper passage integration and more effective
online use of an LLM. This combination pushes this RAG system closer to the
effectiveness of human long-term memory, achieving a 7% improvement in
associative memory tasks over the state-of-the-art embedding model while also
exhibiting superior factual knowledge and sense-making memory capabilities.
This work paves the way for non-parametric continual learning for LLMs. Our
code and data will be released at https://github.com/OSU-NLP-Group/HippoRAG.Summary
AI-Generated Summary