ChatPaper.aiChatPaper

От RAG к памяти: непараметрическое непрерывное обучение для больших языковых моделей

From RAG to Memory: Non-Parametric Continual Learning for Large Language Models

February 20, 2025
Авторы: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su
cs.AI

Аннотация

Способность непрерывно приобретать, организовывать и использовать знания является ключевой особенностью человеческого интеллекта, которую системы искусственного интеллекта (ИИ) должны приблизить, чтобы раскрыть свой полный потенциал. Учитывая сложности в непрерывном обучении больших языковых моделей (LLM), генерация, усиленная поиском (RAG), стала основным способом внедрения новой информации. Однако зависимость от векторного поиска ограничивает её способность имитировать динамическую и взаимосвязанную природу человеческой долговременной памяти. Современные подходы RAG дополняют векторные вложения различными структурами, такими как графы знаний, чтобы устранить некоторые из этих пробелов, а именно осмысление и ассоциативность. Однако их производительность на более простых задачах фактологической памяти значительно уступает стандартному RAG. Мы устраняем это непреднамеренное ухудшение и предлагаем HippoRAG 2 — фреймворк, который превосходит стандартный RAG по всем параметрам: в задачах фактологической памяти, осмысления и ассоциативной памяти. HippoRAG 2 основывается на алгоритме Personalized PageRank, использованном в HippoRAG, и улучшает его за счёт более глубокой интеграции текстовых фрагментов и более эффективного онлайн-использования LLM. Это сочетание приближает данную систему RAG к эффективности человеческой долговременной памяти, демонстрируя улучшение на 7% в задачах ассоциативной памяти по сравнению с современной моделью векторных вложений, а также превосходные способности в области фактологических знаний и осмысления. Эта работа прокладывает путь для непараметрического непрерывного обучения LLM. Наш код и данные будут опубликованы на https://github.com/OSU-NLP-Group/HippoRAG.
English
Our ability to continuously acquire, organize, and leverage knowledge is a key feature of human intelligence that AI systems must approximate to unlock their full potential. Given the challenges in continual learning with large language models (LLMs), retrieval-augmented generation (RAG) has become the dominant way to introduce new information. However, its reliance on vector retrieval hinders its ability to mimic the dynamic and interconnected nature of human long-term memory. Recent RAG approaches augment vector embeddings with various structures like knowledge graphs to address some of these gaps, namely sense-making and associativity. However, their performance on more basic factual memory tasks drops considerably below standard RAG. We address this unintended deterioration and propose HippoRAG 2, a framework that outperforms standard RAG comprehensively on factual, sense-making, and associative memory tasks. HippoRAG 2 builds upon the Personalized PageRank algorithm used in HippoRAG and enhances it with deeper passage integration and more effective online use of an LLM. This combination pushes this RAG system closer to the effectiveness of human long-term memory, achieving a 7% improvement in associative memory tasks over the state-of-the-art embedding model while also exhibiting superior factual knowledge and sense-making memory capabilities. This work paves the way for non-parametric continual learning for LLMs. Our code and data will be released at https://github.com/OSU-NLP-Group/HippoRAG.

Summary

AI-Generated Summary

PDF132February 21, 2025