ChatPaper.aiChatPaper

LongMemEval : Évaluation comparative des assistants de discussion sur la mémoire interactive à long terme

LongMemEval: Benchmarking Chat Assistants on Long-Term Interactive Memory

October 14, 2024
Auteurs: Di Wu, Hongwei Wang, Wenhao Yu, Yuwei Zhang, Kai-Wei Chang, Dong Yu
cs.AI

Résumé

Les récents systèmes d'assistant de discussion pilotés par de grands modèles de langage (LLM) ont intégré des composants de mémoire pour suivre les historiques de discussion utilisateur-assistant, permettant des réponses plus précises et personnalisées. Cependant, leurs capacités de mémoire à long terme dans des interactions soutenues restent peu explorées. Cet article présente LongMemEval, un banc d'essai complet conçu pour évaluer cinq capacités fondamentales de mémoire à long terme des assistants de discussion : l'extraction d'informations, le raisonnement multi-session, le raisonnement temporel, les mises à jour de connaissances et l'abstention. Avec 500 questions méticuleusement sélectionnées intégrées dans des historiques de discussion utilisateur-assistant librement évolutifs, LongMemEval représente un défi majeur pour les systèmes de mémoire à long terme existants, les assistants de discussion commerciaux et les LLM à long contexte montrant une baisse de précision de 30 % dans la mémorisation des informations à travers des interactions soutenues. Nous présentons ensuite un cadre unifié qui décompose la conception de la mémoire à long terme en quatre choix de conception à travers les étapes d'indexation, de récupération et de lecture. Basé sur des idées expérimentales clés, nous proposons plusieurs conceptions de mémoire, y compris la décomposition de session pour optimiser la granularité de la valeur, l'expansion de clé augmentée par les faits pour améliorer la structure de l'index, et l'expansion de requête consciente du temps pour affiner la portée de la recherche. Les résultats des expériences montrent que ces optimisations améliorent considérablement à la fois le rappel de la mémoire et la réponse aux questions en aval sur LongMemEval. Dans l'ensemble, notre étude fournit des ressources précieuses et des orientations pour faire progresser les capacités de mémoire à long terme des assistants de discussion basés sur LLM, ouvrant la voie vers une IA conversationnelle plus personnalisée et fiable.
English
Recent large language model (LLM)-driven chat assistant systems have integrated memory components to track user-assistant chat histories, enabling more accurate and personalized responses. However, their long-term memory capabilities in sustained interactions remain underexplored. This paper introduces LongMemEval, a comprehensive benchmark designed to evaluate five core long-term memory abilities of chat assistants: information extraction, multi-session reasoning, temporal reasoning, knowledge updates, and abstention. With 500 meticulously curated questions embedded within freely scalable user-assistant chat histories, LongMemEval presents a significant challenge to existing long-term memory systems, with commercial chat assistants and long-context LLMs showing 30% accuracy drop on memorizing information across sustained interactions. We then present a unified framework that breaks down the long-term memory design into four design choices across the indexing, retrieval, and reading stages. Built upon key experimental insights, we propose several memory designs including session decomposition for optimizing value granularity, fact-augmented key expansion for enhancing the index structure, and time-aware query expansion for refining the search scope. Experiment results show that these optimizations greatly improve both memory recall and downstream question answering on LongMemEval. Overall, our study provides valuable resources and guidance for advancing the long-term memory capabilities of LLM-based chat assistants, paving the way toward more personalized and reliable conversational AI.

Summary

AI-Generated Summary

PDF122November 16, 2024