ChatPaper.aiChatPaper

LongMemEval: Avaliação de Referência de Assistentes de Chat na Memória Interativa de Longo Prazo

LongMemEval: Benchmarking Chat Assistants on Long-Term Interactive Memory

October 14, 2024
Autores: Di Wu, Hongwei Wang, Wenhao Yu, Yuwei Zhang, Kai-Wei Chang, Dong Yu
cs.AI

Resumo

Os recentes sistemas de assistentes de chat impulsionados por modelos de linguagem de grande escala (LLM) integraram componentes de memória para rastrear históricos de conversas entre usuário e assistente, permitindo respostas mais precisas e personalizadas. No entanto, suas capacidades de memória de longo prazo em interações sustentadas permanecem pouco exploradas. Este artigo apresenta o LongMemEval, um benchmark abrangente projetado para avaliar cinco habilidades principais de memória de longo prazo de assistentes de chat: extração de informações, raciocínio multi-sessão, raciocínio temporal, atualizações de conhecimento e abstenção. Com 500 perguntas meticulosamente selecionadas incorporadas em históricos de conversas entre usuário e assistente livremente escaláveis, o LongMemEval apresenta um desafio significativo para os sistemas de memória de longo prazo existentes, com assistentes de chat comerciais e LLMs de longo contexto mostrando uma queda de 30% na precisão ao memorizar informações ao longo de interações sustentadas. Em seguida, apresentamos um framework unificado que divide o design de memória de longo prazo em quatro escolhas de design nas etapas de indexação, recuperação e leitura. Com base em insights experimentais-chave, propomos vários designs de memória, incluindo decomposição de sessão para otimização da granularidade de valor, expansão de chave aumentada por fatos para aprimorar a estrutura do índice e expansão de consulta consciente do tempo para refinar o escopo da pesquisa. Os resultados dos experimentos mostram que essas otimizações melhoram significativamente tanto a recuperação de memória quanto a resposta a perguntas subsequentes no LongMemEval. No geral, nosso estudo fornece recursos valiosos e orientações para avançar as capacidades de memória de longo prazo dos assistentes de chat baseados em LLM, abrindo caminho para uma IA conversacional mais personalizada e confiável.
English
Recent large language model (LLM)-driven chat assistant systems have integrated memory components to track user-assistant chat histories, enabling more accurate and personalized responses. However, their long-term memory capabilities in sustained interactions remain underexplored. This paper introduces LongMemEval, a comprehensive benchmark designed to evaluate five core long-term memory abilities of chat assistants: information extraction, multi-session reasoning, temporal reasoning, knowledge updates, and abstention. With 500 meticulously curated questions embedded within freely scalable user-assistant chat histories, LongMemEval presents a significant challenge to existing long-term memory systems, with commercial chat assistants and long-context LLMs showing 30% accuracy drop on memorizing information across sustained interactions. We then present a unified framework that breaks down the long-term memory design into four design choices across the indexing, retrieval, and reading stages. Built upon key experimental insights, we propose several memory designs including session decomposition for optimizing value granularity, fact-augmented key expansion for enhancing the index structure, and time-aware query expansion for refining the search scope. Experiment results show that these optimizations greatly improve both memory recall and downstream question answering on LongMemEval. Overall, our study provides valuable resources and guidance for advancing the long-term memory capabilities of LLM-based chat assistants, paving the way toward more personalized and reliable conversational AI.

Summary

AI-Generated Summary

PDF122November 16, 2024