ChatPaper.aiChatPaper

THEANINE : Repenser la gestion de la mémoire dans les conversations à long terme avec une génération de réponses augmentée par une ligne temporelle

THEANINE: Revisiting Memory Management in Long-term Conversations with Timeline-augmented Response Generation

June 16, 2024
Auteurs: Seo Hyun Kim, Kai Tzu-iunn Ong, Taeyoon Kwon, Namyoung Kim, Keummin Ka, SeongHyeon Bae, Yohan Jo, Seung-won Hwang, Dongha Lee, Jinyoung Yeo
cs.AI

Résumé

Les grands modèles de langage (LLMs) sont capables de traiter des historiques de dialogue étendus lors d'interactions prolongées avec les utilisateurs sans modules de mémoire supplémentaires ; cependant, leurs réponses ont tendance à négliger ou à rappeler incorrectement des informations passées. Dans cet article, nous revisitons la génération de réponses augmentée par la mémoire à l'ère des LLMs. Alors que les travaux précédents se concentrent sur l'élimination des souvenirs obsolètes, nous soutenons que ces souvenirs peuvent fournir des indices contextuels qui aident les systèmes de dialogue à comprendre le développement des événements passés et, par conséquent, à améliorer la génération de réponses. Nous présentons Theanine, un cadre qui enrichit la génération de réponses des LLMs avec des chronologies de mémoire — des séries de souvenirs qui illustrent le développement et la causalité des événements passés pertinents. Parallèlement à Theanine, nous introduisons TeaFarm, un pipeline de questions-réponses basé sur des scénarios contrefactuels qui aborde les limites de G-Eval dans les conversations à long terme. Des vidéos supplémentaires de nos méthodes et le jeu de données TeaBag pour l'évaluation de TeaFarm sont disponibles sur https://theanine-693b0.web.app/.
English
Large language models (LLMs) are capable of processing lengthy dialogue histories during prolonged interaction with users without additional memory modules; however, their responses tend to overlook or incorrectly recall information from the past. In this paper, we revisit memory-augmented response generation in the era of LLMs. While prior work focuses on getting rid of outdated memories, we argue that such memories can provide contextual cues that help dialogue systems understand the development of past events and, therefore, benefit response generation. We present Theanine, a framework that augments LLMs' response generation with memory timelines -- series of memories that demonstrate the development and causality of relevant past events. Along with Theanine, we introduce TeaFarm, a counterfactual-driven question-answering pipeline addressing the limitation of G-Eval in long-term conversations. Supplementary videos of our methods and the TeaBag dataset for TeaFarm evaluation are in https://theanine-693b0.web.app/.

Summary

AI-Generated Summary

PDF351December 6, 2024