Raffinement Adaptatif des Réponses par Agents Multiples dans les Systèmes Conversationnels
Adaptive Multi-Agent Response Refinement in Conversational Systems
November 11, 2025
papers.authors: Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko
cs.AI
papers.abstract
Les grands modèles de langage (LLM) ont démontré un succès remarquable dans les systèmes conversationnels en générant des réponses semblables à celles d'un humain. Cependant, ils peuvent présenter des limites, notamment lorsqu'il s'agit de prendre en compte la personnalisation ou des connaissances spécifiques. Dans des contextes réels, il est peu pratique de compter sur les utilisateurs pour détecter ces erreurs et demander une nouvelle réponse. Une façon de résoudre ce problème est d'affiner la réponse avant de la renvoyer à l'utilisateur. Bien que les approches existantes se concentrent sur l'affinement des réponses au sein d'un seul LLM, cette méthode peine à prendre en compte les divers aspects nécessaires à des conversations efficaces. Dans ce travail, nous proposons d'affiner les réponses par le biais d'un cadre multi-agents, où chaque agent se voit attribuer un rôle spécifique pour chaque aspect. Nous nous concentrons sur trois aspects clés cruciaux pour la qualité conversationnelle : la factualité, la personnalisation et la cohérence. Chaque agent est responsable de revoir et d'affiner l'un de ces aspects, et leurs retours sont ensuite fusionnés pour améliorer la réponse globale. Pour renforcer la collaboration entre eux, nous introduisons une stratégie de communication dynamique. Au lieu de suivre une séquence fixe d'agents, notre approche sélectionne et coordonne de manière adaptative les agents les plus pertinents en fonction des exigences spécifiques de chaque requête. Nous validons notre cadre sur des ensembles de données conversationnelles complexes, démontrant que notre méthode surpasse significativement les lignes de base pertinentes, en particulier dans les tâches impliquant des connaissances, le profil de l'utilisateur, ou les deux.
English
Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.