ChatPaper.aiChatPaper

Refinamiento Adaptativo de Respuestas Multiagente en Sistemas Conversacionales

Adaptive Multi-Agent Response Refinement in Conversational Systems

November 11, 2025
Autores: Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko
cs.AI

Resumen

Los Modelos de Lenguaje a Gran Escala (LLM) han demostrado un éxito notable en sistemas conversacionales al generar respuestas similares a las humanas. Sin embargo, pueden presentar deficiencias, especialmente cuando se requiere tener en cuenta la personalización o conocimientos específicos. En entornos de la vida real, resulta poco práctico depender de que los usuarios detecten estos errores y soliciten una nueva respuesta. Una forma de abordar este problema es refinar la respuesta antes de devolvérsela al usuario. Si bien los enfoques existentes se centran en refinar respuestas dentro de un único LLM, este método lucha por considerar los diversos aspectos necesarios para conversaciones efectivas. En este trabajo, proponemos refinar las respuestas mediante un marco de múltiples agentes, donde cada agente asume un rol específico para cada aspecto. Nos centramos en tres aspectos clave cruciales para la calidad conversacional: factualidad, personalización y coherencia. Cada agente es responsable de revisar y refinar uno de estos aspectos, y sus aportaciones se combinan posteriormente para mejorar la respuesta general. Para mejorar la colaboración entre ellos, introducimos una estrategia de comunicación dinámica. En lugar de seguir una secuencia fija de agentes, nuestro enfoque selecciona y coordina de forma adaptativa a los agentes más relevantes según los requisitos específicos de cada consulta. Validamos nuestro marco en conjuntos de datos conversacionales complejos, demostrando que nuestro sistema supera significativamente a las líneas base relevantes, particularmente en tareas que involucran conocimiento, la personalidad del usuario, o ambas.
English
Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.
PDF402December 2, 2025