ChatPaper.aiChatPaper

Refinamento Adaptativo de Respostas Multiagente em Sistemas Conversacionais

Adaptive Multi-Agent Response Refinement in Conversational Systems

November 11, 2025
Autores: Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko
cs.AI

Resumo

Os Grandes Modelos de Linguagem (LLMs) demonstraram sucesso notável em sistemas conversacionais ao gerar respostas semelhantes às humanas. No entanto, eles podem apresentar limitações, especialmente quando é necessário considerar a personalização ou conhecimentos específicos. Em ambientes do mundo real, é impraticável depender dos usuários para detectar esses erros e solicitar uma nova resposta. Uma maneira de abordar esse problema é refinar a resposta antes de devolvê-la ao usuário. Embora as abordagens existentes se concentrem em refinar respostas dentro de um único LLM, esse método tem dificuldade em considerar os diversos aspectos necessários para conversas eficazes. Neste trabalho, propomos refinar respostas por meio de uma estrutura multiagente, onde cada agente assume um papel específico para cada aspecto. Focamos em três aspectos-chave cruciais para a qualidade conversacional: factualidade, personalização e coerência. Cada agente é responsável por revisar e refinar um desses aspectos, e seus feedbacks são então combinados para melhorar a resposta geral. Para melhorar a colaboração entre eles, introduzimos uma estratégia de comunicação dinâmica. Em vez de seguir uma sequência fixa de agentes, nossa abordagem seleciona e coordena de forma adaptativa os agentes mais relevantes com base nos requisitos específicos de cada consulta. Validamos nossa estrutura em conjuntos de dados conversacionais desafiadores, demonstrando que nosso método supera significativamente as linhas de base relevantes, particularmente em tarefas que envolvem conhecimento, persona do usuário ou ambos.
English
Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.
PDF402December 2, 2025