ChatPaper.aiChatPaper

Raffinamento Adattivo delle Risposte con Agenti Multipli nei Sistemi Conversazionali

Adaptive Multi-Agent Response Refinement in Conversational Systems

November 11, 2025
Autori: Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko
cs.AI

Abstract

I grandi modelli linguistici (LLM) hanno dimostrato un notevole successo nei sistemi conversazionali generando risposte simili a quelle umane. Tuttavia, possono risultare carenti, specialmente quando è necessario tenere conto della personalizzazione o di conoscenze specifiche. In contesti reali, è impraticabile fare affidamento sugli utenti per rilevare questi errori e richiedere una nuova risposta. Un modo per affrontare questo problema è affinare la risposta prima di restituirla all'utente. Sebbene gli approcci esistenti si concentrino sul perfezionamento delle risposte all'interno di un singolo LLM, questo metodo fatica a considerare gli aspetti diversificati necessari per conversazioni efficaci. In questo lavoro, proponiamo di perfezionare le risposte attraverso un framework multi-agente, in cui a ciascun agente viene assegnato un ruolo specifico per ciascun aspetto. Ci concentriamo su tre aspetti chiave cruciali per la qualità conversazionale: fattualità, personalizzazione e coerenza. Ogni agente è responsabile di rivedere e perfezionare uno di questi aspetti, e il loro feedback viene poi unito per migliorare la risposta complessiva. Per potenziare la collaborazione tra di loro, introduciamo una strategia di comunicazione dinamica. Invece di seguire una sequenza fissa di agenti, il nostro approccio seleziona e coordina in modo adattivo gli agenti più rilevanti in base alle esigenze specifiche di ogni query. Convalidiamo il nostro framework su dataset conversazionali complessi, dimostrando che il nostro metodo supera significativamente i baseline di riferimento, in particolare nei compiti che coinvolgono la conoscenza o la persona dell'utente, o entrambi.
English
Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.
PDF402December 2, 2025