ChatPaper.aiChatPaper

Aprendizagem Contextual para Discussão Multiagente

Context Learning for Multi-Agent Discussion

February 2, 2026
Autores: Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang, Ju Ren
cs.AI

Resumo

A Discussão Multiagente (MAD, na sigla em inglês) tem recebido crescente atenção recentemente, na qual múltiplas instâncias de LLM resolvem problemas colaborativamente por meio de discussões estruturadas. No entanto, verificamos que os métodos atuais de MAD são facilmente afetados por inconsistência na discussão, onde os LLMs não conseguem chegar a uma solução coerente devido ao desalinhamento entre os seus contextos individuais. Neste artigo, introduzimos um método de aprendizagem de contexto multi-LLM (M2CL) que aprende um gerador de contexto para cada agente, capaz de gerar dinamicamente instruções de contexto a cada rodada de discussão por meio da organização e refinamento automático de informações. Especificamente, inspirados pelas nossas percepções teóricas sobre a instrução de contexto, o M2CL treina os geradores para controlar a coerência do contexto e as discrepâncias de saída por meio de um mecanismo de auto-adaptação cuidadosamente elaborado. Isso permite que os LLMs evitem a convergência prematura para ruído majoritário e atinjam progressivamente o consenso correto. Avaliamos o M2CL em tarefas desafiadoras, incluindo raciocínio académico, tarefas corporificadas e controlo móvel. Os resultados mostram que o desempenho do M2CL supera significativamente os métodos existentes em 20% a 50%, apresentando ainda uma transferibilidade e eficiência computacional favoráveis.
English
Multi-Agent Discussion (MAD) has garnered increasing attention very recently, where multiple LLM instances collaboratively solve problems via structured discussion. However, we find that current MAD methods easily suffer from discussion inconsistency, LLMs fail to reach a coherent solution, due to the misalignment between their individual contexts.In this paper, we introduce a multi-LLM context learning method (M2CL) that learns a context generator for each agent, capable of dynamically generating context instructions per discussion round via automatic information organization and refinement. Specifically, inspired by our theoretical insights on the context instruction, M2CL train the generators to control context coherence and output discrepancies via a carefully crafted self-adaptive mechanism.It enables LLMs to avoid premature convergence on majority noise and progressively reach the correct consensus. We evaluate M2CL on challenging tasks, including academic reasoning, embodied tasks, and mobile control. The results show that the performance of M2CL significantly surpasses existing methods by 20%--50%, while enjoying favorable transferability and computational efficiency.
PDF43February 8, 2026