ChatPaper.aiChatPaper

Aprendizaje Contextual para Discusión Multiagente

Context Learning for Multi-Agent Discussion

February 2, 2026
Autores: Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang, Ju Ren
cs.AI

Resumen

La Discusión Multi-Agente (MAD, por sus siglas en inglés) ha captado una atención creciente recientemente, donde múltiples instancias de LLM resuelven problemas de manera colaborativa mediante discusiones estructuradas. Sin embargo, descubrimos que los métodos MAD actuales sufren fácilmente de inconsistencia en la discusión, donde los LLM no logran alcanzar una solución coherente debido a la desalineación entre sus contextos individuales. En este artículo, presentamos un método de aprendizaje de contexto multi-LLM (M2CL) que entrena un generador de contexto para cada agente, capaz de generar instrucciones de contexto dinámicamente en cada ronda de discusión mediante la organización y refinamiento automático de la información. Específicamente, inspirados por nuestras perspectivas teóricas sobre la instrucción de contexto, M2CL entrena a los generadores para controlar la coherencia del contexto y las discrepancias en las salidas mediante un mecanismo de auto-adaptación cuidadosamente diseñado. Esto permite a los LLM evitar la convergencia prematura en el ruido mayoritario y alcanzar progresivamente el consenso correcto. Evaluamos M2CL en tareas desafiantes, incluyendo razonamiento académico, tareas corporizadas y control móvil. Los resultados muestran que el rendimiento de M2CL supera significativamente a los métodos existentes en un 20%–50%, mientras que disfruta de una favorable transferibilidad y eficiencia computacional.
English
Multi-Agent Discussion (MAD) has garnered increasing attention very recently, where multiple LLM instances collaboratively solve problems via structured discussion. However, we find that current MAD methods easily suffer from discussion inconsistency, LLMs fail to reach a coherent solution, due to the misalignment between their individual contexts.In this paper, we introduce a multi-LLM context learning method (M2CL) that learns a context generator for each agent, capable of dynamically generating context instructions per discussion round via automatic information organization and refinement. Specifically, inspired by our theoretical insights on the context instruction, M2CL train the generators to control context coherence and output discrepancies via a carefully crafted self-adaptive mechanism.It enables LLMs to avoid premature convergence on majority noise and progressively reach the correct consensus. We evaluate M2CL on challenging tasks, including academic reasoning, embodied tasks, and mobile control. The results show that the performance of M2CL significantly surpasses existing methods by 20%--50%, while enjoying favorable transferability and computational efficiency.
PDF41February 6, 2026