ChatPaper.aiChatPaper

다중 에이전트 토론을 위한 컨텍스트 학습

Context Learning for Multi-Agent Discussion

February 2, 2026
저자: Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang, Ju Ren
cs.AI

초록

최근 다중 에이전트 토론(MAD)이 점차 주목받고 있으며, 여러 LLM 인스턴스가 구조화된 토론을 통해 협력적으로 문제를 해결하는 방식입니다. 그러나 기존 MAD 방법론은 개별 에이전트 간 컨텍스트 불일치로 인해 논의 일관성이 쉽게 저하되고 LLM이 일관된 해결책에 도달하지 못하는 한계가 있습니다. 본 논문에서는 자동 정보 구성 및 정제를 통해 각 토론 라운드별로 동적으로 컨텍스트 지시문을 생성할 수 있는 컨텍스트 생성기를 각 에이전트에 학습시키는 다중 LLM 컨텍스트 학습 방법(M2CL)을 제안합니다. 구체적으로, 컨텍스트 지시문에 대한 이론적 통찰을 바탕으로 M2CL은 자기 조정 메커니즘을 통해 컨텍스트 일관성과 출력 차이를 제어하도록 생성기를 학습합니다. 이를 통해 LLM이 다수 의견의 잡음에 대한 조기 수렴을 방지하고 점차적으로 올바른 합의에 도달할 수 있습니다. M2CL은 학술적 추론, 구현 과제, 모바일 제어 등 복잡한 과제에서 평가되었으며, 기존 방법론 대비 20%~50% 우수한 성능을 보였을 뿐만 아니라 우수한 전이성과 계산 효율성을 확인하였습니다.
English
Multi-Agent Discussion (MAD) has garnered increasing attention very recently, where multiple LLM instances collaboratively solve problems via structured discussion. However, we find that current MAD methods easily suffer from discussion inconsistency, LLMs fail to reach a coherent solution, due to the misalignment between their individual contexts.In this paper, we introduce a multi-LLM context learning method (M2CL) that learns a context generator for each agent, capable of dynamically generating context instructions per discussion round via automatic information organization and refinement. Specifically, inspired by our theoretical insights on the context instruction, M2CL train the generators to control context coherence and output discrepancies via a carefully crafted self-adaptive mechanism.It enables LLMs to avoid premature convergence on majority noise and progressively reach the correct consensus. We evaluate M2CL on challenging tasks, including academic reasoning, embodied tasks, and mobile control. The results show that the performance of M2CL significantly surpasses existing methods by 20%--50%, while enjoying favorable transferability and computational efficiency.
PDF41February 6, 2026