다중 에이전트 협업에서의 사고 전달
Thought Communication in Multiagent Collaboration
October 23, 2025
저자: Yujia Zheng, Zhuokai Zhao, Zijian Li, Yaqi Xie, Mingze Gao, Lizhu Zhang, Kun Zhang
cs.AI
초록
자연어는 오랫동안 인간의 협력을 가능하게 해왔지만, 그 손실성과 모호성, 간접적인 특성은 집단 지성의 잠재력을 제한합니다. 기계는 이러한 제약을 받지 않음에도 대부분의 LLM 기반 다중 에이전트 시스템은 토큰이나 그 임베딩을 교환하며 자연어에만 의존하고 있습니다. 언어를 넘어서기 위해 우리는 새로운 패러다임인 '사고 통신(thought communication)'을 소개합니다. 이는 텔레파시와 유사하게 에이전트가 마음과 마음으로 직접 상호작용할 수 있게 합니다. 이러한 잠재적 사고를 체계적으로 발견하기 위해 우리는 이 과정을 일반적인 잠재 변수 모델로 정형화합니다. 여기서 에이전트 상태는 근본적인 사고의 알려지지 않은 함수에 의해 생성됩니다. 우리는 보조 정보 없이 비모수적 설정에서 어떤 에이전트 쌍 간의 공유 및 비공개 잠재 사고가 모두 식별 가능함을 증명합니다. 나아가, 어떤 에이전트가 어떤 사고를 공유하는지, 이러한 관계가 어떻게 구조화되는지를 포함한 사고 공유의 글로벌 구조도 이론적 보장 하에 복원될 수 있음을 보입니다. 정립된 이론에 기반하여, 우리는 통신 전 모든 에이전트로부터 잠재 사고를 추출하고 각 에이전트에게 관련 사고와 그 공유 패턴을 할당하는 프레임워크를 개발했습니다. 이 패러다임은 대부분의 관측 데이터가 숨겨진 생성 과정에서 비롯되므로, LLM을 넘어 모든 모달리티로 자연스럽게 확장됩니다. 합성 및 실제 벤치마크에 대한 실험은 이론을 검증하고 사고 통신의 협력적 이점을 입증합니다. 우리는 이 연구가 계산이나 데이터 규모와 무관하게 표면적 관찰만으로는 해결되지 않는 많은 과제들이 있듯이, 숨겨진 세계를 활용하는 잠재력을 밝히는 데 기여하기를 바랍니다.
English
Natural language has long enabled human cooperation, but its lossy,
ambiguous, and indirect nature limits the potential of collective intelligence.
While machines are not subject to these constraints, most LLM-based multi-agent
systems still rely solely on natural language, exchanging tokens or their
embeddings. To go beyond language, we introduce a new paradigm, thought
communication, which enables agents to interact directly mind-to-mind, akin to
telepathy. To uncover these latent thoughts in a principled way, we formalize
the process as a general latent variable model, where agent states are
generated by an unknown function of underlying thoughts. We prove that, in a
nonparametric setting without auxiliary information, both shared and private
latent thoughts between any pair of agents can be identified. Moreover, the
global structure of thought sharing, including which agents share which
thoughts and how these relationships are structured, can also be recovered with
theoretical guarantees. Guided by the established theory, we develop a
framework that extracts latent thoughts from all agents prior to communication
and assigns each agent the relevant thoughts, along with their sharing
patterns. This paradigm naturally extends beyond LLMs to all modalities, as
most observational data arise from hidden generative processes. Experiments on
both synthetic and real-world benchmarks validate the theory and demonstrate
the collaborative advantages of thought communication. We hope this work
illuminates the potential of leveraging the hidden world, as many challenges
remain unsolvable through surface-level observation alone, regardless of
compute or data scale.