더 많은 에이전트가 필요할 뿐이다
More Agents Is All You Need
February 3, 2024
저자: Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, Deheng Ye
cs.AI
초록
단순히 샘플링 및 투표 방식을 통해 대규모 언어 모델(LLM)의 성능이 인스턴스화된 에이전트의 수에 따라 확장된다는 것을 발견하였다. 또한, 이 방법은 기존의 복잡한 방법들과 직교적이며, LLM을 더욱 향상시키는 데 있어서 그 정도는 작업의 난이도와 상관관계가 있다. 우리는 이러한 발견의 존재를 검증하고, 이를 촉진할 수 있는 특성을 연구하기 위해 다양한 LLM 벤치마크에 대한 포괄적인 실험을 수행하였다. 우리의 코드는 https://anonymous.4open.science/r/more_agent_is_all_you_need에서 공개적으로 이용 가능하다.
English
We find that, simply via a sampling-and-voting method, the performance of
large language models (LLMs) scales with the number of agents instantiated.
Also, this method is orthogonal to existing complicated methods to further
enhance LLMs, while the degree of enhancement is correlated to the task
difficulty. We conduct comprehensive experiments on a wide range of LLM
benchmarks to verify the presence of our finding, and to study the properties
that can facilitate its occurrence. Our code is publicly available at:
https://anonymous.4open.science/r/more_agent_is_all_you_need.