ChatPaper.aiChatPaper

폴리스를 활용한 확장 가능한 숙의를 위한 대형 언어 모델(LLM)의 기회와 위험

Opportunities and Risks of LLMs for Scalable Deliberation with Polis

June 20, 2023
저자: Christopher T. Small, Ivan Vendrov, Esin Durmus, Hadjar Homaei, Elizabeth Barry, Julien Cornebise, Ted Suzman, Deep Ganguli, Colin Megill
cs.AI

초록

Polis는 기계 지능을 활용하여 의사소통 과정을 확장하는 플랫폼입니다. 본 논문에서는 대규모 언어 모델(LLMs)을 Polis 참여 과정의 촉진, 조정 및 결과 요약과 관련된 과제에 적용할 때의 기회와 위험을 탐구합니다. 특히, Anthropic의 Claude를 사용한 파일럿 실험을 통해 LLMs가 인간의 지능을 보완하여 Polis 대화를 보다 효율적으로 운영하는 데 도움을 줄 수 있음을 입증합니다. 특히, 요약 능력은 대중이 집단적 의미 형성 활동에서 힘을 얻을 수 있는 새로운 방법을 가능하게 하며, 이는 엄청난 잠재력을 가지고 있습니다. 또한, LLM의 컨텍스트 제한은 이러한 결과의 통찰력과 품질에 상당한 영향을 미치는 것으로 나타났습니다. 그러나 이러한 기회에는 위험도 따릅니다. 본 논문에서는 이러한 위험과 이를 특성화하고 완화하기 위한 원칙 및 기술, 그리고 LLMs를 사용할 수 있는 다른 의사결정 또는 정치 시스템에 대한 함의를 논의합니다. 마지막으로, LLMs를 활용하여 Polis와 같은 도구를 보완하기 위한 여러 미래 연구 방향을 제시하며 결론을 맺습니다.
English
Polis is a platform that leverages machine intelligence to scale up deliberative processes. In this paper, we explore the opportunities and risks associated with applying Large Language Models (LLMs) towards challenges with facilitating, moderating and summarizing the results of Polis engagements. In particular, we demonstrate with pilot experiments using Anthropic's Claude that LLMs can indeed augment human intelligence to help more efficiently run Polis conversations. In particular, we find that summarization capabilities enable categorically new methods with immense promise to empower the public in collective meaning-making exercises. And notably, LLM context limitations have a significant impact on insight and quality of these results. However, these opportunities come with risks. We discuss some of these risks, as well as principles and techniques for characterizing and mitigating them, and the implications for other deliberative or political systems that may employ LLMs. Finally, we conclude with several open future research directions for augmenting tools like Polis with LLMs.
PDF60December 15, 2024