ChatPaper.aiChatPaper

Возможности и риски использования крупных языковых моделей для масштабируемого обсуждения с помощью Polis

Opportunities and Risks of LLMs for Scalable Deliberation with Polis

June 20, 2023
Авторы: Christopher T. Small, Ivan Vendrov, Esin Durmus, Hadjar Homaei, Elizabeth Barry, Julien Cornebise, Ted Suzman, Deep Ganguli, Colin Megill
cs.AI

Аннотация

Polis — это платформа, которая использует машинный интеллект для масштабирования делиберативных процессов. В данной статье мы исследуем возможности и риски, связанные с применением больших языковых моделей (LLM) для решения задач, связанных с организацией, модерацией и обобщением результатов взаимодействий на платформе Polis. В частности, мы демонстрируем на пилотных экспериментах с использованием модели Claude от Anthropic, что LLM действительно могут дополнять человеческий интеллект, помогая более эффективно проводить беседы в Polis. Особенно мы отмечаем, что возможности обобщения открывают принципиально новые методы, которые обладают огромным потенциалом для вовлечения общественности в коллективные процессы осмысления. При этом важно отметить, что ограничения контекста LLM существенно влияют на глубину и качество получаемых результатов. Однако эти возможности сопряжены с рисками. Мы обсуждаем некоторые из этих рисков, а также принципы и методы для их характеристики и смягчения, а также последствия для других делиберативных или политических систем, которые могут использовать LLM. В заключение мы предлагаем несколько направлений для будущих исследований, связанных с улучшением инструментов, подобных Polis, с помощью LLM.
English
Polis is a platform that leverages machine intelligence to scale up deliberative processes. In this paper, we explore the opportunities and risks associated with applying Large Language Models (LLMs) towards challenges with facilitating, moderating and summarizing the results of Polis engagements. In particular, we demonstrate with pilot experiments using Anthropic's Claude that LLMs can indeed augment human intelligence to help more efficiently run Polis conversations. In particular, we find that summarization capabilities enable categorically new methods with immense promise to empower the public in collective meaning-making exercises. And notably, LLM context limitations have a significant impact on insight and quality of these results. However, these opportunities come with risks. We discuss some of these risks, as well as principles and techniques for characterizing and mitigating them, and the implications for other deliberative or political systems that may employ LLMs. Finally, we conclude with several open future research directions for augmenting tools like Polis with LLMs.
PDF60December 15, 2024