ChatPaper.aiChatPaper

Opportunités et risques des LLM pour une délibération scalable avec Polis

Opportunities and Risks of LLMs for Scalable Deliberation with Polis

June 20, 2023
Auteurs: Christopher T. Small, Ivan Vendrov, Esin Durmus, Hadjar Homaei, Elizabeth Barry, Julien Cornebise, Ted Suzman, Deep Ganguli, Colin Megill
cs.AI

Résumé

Polis est une plateforme qui exploite l'intelligence artificielle pour intensifier les processus délibératifs. Dans cet article, nous explorons les opportunités et les risques associés à l'application des modèles de langage de grande taille (LLMs) aux défis liés à la facilitation, la modération et la synthèse des résultats des engagements sur Polis. Plus précisément, nous démontrons, à travers des expériences pilotes utilisant Claude d'Anthropic, que les LLMs peuvent effectivement augmenter l'intelligence humaine pour aider à gérer plus efficacement les conversations sur Polis. En particulier, nous constatons que les capacités de synthèse permettent des méthodes entièrement nouvelles, prometteuses pour renforcer le public dans des exercices de construction collective de sens. Et de manière notable, les limitations contextuelles des LLMs ont un impact significatif sur la profondeur et la qualité de ces résultats. Cependant, ces opportunités s'accompagnent de risques. Nous discutons de certains de ces risques, ainsi que des principes et techniques pour les caractériser et les atténuer, et des implications pour d'autres systèmes délibératifs ou politiques qui pourraient employer des LLMs. Enfin, nous concluons avec plusieurs directions de recherche futures ouvertes pour améliorer des outils comme Polis avec des LLMs.
English
Polis is a platform that leverages machine intelligence to scale up deliberative processes. In this paper, we explore the opportunities and risks associated with applying Large Language Models (LLMs) towards challenges with facilitating, moderating and summarizing the results of Polis engagements. In particular, we demonstrate with pilot experiments using Anthropic's Claude that LLMs can indeed augment human intelligence to help more efficiently run Polis conversations. In particular, we find that summarization capabilities enable categorically new methods with immense promise to empower the public in collective meaning-making exercises. And notably, LLM context limitations have a significant impact on insight and quality of these results. However, these opportunities come with risks. We discuss some of these risks, as well as principles and techniques for characterizing and mitigating them, and the implications for other deliberative or political systems that may employ LLMs. Finally, we conclude with several open future research directions for augmenting tools like Polis with LLMs.
PDF60December 15, 2024