ChatPaper.aiChatPaper

Libérer la Synergie Cognitive dans les Modèles de Langage à Grande Échelle : Un Agent de Résolution de Tâches par Auto-Collaboration Multi-Personnalité

Unleashing Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration

July 11, 2023
Auteurs: Zhenhailong Wang, Shaoguang Mao, Wenshan Wu, Tao Ge, Furu Wei, Heng Ji
cs.AI

Résumé

L'intelligence humaine prospère grâce au concept de synergie cognitive, où la collaboration et l'intégration d'informations entre différents processus cognitifs produisent des résultats supérieurs par rapport à des processus cognitifs individuels isolés. Bien que les modèles de langage à grande échelle (LLMs) aient démontré des performances prometteuses en tant qu'agents généraux de résolution de tâches, ils peinent encore face à des tâches nécessitant une expertise approfondie dans un domaine et un raisonnement complexe. Dans ce travail, nous proposons le Solo Performance Prompting (SPP), qui transforme un seul LLM en un synergiste cognitif en engageant une auto-collaboration multi-tours avec plusieurs personnalités. Un synergiste cognitif désigne un agent intelligent qui collabore avec plusieurs esprits, combinant leurs forces et connaissances individuelles, pour améliorer la résolution de problèmes et la performance globale dans des tâches complexes. En identifiant et simulant dynamiquement différentes personnalités en fonction des entrées de tâches, le SPP libère le potentiel de la synergie cognitive dans les LLMs. Nous avons découvert que l'attribution de plusieurs personnalités fines et granulaires dans les LLMs suscite de meilleures capacités de résolution de problèmes par rapport à l'utilisation d'une seule ou d'un nombre fixe de personnalités. Nous évaluons le SPP sur trois tâches complexes : la rédaction créative de trivia, le jeu collaboratif Codenames et les énigmes de grille logique, couvrant à la fois des types de tâches intensives en connaissances et en raisonnement. Contrairement aux travaux précédents, tels que Chain-of-Thought, qui améliorent uniquement les capacités de raisonnement des LLMs, le SPP suscite efficacement les capacités d'acquisition de connaissances internes, réduit les hallucinations et maintient de solides capacités de raisonnement. Le code, les données et les prompts sont disponibles à l'adresse suivante : https://github.com/MikeWangWZHL/Solo-Performance-Prompting.git.
English
Human intelligence thrives on the concept of cognitive synergy, where collaboration and information integration among different cognitive processes yield superior outcomes compared to individual cognitive processes in isolation. Although Large Language Models (LLMs) have demonstrated promising performance as general task-solving agents, they still struggle with tasks that require intensive domain knowledge and complex reasoning. In this work, we propose Solo Performance Prompting (SPP), which transforms a single LLM into a cognitive synergist by engaging in multi-turn self-collaboration with multiple personas. A cognitive synergist refers to an intelligent agent that collaborates with multiple minds, combining their individual strengths and knowledge, to enhance problem-solving and overall performance in complex tasks. By dynamically identifying and simulating different personas based on task inputs, SPP unleashes the potential of cognitive synergy in LLMs. We have discovered that assigning multiple, fine-grained personas in LLMs elicits better problem-solving abilities compared to using a single or fixed number of personas. We evaluate SPP on three challenging tasks: Trivia Creative Writing, Codenames Collaborative, and Logic Grid Puzzle, encompassing both knowledge-intensive and reasoning-intensive types. Unlike previous works, such as Chain-of-Thought, that solely enhance the reasoning abilities in LLMs, SPP effectively elicits internal knowledge acquisition abilities, reduces hallucination, and maintains strong reasoning capabilities. Code, data, and prompts can be found at: https://github.com/MikeWangWZHL/Solo-Performance-Prompting.git.
PDF190December 15, 2024