ChatPaper.aiChatPaper

Meta-Prompting: Verbesserung von Sprachmodellen durch aufgabenunabhängige Gerüststrukturen

Meta-Prompting: Enhancing Language Models with Task-Agnostic Scaffolding

January 23, 2024
Autoren: Mirac Suzgun, Adam Tauman Kalai
cs.AI

Zusammenfassung

Wir stellen Meta-Prompting vor, eine effektive Scaffolding-Technik, die entwickelt wurde, um die Funktionalität von Sprachmodellen (LMs) zu verbessern. Dieser Ansatz verwandelt ein einzelnes LM in einen vielseitigen Dirigenten, der geschickt mehrere unabhängige LM-Abfragen verwaltet und integriert. Durch den Einsatz von hochrangigen Anweisungen leitet Meta-Prompting das LM an, komplexe Aufgaben in kleinere, besser handhabbare Teilaufgaben zu zerlegen. Diese Teilaufgaben werden dann von verschiedenen „Experten“-Instanzen desselben LM bearbeitet, die jeweils unter spezifischen, maßgeschneiderten Anweisungen operieren. Kern dieses Prozesses ist das LM selbst in seiner Rolle als Dirigent, das eine nahtlose Kommunikation und effektive Integration der Ausgaben dieser Expertenmodelle sicherstellt. Es nutzt zudem seine inhärenten Fähigkeiten zum kritischen Denken und robuste Verifizierungsprozesse, um das Endergebnis zu verfeinern und zu authentifizieren. Dieser kollaborative Prompting-Ansatz befähigt ein einzelnes LM, gleichzeitig als umfassender Orchestrator und als Panel diverser Experten zu agieren, wodurch seine Leistung über eine breite Palette von Aufgaben signifikant gesteigert wird. Die Zero-Shot-, Aufgaben-agnostische Natur von Meta-Prompting vereinfacht die Benutzerinteraktion erheblich, da detaillierte, aufgabenbezogene Anweisungen entfallen. Darüber hinaus zeigt unsere Forschung die nahtlose Integration externer Tools, wie beispielsweise eines Python-Interpreters, in das Meta-Prompting-Framework, wodurch dessen Anwendbarkeit und Nutzen erweitert werden. Durch rigorose Experimente mit GPT-4 belegen wir die Überlegenheit von Meta-Prompting gegenüber konventionellen Scaffolding-Methoden: Im Durchschnitt über alle Aufgaben, einschließlich des Spiels der 24, Schachmatt-in-Einem und Python-Programmierrätsel, übertrifft Meta-Prompting, erweitert um eine Python-Interpreter-Funktionalität, Standard-Prompting um 17,1 %, Expert (Dynamic)-Prompting um 17,3 % und Multipersona-Prompting um 15,2 %.
English
We introduce meta-prompting, an effective scaffolding technique designed to enhance the functionality of language models (LMs). This approach transforms a single LM into a multi-faceted conductor, adept at managing and integrating multiple independent LM queries. By employing high-level instructions, meta-prompting guides the LM to break down complex tasks into smaller, more manageable subtasks. These subtasks are then handled by distinct "expert" instances of the same LM, each operating under specific, tailored instructions. Central to this process is the LM itself, in its role as the conductor, which ensures seamless communication and effective integration of the outputs from these expert models. It additionally employs its inherent critical thinking and robust verification processes to refine and authenticate the end result. This collaborative prompting approach empowers a single LM to simultaneously act as a comprehensive orchestrator and a panel of diverse experts, significantly enhancing its performance across a wide array of tasks. The zero-shot, task-agnostic nature of meta-prompting greatly simplifies user interaction by obviating the need for detailed, task-specific instructions. Furthermore, our research demonstrates the seamless integration of external tools, such as a Python interpreter, into the meta-prompting framework, thereby broadening its applicability and utility. Through rigorous experimentation with GPT-4, we establish the superiority of meta-prompting over conventional scaffolding methods: When averaged across all tasks, including the Game of 24, Checkmate-in-One, and Python Programming Puzzles, meta-prompting, augmented with a Python interpreter functionality, surpasses standard prompting by 17.1%, expert (dynamic) prompting by 17.3%, and multipersona prompting by 15.2%.
PDF325December 15, 2024