ChatPaper.aiChatPaper

Meta-Prompting: Mejorando Modelos de Lenguaje con Andamiaje Independiente de la Tarea

Meta-Prompting: Enhancing Language Models with Task-Agnostic Scaffolding

January 23, 2024
Autores: Mirac Suzgun, Adam Tauman Kalai
cs.AI

Resumen

Presentamos el meta-prompting, una técnica de andamiaje efectiva diseñada para mejorar la funcionalidad de los modelos de lenguaje (LMs). Este enfoque transforma un único LM en un conductor multifacético, hábil en la gestión e integración de múltiples consultas independientes de LMs. Al emplear instrucciones de alto nivel, el meta-prompting guía al LM para descomponer tareas complejas en subtareas más pequeñas y manejables. Estas subtareas son luego manejadas por instancias "expertas" distintas del mismo LM, cada una operando bajo instrucciones específicas y personalizadas. Central a este proceso es el propio LM, en su rol de conductor, que asegura una comunicación fluida y una integración efectiva de los resultados de estos modelos expertos. Además, emplea su pensamiento crítico inherente y procesos de verificación robustos para refinar y autenticar el resultado final. Este enfoque colaborativo de prompting permite que un único LM actúe simultáneamente como un orquestador integral y un panel de expertos diversos, mejorando significativamente su rendimiento en una amplia gama de tareas. La naturaleza zero-shot y agnóstica a la tarea del meta-prompting simplifica enormemente la interacción del usuario al eliminar la necesidad de instrucciones detalladas y específicas para cada tarea. Además, nuestra investigación demuestra la integración fluida de herramientas externas, como un intérprete de Python, en el marco del meta-prompting, ampliando así su aplicabilidad y utilidad. A través de experimentación rigurosa con GPT-4, establecemos la superioridad del meta-prompting sobre los métodos convencionales de andamiaje: en promedio, en todas las tareas, incluyendo el Juego del 24, Jaque Mate en Uno y Acertijos de Programación en Python, el meta-prompting, aumentado con la funcionalidad de un intérprete de Python, supera al prompting estándar en un 17.1%, al prompting experto (dinámico) en un 17.3% y al prompting multipersona en un 15.2%.
English
We introduce meta-prompting, an effective scaffolding technique designed to enhance the functionality of language models (LMs). This approach transforms a single LM into a multi-faceted conductor, adept at managing and integrating multiple independent LM queries. By employing high-level instructions, meta-prompting guides the LM to break down complex tasks into smaller, more manageable subtasks. These subtasks are then handled by distinct "expert" instances of the same LM, each operating under specific, tailored instructions. Central to this process is the LM itself, in its role as the conductor, which ensures seamless communication and effective integration of the outputs from these expert models. It additionally employs its inherent critical thinking and robust verification processes to refine and authenticate the end result. This collaborative prompting approach empowers a single LM to simultaneously act as a comprehensive orchestrator and a panel of diverse experts, significantly enhancing its performance across a wide array of tasks. The zero-shot, task-agnostic nature of meta-prompting greatly simplifies user interaction by obviating the need for detailed, task-specific instructions. Furthermore, our research demonstrates the seamless integration of external tools, such as a Python interpreter, into the meta-prompting framework, thereby broadening its applicability and utility. Through rigorous experimentation with GPT-4, we establish the superiority of meta-prompting over conventional scaffolding methods: When averaged across all tasks, including the Game of 24, Checkmate-in-One, and Python Programming Puzzles, meta-prompting, augmented with a Python interpreter functionality, surpasses standard prompting by 17.1%, expert (dynamic) prompting by 17.3%, and multipersona prompting by 15.2%.
PDF325December 15, 2024