ChatPaper.aiChatPaper

System-Prompt-Optimierung mit Meta-Lernen

System Prompt Optimization with Meta-Learning

May 14, 2025
Autoren: Yumin Choi, Jinheon Baek, Sung Ju Hwang
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten gezeigt, wobei die Optimierung ihrer Eingabeaufforderungen eine entscheidende Rolle bei der Maximierung ihrer Leistung spielt. Allerdings bestehen LLM-Aufforderungen sowohl aus aufgabenunabhängigen Systemaufforderungen als auch aufgabenspezifischen Benutzeraufforderungen, und bestehende Arbeiten zur Prompt-Optimierung haben sich auf Benutzeraufforderungen konzentriert, die spezifisch für einzelne Abfragen oder Aufgaben sind, und dabei weitgehend die Systemaufforderung übersehen, die, einmal optimiert, über verschiedene Aufgaben und Domänen hinweg anwendbar ist. Motiviert durch diese Beobachtung führen wir das neuartige Problem der zweistufigen Systemaufforderungsoptimierung ein, dessen Ziel es ist, Systemaufforderungen zu entwerfen, die robust gegenüber diversen Benutzeraufforderungen sind und auf unbekannte Aufgaben übertragbar sind. Um dieses Problem zu lösen, schlagen wir dann ein Meta-Lern-Framework vor, das die Systemaufforderung durch Optimierung über verschiedene Benutzeraufforderungen in mehreren Datensätzen meta-lernt, während gleichzeitig die Benutzeraufforderungen iterativ aktualisiert werden, um eine Synergie zwischen ihnen sicherzustellen. Wir führen Experimente auf 14 unbekannten Datensätzen aus 5 verschiedenen Domänen durch, auf denen wir zeigen, dass unser Ansatz Systemaufforderungen erzeugt, die effektiv auf diverse Benutzeraufforderungen verallgemeinern. Darüber hinaus zeigen unsere Ergebnisse, dass die optimierte Systemaufforderung eine schnelle Anpassung sogar an unbekannte Aufgaben ermöglicht, wobei weniger Optimierungsschritte für Benutzeraufforderungen zur Testzeit erforderlich sind und gleichzeitig eine verbesserte Leistung erzielt wird.
English
Large Language Models (LLMs) have shown remarkable capabilities, with optimizing their input prompts playing a pivotal role in maximizing their performance. However, while LLM prompts consist of both the task-agnostic system prompts and task-specific user prompts, existing work on prompt optimization has focused on user prompts specific to individual queries or tasks, and largely overlooked the system prompt that is, once optimized, applicable across different tasks and domains. Motivated by this, we introduce the novel problem of bilevel system prompt optimization, whose objective is to design system prompts that are robust to diverse user prompts and transferable to unseen tasks. To tackle this problem, we then propose a meta-learning framework, which meta-learns the system prompt by optimizing it over various user prompts across multiple datasets, while simultaneously updating the user prompts in an iterative manner to ensure synergy between them. We conduct experiments on 14 unseen datasets spanning 5 different domains, on which we show that our approach produces system prompts that generalize effectively to diverse user prompts. Also, our findings reveal that the optimized system prompt enables rapid adaptation even to unseen tasks, requiring fewer optimization steps for test-time user prompts while achieving improved performance.

Summary

AI-Generated Summary

PDF503May 16, 2025