ChatPaper.aiChatPaper

Optimisation des Invites Système par Méta-Apprentissage

System Prompt Optimization with Meta-Learning

May 14, 2025
Auteurs: Yumin Choi, Jinheon Baek, Sung Ju Hwang
cs.AI

Résumé

Les modèles de langage de grande envergure (LLMs) ont démontré des capacités remarquables, où l'optimisation de leurs invites d'entrée joue un rôle crucial pour maximiser leurs performances. Cependant, bien que les invites des LLMs comprennent à la fois les invites système indépendantes de la tâche et les invites utilisateur spécifiques à la tâche, les travaux existants sur l'optimisation des invites se sont concentrés sur les invites utilisateur liées à des requêtes ou tâches individuelles, et ont largement négligé l'invite système qui, une fois optimisée, est applicable à travers différentes tâches et domaines. Motivés par cela, nous introduisons le problème novateur de l'optimisation hiérarchique des invites système, dont l'objectif est de concevoir des invites système robustes face à diverses invites utilisateur et transférables à des tâches inédites. Pour résoudre ce problème, nous proposons ensuite un cadre d'apprentissage méta, qui méta-apprend l'invite système en l'optimisant sur diverses invites utilisateur à travers plusieurs jeux de données, tout en mettant à jour les invites utilisateur de manière itérative pour assurer une synergie entre elles. Nous menons des expériences sur 14 jeux de données inédits couvrant 5 domaines différents, sur lesquels nous montrons que notre approche produit des invites système qui généralisent efficacement à des invites utilisateur variées. De plus, nos résultats révèlent que l'invite système optimisée permet une adaptation rapide même à des tâches inédites, nécessitant moins d'étapes d'optimisation pour les invites utilisateur au moment du test tout en obtenant de meilleures performances.
English
Large Language Models (LLMs) have shown remarkable capabilities, with optimizing their input prompts playing a pivotal role in maximizing their performance. However, while LLM prompts consist of both the task-agnostic system prompts and task-specific user prompts, existing work on prompt optimization has focused on user prompts specific to individual queries or tasks, and largely overlooked the system prompt that is, once optimized, applicable across different tasks and domains. Motivated by this, we introduce the novel problem of bilevel system prompt optimization, whose objective is to design system prompts that are robust to diverse user prompts and transferable to unseen tasks. To tackle this problem, we then propose a meta-learning framework, which meta-learns the system prompt by optimizing it over various user prompts across multiple datasets, while simultaneously updating the user prompts in an iterative manner to ensure synergy between them. We conduct experiments on 14 unseen datasets spanning 5 different domains, on which we show that our approach produces system prompts that generalize effectively to diverse user prompts. Also, our findings reveal that the optimized system prompt enables rapid adaptation even to unseen tasks, requiring fewer optimization steps for test-time user prompts while achieving improved performance.

Summary

AI-Generated Summary

PDF493May 16, 2025