ChatPaper.aiChatPaper

Otimização de Prompt de Sistema com Meta-Aprendizado

System Prompt Optimization with Meta-Learning

May 14, 2025
Autores: Yumin Choi, Jinheon Baek, Sung Ju Hwang
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) demonstraram capacidades notáveis, com a otimização de seus prompts de entrada desempenhando um papel fundamental na maximização de seu desempenho. No entanto, embora os prompts de LLMs consistam tanto em prompts de sistema agnósticos à tarefa quanto em prompts de usuário específicos à tarefa, os trabalhos existentes sobre otimização de prompts têm se concentrado em prompts de usuário específicos para consultas ou tarefas individuais, e em grande parte negligenciado o prompt de sistema que, uma vez otimizado, é aplicável em diferentes tarefas e domínios. Motivados por isso, introduzimos o novo problema de otimização de prompt de sistema em dois níveis, cujo objetivo é projetar prompts de sistema que sejam robustos a diversos prompts de usuário e transferíveis para tarefas não vistas. Para abordar esse problema, propomos então um framework de meta-aprendizado, que meta-aprende o prompt de sistema otimizando-o sobre vários prompts de usuário em múltiplos conjuntos de dados, enquanto atualiza simultaneamente os prompts de usuário de maneira iterativa para garantir sinergia entre eles. Realizamos experimentos em 14 conjuntos de dados não vistos abrangendo 5 domínios diferentes, nos quais mostramos que nossa abordagem produz prompts de sistema que generalizam efetivamente para diversos prompts de usuário. Além disso, nossas descobertas revelam que o prompt de sistema otimizado permite uma rápida adaptação mesmo a tarefas não vistas, exigindo menos etapas de otimização para prompts de usuário em tempo de teste enquanto alcança um desempenho aprimorado.
English
Large Language Models (LLMs) have shown remarkable capabilities, with optimizing their input prompts playing a pivotal role in maximizing their performance. However, while LLM prompts consist of both the task-agnostic system prompts and task-specific user prompts, existing work on prompt optimization has focused on user prompts specific to individual queries or tasks, and largely overlooked the system prompt that is, once optimized, applicable across different tasks and domains. Motivated by this, we introduce the novel problem of bilevel system prompt optimization, whose objective is to design system prompts that are robust to diverse user prompts and transferable to unseen tasks. To tackle this problem, we then propose a meta-learning framework, which meta-learns the system prompt by optimizing it over various user prompts across multiple datasets, while simultaneously updating the user prompts in an iterative manner to ensure synergy between them. We conduct experiments on 14 unseen datasets spanning 5 different domains, on which we show that our approach produces system prompts that generalize effectively to diverse user prompts. Also, our findings reveal that the optimized system prompt enables rapid adaptation even to unseen tasks, requiring fewer optimization steps for test-time user prompts while achieving improved performance.
PDF713May 16, 2025