ChatPaper.aiChatPaper

Optimización de Prompts del Sistema con Metaaprendizaje

System Prompt Optimization with Meta-Learning

May 14, 2025
Autores: Yumin Choi, Jinheon Baek, Sung Ju Hwang
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han demostrado capacidades notables, siendo la optimización de sus entradas (prompts) un factor clave para maximizar su rendimiento. Sin embargo, aunque los prompts de los LLMs incluyen tanto los prompts del sistema (agnósticos a la tarea) como los prompts del usuario (específicos para cada tarea), el trabajo existente sobre la optimización de prompts se ha centrado principalmente en los prompts del usuario asociados a consultas o tareas individuales, dejando en gran medida de lado el prompt del sistema, que, una vez optimizado, es aplicable a través de diferentes tareas y dominios. Motivados por esto, introducimos el novedoso problema de la optimización de prompts del sistema en dos niveles, cuyo objetivo es diseñar prompts del sistema que sean robustos frente a diversos prompts del usuario y transferibles a tareas no vistas. Para abordar este problema, proponemos un marco de meta-aprendizaje que meta-aprende el prompt del sistema optimizándolo sobre varios prompts del usuario en múltiples conjuntos de datos, mientras actualiza iterativamente los prompts del usuario para garantizar una sinergia entre ambos. Realizamos experimentos en 14 conjuntos de datos no vistos que abarcan 5 dominios diferentes, demostrando que nuestro enfoque produce prompts del sistema que generalizan efectivamente a diversos prompts del usuario. Además, nuestros hallazgos revelan que el prompt del sistema optimizado permite una rápida adaptación incluso a tareas no vistas, requiriendo menos pasos de optimización para los prompts del usuario en tiempo de prueba y logrando un rendimiento mejorado.
English
Large Language Models (LLMs) have shown remarkable capabilities, with optimizing their input prompts playing a pivotal role in maximizing their performance. However, while LLM prompts consist of both the task-agnostic system prompts and task-specific user prompts, existing work on prompt optimization has focused on user prompts specific to individual queries or tasks, and largely overlooked the system prompt that is, once optimized, applicable across different tasks and domains. Motivated by this, we introduce the novel problem of bilevel system prompt optimization, whose objective is to design system prompts that are robust to diverse user prompts and transferable to unseen tasks. To tackle this problem, we then propose a meta-learning framework, which meta-learns the system prompt by optimizing it over various user prompts across multiple datasets, while simultaneously updating the user prompts in an iterative manner to ensure synergy between them. We conduct experiments on 14 unseen datasets spanning 5 different domains, on which we show that our approach produces system prompts that generalize effectively to diverse user prompts. Also, our findings reveal that the optimized system prompt enables rapid adaptation even to unseen tasks, requiring fewer optimization steps for test-time user prompts while achieving improved performance.

Summary

AI-Generated Summary

PDF493May 16, 2025