ChatPaper.aiChatPaper

Ottimizzazione del Prompt di Sistema con Meta-Apprendimento

System Prompt Optimization with Meta-Learning

May 14, 2025
Autori: Yumin Choi, Jinheon Baek, Sung Ju Hwang
cs.AI

Abstract

I Large Language Models (LLM) hanno dimostrato capacità straordinarie, con l'ottimizzazione dei prompt di input che svolge un ruolo cruciale nel massimizzarne le prestazioni. Tuttavia, sebbene i prompt degli LLM siano composti sia da prompt di sistema indipendenti dal compito che da prompt utente specifici per il compito, il lavoro esistente sull'ottimizzazione dei prompt si è concentrato sui prompt utente relativi a singole query o compiti, trascurando in larga misura il prompt di sistema che, una volta ottimizzato, è applicabile a diversi compiti e domini. Motivati da ciò, introduciamo il nuovo problema dell'ottimizzazione bilivello del prompt di sistema, il cui obiettivo è progettare prompt di sistema robusti rispetto a diversi prompt utente e trasferibili a compiti non visti. Per affrontare questo problema, proponiamo quindi un framework di meta-apprendimento, che meta-apprende il prompt di sistema ottimizzandolo su vari prompt utente attraverso più dataset, aggiornando contemporaneamente i prompt utente in modo iterativo per garantire sinergia tra di essi. Condividiamo esperimenti su 14 dataset non visti che coprono 5 domini diversi, dimostrando che il nostro approccio produce prompt di sistema che si generalizzano efficacemente a diversi prompt utente. Inoltre, i nostri risultati rivelano che il prompt di sistema ottimizzato consente un rapido adattamento anche a compiti non visti, richiedendo meno passaggi di ottimizzazione per i prompt utente al momento del test e ottenendo prestazioni migliorate.
English
Large Language Models (LLMs) have shown remarkable capabilities, with optimizing their input prompts playing a pivotal role in maximizing their performance. However, while LLM prompts consist of both the task-agnostic system prompts and task-specific user prompts, existing work on prompt optimization has focused on user prompts specific to individual queries or tasks, and largely overlooked the system prompt that is, once optimized, applicable across different tasks and domains. Motivated by this, we introduce the novel problem of bilevel system prompt optimization, whose objective is to design system prompts that are robust to diverse user prompts and transferable to unseen tasks. To tackle this problem, we then propose a meta-learning framework, which meta-learns the system prompt by optimizing it over various user prompts across multiple datasets, while simultaneously updating the user prompts in an iterative manner to ensure synergy between them. We conduct experiments on 14 unseen datasets spanning 5 different domains, on which we show that our approach produces system prompts that generalize effectively to diverse user prompts. Also, our findings reveal that the optimized system prompt enables rapid adaptation even to unseen tasks, requiring fewer optimization steps for test-time user prompts while achieving improved performance.
PDF723May 16, 2025