PromptBridge: Trasferimento Transmodello di Prompt per Modelli Linguistici di Grandi Dimensioni
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
Autori: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
Abstract
I grandi modelli linguistici (LLM) sono alla base di applicazioni nella generazione di codice, nel ragionamento matematico e in flussi di lavoro basati su agenti. Nella pratica, i sistemi accedono agli LLM tramite API commerciali o deployment open-source, e il panorama dei modelli (ad es., GPT, Claude, Llama) evolve rapidamente. Questa rapida evoluzione costringe a frequenti cambi di modello, guidati da capacità, costo, vincoli di deployment e privacy. Tuttavia, i prompt sono altamente sensibili al modello: riutilizzare un prompt progettato per un modello su un altro spesso produce prestazioni sostanzialmente peggiori rispetto a un prompt ottimizzato per il modello target. Noi definiamo questo fenomeno *Model Drifting* (Deriva del Modello). Attraverso un'ampia analisi empirica su diverse configurazioni di LLM, dimostriamo che la deriva del modello è sia comune che severa. Per affrontare questa sfida, introduciamo PromptBridge, un framework *training-free* che preserva l'efficacia del prompt durante i cambi di modello, abilitando il trasferimento di prompt tra modelli senza costose ri-ottimizzazioni per-task o per-modello. PromptBridge richiede solo un piccolo insieme di task di allineamento per la calibrazione. Applica prima l'*Model-Adaptive Reflective Prompt Evolution* (MAP-RPE) per ottenere prompt ottimali specifici per task e modello tramite un raffinamento riflessivo iterativo e una valutazione quantitativa. Utilizzando le coppie di prompt calibrate risultanti per i modelli sorgente e target, PromptBridge apprende una mappatura di prompt cross-model. Al momento del test, cioè per un task non visto, dato un prompt per il modello sorgente, questa mappatura produce direttamente un prompt ottimizzato per il modello target. Esperimenti in contesti ad agente singolo e multi-agente mostrano che PromptBridge migliora costantemente l'accuratezza a valle riducendo al contempo lo sforzo di migrazione. Il codice sarà presto disponibile.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.