ChatPaper.aiChatPaper

PromptBridge: Межмодельный перенос промптов для больших языковых моделей

PromptBridge: Cross-Model Prompt Transfer for Large Language Models

December 1, 2025
Авторы: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI

Аннотация

Крупные языковые модели (LLMs) лежат в основе приложений для генерации кода, математических рассуждений и агентских рабочих процессов. На практике системы получают доступ к LLM через коммерческие API или развертывания с открытым исходным кодом, а ландшафт моделей (например, GPT, Claude, Llama) быстро эволюционирует. Эта быстрая эволюция вынуждает к частой смене моделей, обусловленной возможностями, стоимостью, ограничениями развертывания и конфиденциальностью. Однако промпты (prompts) высокочувствительны к модели: повторное использование промпта, разработанного для одной модели, на другой часто приводит к значительно худшей производительности по сравнению с промптом, оптимизированным для целевой модели. Мы называем это явление **дрейфом моделей (Model Drifting)**. На основе обширного эмпирического анализа различных конфигураций LLM мы показываем, что дрейф моделей является распространенным и серьезным. Для решения этой проблемы мы представляем **PromptBridge**, бесплатную (training-free) систему, которая сохраняет эффективность промптов при смене моделей, обеспечивая перенос промптов между моделями без затратной повторной оптимизации для каждой задачи или модели. PromptBridge требует для калибровки лишь небольшой набор задач согласования (alignment tasks). Сначала он применяет **Модельно-Адаптивную Рефлексивную Эволюцию Промптов (Model-Adaptive Reflective Prompt Evolution, MAP-RPE)** для получения оптимальных промптов, специфичных для задачи и модели, с помощью итеративного рефлексивного уточнения и количественной оценки. Используя полученные калиброванные пары промптов для исходной и целевой моделей, PromptBridge изучает кросс-модельное отображение промптов (cross-model prompt mapping). Во время тестирования, т.е. для новой (unseen) задачи, данное отображение, получая на вход промпт для исходной модели, напрямую генерирует оптимизированный промпт для целевой модели. Эксперименты в условиях одного агента и нескольких агентов показывают, что PromptBridge последовательно повышает итоговую точность, сокращая усилия по миграции. Код будет доступен в ближайшее время.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.
PDF81December 3, 2025