ChatPaper.aiChatPaper

Эволюция промптов в контексте: открытый, самовоспроизводящийся подход

Evolving Prompts In-Context: An Open-ended, Self-replicating Perspective

June 22, 2025
Авторы: Jianyu Wang, Zhiqiang Hu, Lidong Bing
cs.AI

Аннотация

Мы предлагаем новую парадигму проектирования промптов, которая бросает вызов общепринятым подходам в работе с большими языковыми моделями (LLM). В то время как традиционные методы делают акцент на тщательно продуманных инструкциях и демонстрациях для обучения в контексте (ICL), мы показываем, что удаление случайных демонстраций и превращение их в, казалось бы, бессвязный "бессмысленный текст" может значительно улучшить производительность в различных задачах. Примечательно, что такой "бессмысленный текст" всегда соответствует или превосходит современные методы автоматической оптимизации промптов, достигая существенных улучшений независимо от настройки LLM. Однако поиск эффективной стратегии удаления является нетривиальной задачей, поскольку существующие методы атрибуции и алгоритмы сжатия промптов не дают устойчивых результатов, не говоря уже о человеческой интуиции. В связи с этим мы предлагаем фреймворк для самостоятельной оптимизации промптов, PromptQuine, — эволюционный поисковый фреймворк, который автоматически находит стратегию удаления, используя лишь ограниченные объемы данных. Подобно возникающей сложности в природе — такой как симбиоз и самоорганизация, — которая появляется в ответ на ограниченность ресурсов, наш фреймворк развивает и совершенствует нестандартные, но высокоэффективные промпты, используя только токены, присутствующие в контексте. Мы демонстрируем его эффективность в задачах классификации, множественного выбора, генерации и математического рассуждения на различных LLM, достигая при этом достойной производительности в реальном времени. Мы надеемся, что наши результаты послужат руководством для механистических исследований обучения в контексте и призывом к действию, чтобы проложить путь для более открытых поисковых алгоритмов, направленных на более эффективное использование LLM.
English
We propose a novel prompt design paradigm that challenges conventional wisdom in large language model (LLM) prompting. While conventional wisdom prioritizes well-crafted instructions and demonstrations for in-context learning (ICL), we show that pruning random demonstrations into seemingly incoherent "gibberish" can remarkably improve performance across diverse tasks. Notably, the "gibberish" always matches or surpasses state-of-the-art automatic prompt optimization techniques, achieving substantial gains regardless of LLM alignment. Nevertheless, discovering an effective pruning strategy is non-trivial, as existing attribution methods and prompt compression algorithms fail to deliver robust results, let alone human intuition. In terms of this, we propose a self-discover prompt optimization framework, PromptQuine, an evolutionary search framework that automatically searches for the pruning strategy by itself using only low-data regimes. Much like the emergent complexity in nature--such as symbiosis and self-organization--arising in response to resource constraints, our framework evolves and refines unconventional yet highly effective prompts by leveraging only the tokens present within the context. We demonstrate its effectiveness across classification, multi-choice question answering, generation and math reasoning tasks across LLMs, while achieving decent runtime efficiency. We hope our findings can guide mechanistic studies on in-context learning, and provide a call to action, to pave the way for more open-ended search algorithms for more effective LLM prompting.
PDF162July 1, 2025