ChatPaper.aiChatPaper

Evoluzione dei Prompt In-Context: Una Prospettiva Aperta e Auto-replicante

Evolving Prompts In-Context: An Open-ended, Self-replicating Perspective

June 22, 2025
Autori: Jianyu Wang, Zhiqiang Hu, Lidong Bing
cs.AI

Abstract

Proponiamo un nuovo paradigma di progettazione dei prompt che sfida la saggezza convenzionale nel prompting dei modelli linguistici di grandi dimensioni (LLM). Mentre la saggezza convenzionale privilegia istruzioni ben strutturate e dimostrazioni per l'apprendimento in contesto (ICL), dimostriamo che la potatura di dimostrazioni casuali in "gibberish" apparentemente incoerenti può migliorare notevolmente le prestazioni su una vasta gamma di task. È degno di nota che il "gibberish" eguagli o superi sempre le tecniche di ottimizzazione automatica dei prompt all'avanguardia, ottenendo guadagni sostanziali indipendentemente dall'allineamento dell'LLM. Tuttavia, scoprire una strategia di potatura efficace non è banale, poiché i metodi di attribuzione esistenti e gli algoritmi di compressione dei prompt non riescono a fornire risultati robusti, figuriamoci l'intuizione umana. A tal proposito, proponiamo un framework di ottimizzazione dei prompt auto-scoprente, PromptQuine, un framework di ricerca evolutiva che cerca automaticamente la strategia di potatura utilizzando solo regimi a basso contenuto di dati. Similmente alla complessità emergente in natura—come la simbiosi e l'auto-organizzazione—che sorge in risposta ai vincoli di risorse, il nostro framework evolve e affina prompt non convenzionali ma altamente efficaci sfruttando solo i token presenti nel contesto. Ne dimostriamo l'efficacia su task di classificazione, risposta a domande a scelta multipla, generazione e ragionamento matematico su vari LLM, raggiungendo un'efficienza di runtime decente. Speriamo che i nostri risultati possano guidare studi meccanicistici sull'apprendimento in contesto e fornire un invito all'azione, per aprire la strada a algoritmi di ricerca più aperti per un prompting degli LLM più efficace.
English
We propose a novel prompt design paradigm that challenges conventional wisdom in large language model (LLM) prompting. While conventional wisdom prioritizes well-crafted instructions and demonstrations for in-context learning (ICL), we show that pruning random demonstrations into seemingly incoherent "gibberish" can remarkably improve performance across diverse tasks. Notably, the "gibberish" always matches or surpasses state-of-the-art automatic prompt optimization techniques, achieving substantial gains regardless of LLM alignment. Nevertheless, discovering an effective pruning strategy is non-trivial, as existing attribution methods and prompt compression algorithms fail to deliver robust results, let alone human intuition. In terms of this, we propose a self-discover prompt optimization framework, PromptQuine, an evolutionary search framework that automatically searches for the pruning strategy by itself using only low-data regimes. Much like the emergent complexity in nature--such as symbiosis and self-organization--arising in response to resource constraints, our framework evolves and refines unconventional yet highly effective prompts by leveraging only the tokens present within the context. We demonstrate its effectiveness across classification, multi-choice question answering, generation and math reasoning tasks across LLMs, while achieving decent runtime efficiency. We hope our findings can guide mechanistic studies on in-context learning, and provide a call to action, to pave the way for more open-ended search algorithms for more effective LLM prompting.
PDF192July 1, 2025