ChatPaper.aiChatPaper

Drag-and-Drop LLM's: Zero-Shot Prompt-naar-Gewichten

Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights

June 19, 2025
Auteurs: Zhiyuan Liang, Dongwen Tang, Yuhao Zhou, Xuanlei Zhao, Mingjia Shi, Wangbo Zhao, Zekai Li, Peihao Wang, Konstantin Schürholt, Damian Borth, Michael M. Bronstein, Yang You, Zhangyang Wang, Kai Wang
cs.AI

Samenvatting

Moderne Parameter-Efficiënte Fine-Tuning (PEFT) methoden, zoals low-rank adaptation (LoRA), verlagen de kosten voor het aanpassen van grote taalmodellen (LLMs), maar vereisen nog steeds een aparte optimalisatierun voor elke downstream dataset. Wij introduceren Drag-and-Drop LLMs (\textit{DnD)}, een prompt-geconditioneerde parameter generator die per-taak training elimineert door een handvol ongelabelde taakprompts direct te mappen naar LoRA gewichtsaanpassingen. Een lichtgewicht tekst encoder destilleert elke prompt batch naar conditie-embeddings, die vervolgens getransformeerd worden door een gecascadeerde hyper-convolutionele decoder naar de volledige set van LoRA matrices. Eenmaal getraind in een diverse collectie van prompt-checkpoint paren, produceert DnD taakspecifieke parameters in seconden, wat resulteert in i) tot 12.000 keer lagere overhead dan volledige fine-tuning, ii) gemiddelde verbeteringen tot 30\% in prestaties ten opzichte van de sterkste getrainde LoRA's op onbekende common-sense redenering, wiskunde, codering en multimodale benchmarks, en iii) robuuste cross-domein generalisatie ondanks dat de doeldata of labels nooit zijn gezien. Onze resultaten tonen aan dat prompt-geconditioneerde parameter generatie een haalbaar alternatief is voor gradient-gebaseerde aanpassing voor het snel specialiseren van LLMs. Ons project is beschikbaar op https://jerryliang24.github.io/DnD{https://jerryliang24.github.io/DnD}.
English
Modern Parameter-Efficient Fine-Tuning (PEFT) methods such as low-rank adaptation (LoRA) reduce the cost of customizing large language models (LLMs), yet still require a separate optimization run for every downstream dataset. We introduce Drag-and-Drop LLMs (\textit{DnD)}, a prompt-conditioned parameter generator that eliminates per-task training by mapping a handful of unlabeled task prompts directly to LoRA weight updates. A lightweight text encoder distills each prompt batch into condition embeddings, which are then transformed by a cascaded hyper-convolutional decoder into the full set of LoRA matrices. Once trained in a diverse collection of prompt-checkpoint pairs, DnD produces task-specific parameters in seconds, yielding i) up to 12,000times lower overhead than full fine-tuning, ii) average gains up to 30\% in performance over the strongest training LoRAs on unseen common-sense reasoning, math, coding, and multimodal benchmarks, and iii) robust cross-domain generalization despite never seeing the target data or labels. Our results demonstrate that prompt-conditioned parameter generation is a viable alternative to gradient-based adaptation for rapidly specializing LLMs. Our project is available at https://jerryliang24.github.io/DnD{https://jerryliang24.github.io/DnD}.
PDF11821June 23, 2025