Abstract: Low-Rank Adaptation (LoRA) has emerged as a powerful technique for parameter-efficient fine-tuning of large language models. However, combining multiple LoRAs trained on different subjects and styles remains challenging, often requiring retraining or complex fusion methods. We introduce K-LoRA, a novel approach that enables training-free fusion of any subject and style LoRAs. K-LoRA leverages kernel-based interpolation to seamlessly combine the learned representations from multiple LoRAs, preserving their individual characteristics while enabling new, coherent outputs. Our experiments demonstrate that K-LoRA outperforms existing methods in terms of both flexibility and quality, opening up new possibilities for creative applications of LoRA-based models. Keywords: LoRA, parameter-efficient fine-tuning, model fusion, kernel interpolation, creative AIK-LoRA: Trainingfreie Fusion von beliebigen Subjekt- und Stil-LoRAs
Zusammenfassung: Low-Rank Adaptation (LoRA) hat sich als leistungsstarke Technik für parameter-effizientes Fine-Tuning von großen Sprachmodellen etabliert. Die Kombination mehrerer LoRAs, die auf verschiedenen Themen und Stilen trainiert wurden, bleibt jedoch eine Herausforderung und erfordert oft ein erneutes Training oder komplexe Fusionsmethoden. Wir stellen K-LoRA vor, einen neuartigen Ansatz, der eine trainingfreie Fusion von beliebigen Subjekt- und Stil-LoRAs ermöglicht. K-LoRA nutzt kernelbasierte Interpolation, um die gelernten Repräsentationen mehrerer LoRAs nahtlos zu kombinieren, wobei deren individuelle Eigenschaften erhalten bleiben und gleichzeitig neue, kohärente Ausgaben ermöglicht werden. Unsere Experimente zeigen, dass K-LoRA bestehende Methoden in Bezug auf Flexibilität und Qualität übertrifft und neue Möglichkeiten für kreative Anwendungen von LoRA-basierten Modellen eröffnet. Schlüsselwörter: LoRA, parameter-effizientes Fine-Tuning, Modellfusion, Kernelinterpolation, kreative KI
K-LoRA: Unlocking Training-Free Fusion of Any Subject and Style LoRAs