ChatPaper.aiChatPaper

Personalisierbare Langkontext-Symbolische Musikergänzung mit MIDI-RWKV

Personalizable Long-Context Symbolic Music Infilling with MIDI-RWKV

June 16, 2025
Autoren: Christian Zhou-Zheng, Philippe Pasquier
cs.AI

Zusammenfassung

Bisherige Arbeiten zur automatischen Musikerzeugung konzentrierten sich hauptsächlich auf End-to-End-Systeme, die vollständige Kompositionen oder Fortsetzungen produzieren. Da die musikalische Komposition jedoch typischerweise ein iterativer Prozess ist, erschweren solche Systeme den Austausch zwischen Mensch und Maschine, der für computerunterstützte Kreativität entscheidend ist. In dieser Studie widmen wir uns der Aufgabe der personalisierbaren, mehrspurigen, langkontextuellen und kontrollierbaren symbolischen Musikergänzung, um den Prozess der computerunterstützten Komposition zu verbessern. Wir stellen MIDI-RWKV vor, ein neuartiges Modell basierend auf der RWKV-7-linearen Architektur, das eine effiziente und kohärente musikalische Ko-Kreation auf Edge-Geräten ermöglicht. Wir zeigen außerdem, dass MIDI-RWKV eine effektive Methode zur Feinabstimmung seines Ausgangszustands für die Personalisierung im Bereich sehr weniger Beispiele zulässt. Wir bewerten MIDI-RWKV und dessen Zustandsabstimmung anhand mehrerer quantitativer und qualitativer Metriken und veröffentlichen die Modellgewichte sowie den Code unter https://github.com/christianazinn/MIDI-RWKV.
English
Existing work in automatic music generation has primarily focused on end-to-end systems that produce complete compositions or continuations. However, because musical composition is typically an iterative process, such systems make it difficult to engage in the back-and-forth between human and machine that is essential to computer-assisted creativity. In this study, we address the task of personalizable, multi-track, long-context, and controllable symbolic music infilling to enhance the process of computer-assisted composition. We present MIDI-RWKV, a novel model based on the RWKV-7 linear architecture, to enable efficient and coherent musical cocreation on edge devices. We also demonstrate that MIDI-RWKV admits an effective method of finetuning its initial state for personalization in the very-low-sample regime. We evaluate MIDI-RWKV and its state tuning on several quantitative and qualitative metrics, and release model weights and code at https://github.com/christianazinn/MIDI-RWKV.
PDF12June 18, 2025