BMdataset : Un ensemble de données LilyPond organisé selon une approche musicologique
BMdataset: A Musicologically Curated LilyPond Dataset
April 12, 2026
Auteurs: Matteo Spanio, Ilay Guler, Antonio Rodà
cs.AI
Résumé
La recherche en musique symbolique s'est appuyée presque exclusivement sur des jeux de données MIDI ; les formats de gravure textuels comme LilyPond restent inexplorés pour la compréhension musicale. Nous présentons BMdataset, un jeu de données musicologiquement constitué de 393 partitions LilyPond (2 646 mouvements) transcrites par des experts directement à partir de manuscrits baroques originaux, avec des métadonnées couvrant le compositeur, la forme musicale, l'instrumentation et les attributs sectionnels. S'appuyant sur cette ressource, nous introduisons LilyBERT (les poids sont disponibles à l'adresse https://huggingface.co/csc-unipd/lilybert), un encodeur basé sur CodeBERT adapté à la musique symbolique par extension du vocabulaire avec 115 tokens spécifiques à LilyPond et par un pré-entraînement de modèle de langue masqué. Une évaluation par sondage linéaire sur le corpus Mutopia hors domaine montre que, malgré sa taille modeste (~90M tokens), le réglage fin sur BMdataset seul surpasse le pré-entraînement continu sur l'intégralité du corpus PDMX (~15B tokens) pour la classification des compositeurs et des styles, démontrant que de petits jeux de données expertisés peuvent être plus efficaces que de grands corpus bruités pour la compréhension musicale. Combiner un pré-entraînement large avec un réglage fin spécifique au domaine produit les meilleurs résultats globaux (84,3 % de précision sur les compositeurs), confirmant que ces deux régimes de données sont complémentaires. Nous publions le jeu de données, le tokeniseur et le modèle pour établir une base de référence pour l'apprentissage de représentations sur LilyPond.
English
Symbolic music research has relied almost exclusively on MIDI-based datasets; text-based engraving formats such as LilyPond remain unexplored for music understanding. We present BMdataset, a musicologically curated dataset of 393 LilyPond scores (2,646 movements) transcribed by experts directly from original Baroque manuscripts, with metadata covering composer, musical form, instrumentation, and sectional attributes. Building on this resource, we introduce LilyBERT (weights can be found at https://huggingface.co/csc-unipd/lilybert), a CodeBERT-based encoder adapted to symbolic music through vocabulary extension with 115 LilyPond-specific tokens and masked language model pre-training. Linear probing on the out-of-domain Mutopia corpus shows that, despite its modest size (~90M tokens), fine-tuning on BMdataset alone outperforms continuous pre-training on the full PDMX corpus (~15B tokens) for both composer and style classification, demonstrating that small, expertly curated datasets can be more effective than large, noisy corpora for music understanding. Combining broad pre-training with domain-specific fine-tuning yields the best results overall (84.3% composer accuracy), confirming that the two data regimes are complementary. We release the dataset, tokenizer, and model to establish a baseline for representation learning on LilyPond.