ChatPaper.aiChatPaper

CLASS-IT: Conversationale en Lezing-Gebonden Kleinschalige Instructieafstemming voor BabyLMs

CLASS-IT: Conversational and Lecture-Aligned Small-Scale Instruction Tuning for BabyLMs

October 29, 2025
Auteurs: Luca Capone, Alessandro Bondielli, Alessandro Lenci
cs.AI

Samenvatting

Dit onderzoek onderzoekt of kleinschalige taalmodelle (LM's) kunnen profiteren van instructie-afstemming. We vergelijken conversatie- en vraag-antwoord-instructie-afstemmingsdatasets, toegepast in een samengevoegde of sequentiële curriculumopzet, met decoder-only modellen van 100M en 140M parameters. Evaluatie beslaat zowel fine-tuning (SuperGLUE) als zero-shot (BLiMP, EWoK, WUGs, entiteit-tracking en psycholinguïstische correlatie) scenario's. Resultaten tonen aan dat instructie-afstemming kleine maar consistente verbeteringen oplevert in fine-tuning-scenario's, waarbij sequentiële curricula beter presteren dan samengevoegde data; verbeteringen zetten zich echter niet consistent door naar zero-shot-taken, wat wijst op een afweging tussen interactiegerichte aanpassing en brede linguïstische generalisatie. Deze resultaten belichten zowel de mogelijkheden als de beperkingen van het toepassen van mens-geïnspireerde leerstrategieën op LM's met beperkte resources, en wijzen op hybride, curriculum-gebaseerde benaderingen voor het verbeteren van generalisatie binnen ecologische trainingslimieten.
English
This work investigates whether small-scale LMs can benefit from instruction tuning. We compare conversational and question-answering instruction tuning datasets, applied either in a merged or sequential curriculum, using decoder-only models with 100M and 140M parameters. Evaluation spans both fine-tuning (SuperGLUE) and zero-shot (BLiMP, EWoK, WUGs, entity tracking, and psycholinguistic correlation) settings. Results show that instruction tuning yields small but consistent gains in fine-tuning scenarios, with sequential curricula outperforming merged data; however, improvements do not consistently transfer to zero-shot tasks, suggesting a trade-off between interaction-focused adaptation and broad linguistic generalization. These results highlight both the potential and the constraints of adapting human-inspired learning strategies to low-resource LMs, and point toward hybrid, curriculum-based approaches for enhancing generalization under ecological training limits.
PDF41December 2, 2025