ChatPaper.aiChatPaper

DriftMoE: Een Mixture of Experts-benadering voor het omgaan met conceptdrift

DriftMoE: A Mixture of Experts Approach to Handle Concept Drifts

July 24, 2025
Auteurs: Miguel Aspis, Sebastián A. Cajas Ordónez, Andrés L. Suárez-Cetrulo, Ricardo Simón Carbajo
cs.AI

Samenvatting

Leren van niet-stationaire datastromen die onderhevig zijn aan conceptdrift vereist modellen die zich on-the-fly kunnen aanpassen terwijl ze resource-efficiënt blijven. Bestaande adaptieve ensemblemethoden vertrouwen vaak op grofkorrelige aanpassingsmechanismen of eenvoudige stemschema's die gespecialiseerde kennis niet optimaal benutten. Dit artikel introduceert DriftMoE, een online Mixture-of-Experts (MoE)-architectuur die deze beperkingen aanpakt via een nieuw co-trainingsraamwerk. DriftMoE beschikt over een compacte neurale router die samen wordt getraind met een pool van incrementele Hoeffding tree-experts. De belangrijkste innovatie ligt in een symbiotische leerlus die expertspecialisatie mogelijk maakt: de router selecteert de meest geschikte expert voor voorspelling, de relevante experts werken incrementeel bij met het ware label, en de router verfijnt zijn parameters met behulp van een multi-hot correctheidsmasker dat elke nauwkeurige expert versterkt. Deze feedbacklus biedt de router een duidelijk trainingssignaal terwijl het expertspecialisatie versnelt. We evalueren de prestaties van DriftMoE over negen state-of-the-art datastroomleerbenchmarks die abrupte, geleidelijke en real-world driften omvatten, waarbij we twee verschillende configuraties testen: één waarbij experts zich specialiseren op dataregimes (multi-class variant), en een andere waarbij ze zich richten op single-class specialisatie (taakgebaseerde variant). Onze resultaten tonen aan dat DriftMoE competitieve resultaten behaalt met state-of-the-art adaptieve ensembles voor stroomleren, en biedt een principiële en efficiënte aanpak voor conceptdrift-aanpassing. Alle code, datapijplijnen en reproduceerbaarheidsscripts zijn beschikbaar in ons openbare GitHub-repository: https://github.com/miguel-ceadar/drift-moe.
English
Learning from non-stationary data streams subject to concept drift requires models that can adapt on-the-fly while remaining resource-efficient. Existing adaptive ensemble methods often rely on coarse-grained adaptation mechanisms or simple voting schemes that fail to optimally leverage specialized knowledge. This paper introduces DriftMoE, an online Mixture-of-Experts (MoE) architecture that addresses these limitations through a novel co-training framework. DriftMoE features a compact neural router that is co-trained alongside a pool of incremental Hoeffding tree experts. The key innovation lies in a symbiotic learning loop that enables expert specialization: the router selects the most suitable expert for prediction, the relevant experts update incrementally with the true label, and the router refines its parameters using a multi-hot correctness mask that reinforces every accurate expert. This feedback loop provides the router with a clear training signal while accelerating expert specialization. We evaluate DriftMoE's performance across nine state-of-the-art data stream learning benchmarks spanning abrupt, gradual, and real-world drifts testing two distinct configurations: one where experts specialize on data regimes (multi-class variant), and another where they focus on single-class specialization (task-based variant). Our results demonstrate that DriftMoE achieves competitive results with state-of-the-art stream learning adaptive ensembles, offering a principled and efficient approach to concept drift adaptation. All code, data pipelines, and reproducibility scripts are available in our public GitHub repository: https://github.com/miguel-ceadar/drift-moe.
PDF112July 25, 2025