ChatPaper.aiChatPaper

DriftMoE: Un approccio a Miscela di Esperti per gestire i Cambiamenti Concettuali

DriftMoE: A Mixture of Experts Approach to Handle Concept Drifts

July 24, 2025
Autori: Miguel Aspis, Sebastián A. Cajas Ordónez, Andrés L. Suárez-Cetrulo, Ricardo Simón Carbajo
cs.AI

Abstract

L'apprendimento da flussi di dati non stazionari soggetti a concept drift richiede modelli in grado di adattarsi in tempo reale mantenendo un uso efficiente delle risorse. I metodi di ensemble adattativi esistenti spesso si basano su meccanismi di adattamento a grana grossa o su semplici schemi di voto che non sfruttano in modo ottimale la conoscenza specializzata. Questo articolo introduce DriftMoE, un'architettura online Mixture-of-Experts (MoE) che affronta queste limitazioni attraverso un nuovo framework di co-training. DriftMoE presenta un router neurale compatto che viene co-addestrato insieme a un pool di esperti basati su alberi di Hoeffding incrementali. L'innovazione chiave risiede in un ciclo di apprendimento simbiotico che consente la specializzazione degli esperti: il router seleziona l'esperto più adatto per la previsione, gli esperti rilevanti si aggiornano in modo incrementale con l'etichetta vera, e il router affina i suoi parametri utilizzando una maschera di correttezza multi-hot che rinforza ogni esperto accurato. Questo ciclo di feedback fornisce al router un segnale di addestramento chiaro mentre accelera la specializzazione degli esperti. Valutiamo le prestazioni di DriftMoE su nove benchmark all'avanguardia per l'apprendimento da flussi di dati, che coprono drift improvvisi, graduali e del mondo reale, testando due configurazioni distinte: una in cui gli esperti si specializzano su regimi di dati (variante multi-classe), e un'altra in cui si concentrano sulla specializzazione a singola classe (variante basata su task). I nostri risultati dimostrano che DriftMoE ottiene risultati competitivi rispetto agli ensemble adattativi all'avanguardia per l'apprendimento da flussi, offrendo un approccio principiato ed efficiente all'adattamento al concept drift. Tutto il codice, le pipeline di dati e gli script di riproducibilità sono disponibili nel nostro repository GitHub pubblico: https://github.com/miguel-ceadar/drift-moe.
English
Learning from non-stationary data streams subject to concept drift requires models that can adapt on-the-fly while remaining resource-efficient. Existing adaptive ensemble methods often rely on coarse-grained adaptation mechanisms or simple voting schemes that fail to optimally leverage specialized knowledge. This paper introduces DriftMoE, an online Mixture-of-Experts (MoE) architecture that addresses these limitations through a novel co-training framework. DriftMoE features a compact neural router that is co-trained alongside a pool of incremental Hoeffding tree experts. The key innovation lies in a symbiotic learning loop that enables expert specialization: the router selects the most suitable expert for prediction, the relevant experts update incrementally with the true label, and the router refines its parameters using a multi-hot correctness mask that reinforces every accurate expert. This feedback loop provides the router with a clear training signal while accelerating expert specialization. We evaluate DriftMoE's performance across nine state-of-the-art data stream learning benchmarks spanning abrupt, gradual, and real-world drifts testing two distinct configurations: one where experts specialize on data regimes (multi-class variant), and another where they focus on single-class specialization (task-based variant). Our results demonstrate that DriftMoE achieves competitive results with state-of-the-art stream learning adaptive ensembles, offering a principled and efficient approach to concept drift adaptation. All code, data pipelines, and reproducibility scripts are available in our public GitHub repository: https://github.com/miguel-ceadar/drift-moe.
PDF102July 25, 2025