ChatPaper.aiChatPaper

CGM-JEPA : Apprentissage de représentations cohérentes du moniteur continu de glucose via un pré-entraînement auto-supervisé prédictif

CGM-JEPA: Learning Consistent Continuous Glucose Monitor Representations via Predictive Self-Supervised Pretraining

May 1, 2026
Auteurs: Hada Melino Muhammad, Zechen Li, Flora Salim, Ahmed A. Metwally
cs.AI

Résumé

La Surveillance Continue du Glucose (CGM) peut détecter des sous-phénotypes métaboliques précoces (résistance à l'insuline, IR ; dysfonction des cellules β), mais le déploiement à l'échelle de la population est confronté à deux problèmes couplés. Premièrement, le même état physiologique apparaît à travers de multiples vues (séries temporelles CGM, OGTT veineux, résumés Glucodensité), de sorte que les représentations mono-vue échouent à se transférer lorsque le déploiement change de modalité ou de cadre. Deuxièmement, les modèles de référence (baselines) se comportent de manière incohérente face à ces changements. Les deux problèmes pointent vers un même remède : des représentations qui s'abstraient de toute vue unique pour capturer une structure temporelle et distributionnelle de plus haut niveau. Nous proposons CGM-JEPA, un cadre de pré-entraînement auto-supervisé qui prédit des représentations latentes masquées plutôt que des valeurs brutes, produisant une abstraction qui se transfère entre les modalités. X-CGM-JEPA ajoute un objectif inter-vue masqué basé sur la Glucodensité pour une information distributionnelle complémentaire. Nous pré-entraînons sur 389 000 lectures CGM non étiquetées de 228 sujets (sim389k) et évaluons sur deux cohortes cliniques (sous-ensembles de diffusion publique de N=27 et N=17) dans trois régimes (généralisation de cohorte, transfert veineux-à-CGM, CGM à domicile) sous validation croisée 2-fold répétée 20 fois. X-CGM-JEPA se classe premier ou deuxième sur l'AUROC pour les deux critères dans les trois régimes, tandis qu'aucune baseline n'y parvient, dépassant la baseline la plus forte de jusqu'à +6,5 points de pourcentage en généralisation de cohorte et +3,6 pp en transfert veineux-à-CGM (Wilcoxon apparié, p<0,001). Sous changement de modalité, il égalise l'AUROC moyen tout en redistribuant vers les sous-groupes plus faibles (l'écart d'AUROC selon l'origine ethnique se réduit de 25 à 54 %) ; sur les données veineuses clairsemées du domaine, la vue distributionnelle améliore le clustering supervisé (ARI +39 %, NMI +40 %). Code et poids : https://github.com/cruiseresearchgroup/CGM-JEPA
English
Continuous Glucose Monitoring (CGM) can detect early metabolic subphenotypes (insulin resistance, IR; β-cell dysfunction), but population-scale deployment faces two coupled problems. First, the same physiological state appears through multiple views (CGM time series, venous OGTT, Glucodensity summaries), so single-view representations fail to transfer when deployment shifts the modality or setting. Second, baselines perform inconsistently across these shifts. Both problems point to one remedy: representations that abstract away from any single view to capture higher-level temporal and distributional structure. We propose CGM-JEPA, a self-supervised pretraining framework which predicts masked latent representations rather than raw values, yielding abstraction that transfers across modalities. X-CGM-JEPA adds a masked Glucodensity cross-view objective for complementary distributional information. We pretrain on sim389k unlabeled CGM readings from 228 subjects and evaluate on two clinical cohorts (N=27 and N=17 public-release subsets) across three regimes (cohort generalization, venous-to-CGM transfer, home CGM) under 20-iteration times 2-fold cross-validation. X-CGM-JEPA ranks first or second on AUROC for both endpoints across all three regimes while no baseline does, exceeding the strongest baseline by up to +6.5 pp in cohort generalization and +3.6 pp in venous-to-CGM transfer (paired Wilcoxon, p<0.001). Under modality shift, it matches mean AUROC while redistributing toward weaker subgroups (ethnicity AUROC gap shrinks 25-54%); on sparse in-domain venous data, the distributional view lifts label-aware clustering (ARI +39%, NMI +40%). Code and weights: https://github.com/cruiseresearchgroup/CGM-JEPA
PDF21May 12, 2026