Données SPARSE, Résultats Riches : Apprentissage Semi-Supervisé en Peu de Coups via la Traduction d'Images Conditionnée par Classe
SPARSE Data, Rich Results: Few-Shot Semi-Supervised Learning via Class-Conditioned Image Translation
August 8, 2025
papers.authors: Guido Manni, Clemente Lauretti, Loredana Zollo, Paolo Soda
cs.AI
papers.abstract
L'apprentissage profond a révolutionné l'imagerie médicale, mais son efficacité est sévèrement limitée par le manque de données annotées pour l'entraînement. Cet article présente un nouveau cadre d'apprentissage semi-supervisé basé sur les GAN, spécialement conçu pour les régimes à faible quantité de données annotées, évalué dans des configurations allant de 5 à 50 échantillons annotés par classe. Notre approche intègre trois réseaux de neurones spécialisés — un générateur pour la traduction d'images conditionnée par classe, un discriminateur pour l'évaluation de l'authenticité et la classification, ainsi qu'un classifieur dédié — au sein d'un cadre d'entraînement en trois phases. La méthode alterne entre un entraînement supervisé sur des données annotées limitées et un apprentissage non supervisé qui exploite une abondance d'images non annotées via la traduction d'image à image plutôt que la génération à partir de bruit. Nous utilisons un pseudo-étiquetage basé sur l'ensemble qui combine les prédictions pondérées par la confiance du discriminateur et du classifieur avec une cohérence temporelle via une moyenne mobile exponentielle, permettant une estimation fiable des étiquettes pour les données non annotées. Une évaluation approfondie sur onze ensembles de données MedMNIST démontre que notre approche obtient des améliorations statistiquement significatives par rapport à six méthodes semi-supervisées basées sur les GAN de pointe, avec des performances particulièrement solides dans le cadre extrême de 5 échantillons où la rareté des données annotées est la plus problématique. Le cadre maintient sa supériorité dans toutes les configurations évaluées (5, 10, 20 et 50 échantillons par classe). Notre approche offre une solution pratique pour les applications d'imagerie médicale où les coûts d'annotation sont prohibitifs, permettant une performance de classification robuste même avec un minimum de données annotées. Le code est disponible à l'adresse https://github.com/GuidoManni/SPARSE.
English
Deep learning has revolutionized medical imaging, but its effectiveness is
severely limited by insufficient labeled training data. This paper introduces a
novel GAN-based semi-supervised learning framework specifically designed for
low labeled-data regimes, evaluated across settings with 5 to 50 labeled
samples per class. Our approach integrates three specialized neural networks --
a generator for class-conditioned image translation, a discriminator for
authenticity assessment and classification, and a dedicated classifier --
within a three-phase training framework. The method alternates between
supervised training on limited labeled data and unsupervised learning that
leverages abundant unlabeled images through image-to-image translation rather
than generation from noise. We employ ensemble-based pseudo-labeling that
combines confidence-weighted predictions from the discriminator and classifier
with temporal consistency through exponential moving averaging, enabling
reliable label estimation for unlabeled data. Comprehensive evaluation across
eleven MedMNIST datasets demonstrates that our approach achieves statistically
significant improvements over six state-of-the-art GAN-based semi-supervised
methods, with particularly strong performance in the extreme 5-shot setting
where the scarcity of labeled data is most challenging. The framework maintains
its superiority across all evaluated settings (5, 10, 20, and 50 shots per
class). Our approach offers a practical solution for medical imaging
applications where annotation costs are prohibitive, enabling robust
classification performance even with minimal labeled data. Code is available at
https://github.com/GuidoManni/SPARSE.