Augmentation par Shuffle PatchMix avec Pseudo-Étiquettes Pondérées par la Marge de Confiance pour une Adaptation de Domaine Sans Source Améliorée
Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation
May 30, 2025
Auteurs: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI
Résumé
Ce travail explore l'Adaptation de Domaine Sans Source (Source-Free Domain Adaptation, SFDA), où un modèle s'adapte à un domaine cible sans accès aux données sources. Une nouvelle technique d'augmentation, Shuffle PatchMix (SPM), ainsi qu'une stratégie de repondération innovante sont introduites pour améliorer les performances. SPM mélange et réorganise des patches d'images pour générer des augmentations diversifiées et stimulantes, tandis que la stratégie de repondération priorise les pseudo-labels fiables pour atténuer le bruit des labels. Ces techniques sont particulièrement efficaces sur des ensembles de données plus petits comme PACS, où le surajustement et le bruit des pseudo-labels représentent des risques plus importants. Des résultats de pointe sont obtenus sur trois benchmarks majeurs : PACS, VisDA-C et DomainNet-126. Notamment, sur PACS, des améliorations de 7,3 % (de 79,4 % à 86,7 %) et de 7,2 % sont observées dans les configurations à cible unique et à cibles multiples, respectivement, tandis que des gains de 2,8 % et 0,7 % sont atteints sur DomainNet-126 et VisDA-C. Cette combinaison d'augmentation avancée et de repondération robuste des pseudo-labels établit un nouveau standard pour la SFDA. Le code est disponible à l'adresse : https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model
adapts to a target domain without access to source data. A new augmentation
technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are
introduced to enhance performance. SPM shuffles and blends image patches to
generate diverse and challenging augmentations, while the reweighting strategy
prioritizes reliable pseudo-labels to mitigate label noise. These techniques
are particularly effective on smaller datasets like PACS, where overfitting and
pseudo-label noise pose greater risks. State-of-the-art results are achieved on
three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS,
improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target
and multi-target settings, respectively, while gains of 2.8% and 0.7% are
attained on DomainNet-126 and VisDA-C. This combination of advanced
augmentation and robust pseudo-label reweighting establishes a new benchmark
for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM