ChatPaper.aiChatPaper

Augmentation par Shuffle PatchMix avec Pseudo-Étiquettes Pondérées par la Marge de Confiance pour une Adaptation de Domaine Sans Source Améliorée

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Auteurs: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Résumé

Ce travail explore l'Adaptation de Domaine Sans Source (Source-Free Domain Adaptation, SFDA), où un modèle s'adapte à un domaine cible sans accès aux données sources. Une nouvelle technique d'augmentation, Shuffle PatchMix (SPM), ainsi qu'une stratégie de repondération innovante sont introduites pour améliorer les performances. SPM mélange et réorganise des patches d'images pour générer des augmentations diversifiées et stimulantes, tandis que la stratégie de repondération priorise les pseudo-labels fiables pour atténuer le bruit des labels. Ces techniques sont particulièrement efficaces sur des ensembles de données plus petits comme PACS, où le surajustement et le bruit des pseudo-labels représentent des risques plus importants. Des résultats de pointe sont obtenus sur trois benchmarks majeurs : PACS, VisDA-C et DomainNet-126. Notamment, sur PACS, des améliorations de 7,3 % (de 79,4 % à 86,7 %) et de 7,2 % sont observées dans les configurations à cible unique et à cibles multiples, respectivement, tandis que des gains de 2,8 % et 0,7 % sont atteints sur DomainNet-126 et VisDA-C. Cette combinaison d'augmentation avancée et de repondération robuste des pseudo-labels établit un nouveau standard pour la SFDA. Le code est disponible à l'adresse : https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025