Аугментация Shuffle PatchMix с псевдометками, взвешенными по доверительному интервалу, для улучшения адаптации без доступа к исходным данным
Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation
May 30, 2025
Авторы: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI
Аннотация
В данной работе исследуется адаптация к целевому домену без доступа к исходным данным (Source-Free Domain Adaptation, SFDA). Предложены новая техника аугментации Shuffle PatchMix (SPM) и инновационная стратегия перевзвешивания для повышения производительности. SPM перемешивает и смешивает фрагменты изображений, создавая разнообразные и сложные аугментации, в то время как стратегия перевзвешивания уделяет приоритетное внимание надежным псевдометкам, чтобы снизить уровень шума в метках. Эти методы особенно эффективны на небольших наборах данных, таких как PACS, где переобучение и шум в псевдометках представляют большую угрозу. Достигнуты результаты, превосходящие современные подходы, на трех основных бенчмарках: PACS, VisDA-C и DomainNet-126. В частности, на PACS наблюдаются улучшения на 7,3% (с 79,4% до 86,7%) и 7,2% в условиях одного и нескольких целевых доменов соответственно, в то время как на DomainNet-126 и VisDA-C достигнуты приросты на 2,8% и 0,7%. Сочетание продвинутой аугментации и надежного перевзвешивания псевдометок устанавливает новый стандарт для SFDA. Код доступен по адресу: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model
adapts to a target domain without access to source data. A new augmentation
technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are
introduced to enhance performance. SPM shuffles and blends image patches to
generate diverse and challenging augmentations, while the reweighting strategy
prioritizes reliable pseudo-labels to mitigate label noise. These techniques
are particularly effective on smaller datasets like PACS, where overfitting and
pseudo-label noise pose greater risks. State-of-the-art results are achieved on
three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS,
improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target
and multi-target settings, respectively, while gains of 2.8% and 0.7% are
attained on DomainNet-126 and VisDA-C. This combination of advanced
augmentation and robust pseudo-label reweighting establishes a new benchmark
for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM