ChatPaper.aiChatPaper

Аугментация Shuffle PatchMix с псевдометками, взвешенными по доверительному интервалу, для улучшения адаптации без доступа к исходным данным

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Авторы: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Аннотация

В данной работе исследуется адаптация к целевому домену без доступа к исходным данным (Source-Free Domain Adaptation, SFDA). Предложены новая техника аугментации Shuffle PatchMix (SPM) и инновационная стратегия перевзвешивания для повышения производительности. SPM перемешивает и смешивает фрагменты изображений, создавая разнообразные и сложные аугментации, в то время как стратегия перевзвешивания уделяет приоритетное внимание надежным псевдометкам, чтобы снизить уровень шума в метках. Эти методы особенно эффективны на небольших наборах данных, таких как PACS, где переобучение и шум в псевдометках представляют большую угрозу. Достигнуты результаты, превосходящие современные подходы, на трех основных бенчмарках: PACS, VisDA-C и DomainNet-126. В частности, на PACS наблюдаются улучшения на 7,3% (с 79,4% до 86,7%) и 7,2% в условиях одного и нескольких целевых доменов соответственно, в то время как на DomainNet-126 и VisDA-C достигнуты приросты на 2,8% и 0,7%. Сочетание продвинутой аугментации и надежного перевзвешивания псевдометок устанавливает новый стандарт для SFDA. Код доступен по адресу: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025