ChatPaper.aiChatPaper

信頼度マージン重み付き擬似ラベルを用いたシャッフルパッチミックス拡張によるソースフリードメイン適応の強化

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
著者: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

要旨

本研究は、ソースデータにアクセスすることなくターゲットドメインに適応するモデルであるSource-Free Domain Adaptation(SFDA)を調査する。新しい拡張技術であるShuffle PatchMix(SPM)と、新たな再重み付け戦略を導入し、性能を向上させる。SPMは画像パッチをシャッフルしブレンドすることで、多様で挑戦的な拡張を生成し、再重み付け戦略は信頼性の高い疑似ラベルを優先してラベルノイズを軽減する。これらの技術は、PACSのような小規模データセットにおいて特に有効であり、過学習や疑似ラベルノイズが大きなリスクとなる。PACS、VisDA-C、DomainNet-126の3つの主要なベンチマークにおいて、最先端の結果を達成した。特にPACSでは、シングルターゲット設定で7.3%(79.4%から86.7%)、マルチターゲット設定で7.2%の改善が観察され、DomainNet-126とVisDA-Cではそれぞれ2.8%と0.7%の向上が得られた。この高度な拡張技術と頑健な疑似ラベル再重み付けの組み合わせにより、SFDAの新たなベンチマークが確立された。コードは以下で公開されている:https://github.com/PrasannaPulakurthi/SPM
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025