ChatPaper.aiChatPaper

신뢰도-마진 가중치 의사 레이블을 활용한 셔플 패치믹스 증강 기법을 통한 향상된 소스 프리 도메인 적응

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
저자: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

초록

본 연구는 소스 데이터에 접근하지 않고도 모델이 타겟 도메인에 적응하는 소스 프리 도메인 적응(Source-Free Domain Adaptation, SFDA)을 탐구한다. 이를 위해 새로운 증강 기법인 셔플 패치믹스(Shuffle PatchMix, SPM)와 신뢰할 수 있는 의사 레이블을 우선시하여 레이블 노이즈를 완화하는 재가중 전략을 제안한다. SPM은 이미지 패치를 섞고 혼합하여 다양하고 도전적인 증강 데이터를 생성하며, 재가중 전략은 의사 레이블의 신뢰성을 높이는 데 초점을 맞춘다. 이러한 기법은 PACS와 같은 소규모 데이터셋에서 과적합 및 의사 레이블 노이즈로 인한 위험이 큰 경우에 특히 효과적이다. PACS, VisDA-C, DomainNet-126의 세 가지 주요 벤치마크에서 최신 기술 수준의 결과를 달성하였다. 특히 PACS에서는 단일 타겟 설정에서 7.3%(79.4%에서 86.7%로), 다중 타겟 설정에서 7.2%의 성능 향상을 보였으며, DomainNet-126와 VisDA-C에서는 각각 2.8%와 0.7%의 개선을 이루었다. 이러한 고급 증강 기법과 강력한 의사 레이블 재가중 전략의 조합은 SFDA의 새로운 벤치마크를 제시한다. 코드는 https://github.com/PrasannaPulakurthi/SPM에서 확인할 수 있다.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025