Aumentação Shuffle PatchMix com Pseudo-Rótulos Ponderados por Margem de Confiança para Adaptação de Domínio Livre de Fonte Aprimorada
Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation
May 30, 2025
Autores: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI
Resumo
Este trabalho investiga a Adaptação de Domínio Livre de Fonte (Source-Free Domain Adaptation - SFDA), onde um modelo se adapta a um domínio de destino sem acesso aos dados de origem. Uma nova técnica de aumento de dados, Shuffle PatchMix (SPM), e uma estratégia inovadora de rebalanceamento são introduzidas para melhorar o desempenho. O SPM embaralha e combina partes de imagens para gerar aumentos de dados diversos e desafiadores, enquanto a estratégia de rebalanceamento prioriza pseudo-rótulos confiáveis para mitigar o ruído nos rótulos. Essas técnicas são particularmente eficazes em conjuntos de dados menores, como o PACS, onde o overfitting e o ruído nos pseudo-rótulos representam riscos maiores. Resultados de ponta são alcançados em três benchmarks principais: PACS, VisDA-C e DomainNet-126. Notavelmente, no PACS, são observadas melhorias de 7,3% (de 79,4% para 86,7%) e 7,2% em configurações de alvo único e múltiplos alvos, respectivamente, enquanto ganhos de 2,8% e 0,7% são obtidos no DomainNet-126 e VisDA-C. Essa combinação de aumento de dados avançado e rebalanceamento robusto de pseudo-rótulos estabelece um novo padrão para SFDA. O código está disponível em: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model
adapts to a target domain without access to source data. A new augmentation
technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are
introduced to enhance performance. SPM shuffles and blends image patches to
generate diverse and challenging augmentations, while the reweighting strategy
prioritizes reliable pseudo-labels to mitigate label noise. These techniques
are particularly effective on smaller datasets like PACS, where overfitting and
pseudo-label noise pose greater risks. State-of-the-art results are achieved on
three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS,
improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target
and multi-target settings, respectively, while gains of 2.8% and 0.7% are
attained on DomainNet-126 and VisDA-C. This combination of advanced
augmentation and robust pseudo-label reweighting establishes a new benchmark
for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM