ChatPaper.aiChatPaper

Aumentação Shuffle PatchMix com Pseudo-Rótulos Ponderados por Margem de Confiança para Adaptação de Domínio Livre de Fonte Aprimorada

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Autores: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Resumo

Este trabalho investiga a Adaptação de Domínio Livre de Fonte (Source-Free Domain Adaptation - SFDA), onde um modelo se adapta a um domínio de destino sem acesso aos dados de origem. Uma nova técnica de aumento de dados, Shuffle PatchMix (SPM), e uma estratégia inovadora de rebalanceamento são introduzidas para melhorar o desempenho. O SPM embaralha e combina partes de imagens para gerar aumentos de dados diversos e desafiadores, enquanto a estratégia de rebalanceamento prioriza pseudo-rótulos confiáveis para mitigar o ruído nos rótulos. Essas técnicas são particularmente eficazes em conjuntos de dados menores, como o PACS, onde o overfitting e o ruído nos pseudo-rótulos representam riscos maiores. Resultados de ponta são alcançados em três benchmarks principais: PACS, VisDA-C e DomainNet-126. Notavelmente, no PACS, são observadas melhorias de 7,3% (de 79,4% para 86,7%) e 7,2% em configurações de alvo único e múltiplos alvos, respectivamente, enquanto ganhos de 2,8% e 0,7% são obtidos no DomainNet-126 e VisDA-C. Essa combinação de aumento de dados avançado e rebalanceamento robusto de pseudo-rótulos estabelece um novo padrão para SFDA. O código está disponível em: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025