ChatPaper.aiChatPaper

Shuffle PatchMix Augmentation con Etichette Pseudo-Ponderate per Margine di Confidenza per un Adattamento di Dominio Senza Sorgente Migliorato

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Autori: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Abstract

Questo lavoro esplora l'Adattamento al Dominio Senza Accesso ai Dati di Sorgente (Source-Free Domain Adaptation, SFDA), in cui un modello si adatta a un dominio target senza accesso ai dati di origine. Viene introdotta una nuova tecnica di aumentazione, Shuffle PatchMix (SPM), e una strategia innovativa di ripesatura per migliorare le prestazioni. SPM mescola e combina porzioni di immagini per generare aumentazioni diversificate e impegnative, mentre la strategia di ripesatura privilegia pseudo-etichette affidabili per mitigare il rumore nelle etichette. Queste tecniche sono particolarmente efficaci su dataset più piccoli come PACS, dove l'overfitting e il rumore nelle pseudo-etichette rappresentano rischi maggiori. Si ottengono risultati all'avanguardia su tre benchmark principali: PACS, VisDA-C e DomainNet-126. In particolare, su PACS si osservano miglioramenti del 7,3% (da 79,4% a 86,7%) e del 7,2% rispettivamente in contesti single-target e multi-target, mentre su DomainNet-126 e VisDA-C si registrano guadagni del 2,8% e dello 0,7%. Questa combinazione di aumentazione avanzata e ripesatura robusta delle pseudo-etichette stabilisce un nuovo punto di riferimento per l'SFDA. Il codice è disponibile all'indirizzo: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF14June 3, 2025