ChatPaper.aiChatPaper

Shuffle PatchMix Augmentation mit Konfidenz-Margin-gewichteten Pseudo-Labels zur verbesserten Quellfreien Domänenanpassung

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Autoren: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Zusammenfassung

Diese Arbeit untersucht die Source-Free Domain Adaptation (SFDA), bei der sich ein Modell an eine Ziel-Domain anpasst, ohne Zugriff auf die Quelldaten zu haben. Eine neue Augmentations-Technik, Shuffle PatchMix (SPM), und eine neuartige Reweighting-Strategie werden eingeführt, um die Leistung zu verbessern. SPM mischt und kombiniert Bildpatches, um vielfältige und herausfordernde Augmentationen zu erzeugen, während die Reweighting-Strategie zuverlässige Pseudolabels priorisiert, um Label-Rauschen zu reduzieren. Diese Techniken sind besonders effektiv bei kleineren Datensätzen wie PACS, wo Überanpassung und Pseudolabel-Rauschen größere Risiken darstellen. State-of-the-Art-Ergebnisse werden auf drei wichtigen Benchmarks erzielt: PACS, VisDA-C und DomainNet-126. Bemerkenswerterweise werden auf PACS Verbesserungen von 7,3 % (79,4 % auf 86,7 %) und 7,2 % in Einzelziel- und Multi-Ziel-Szenarien beobachtet, während auf DomainNet-126 und VisDA-C Gewinne von 2,8 % bzw. 0,7 % erzielt werden. Diese Kombination aus fortschrittlicher Augmentation und robustem Pseudolabel-Reweighting setzt einen neuen Maßstab für SFDA. Der Code ist verfügbar unter: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025