ChatPaper.aiChatPaper

Aumento de Mezcla de Parches Aleatorios con Etiquetas Pseudo-Ponderadas por Margen de Confianza para una Adaptación de Dominio Libre de Fuente Mejorada

Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

May 30, 2025
Autores: Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao
cs.AI

Resumen

Este trabajo investiga la Adaptación de Dominio sin Fuente (SFDA, por sus siglas en inglés), donde un modelo se adapta a un dominio objetivo sin acceso a los datos de origen. Se introduce una nueva técnica de aumento, Shuffle PatchMix (SPM), y una estrategia novedosa de reponderación para mejorar el rendimiento. SPM mezcla y combina parches de imágenes para generar aumentaciones diversas y desafiantes, mientras que la estrategia de reponderación prioriza pseudoetiquetas confiables para mitigar el ruido en las etiquetas. Estas técnicas son particularmente efectivas en conjuntos de datos más pequeños como PACS, donde el sobreajuste y el ruido en las pseudoetiquetas representan riesgos mayores. Se logran resultados de vanguardia en tres benchmarks principales: PACS, VisDA-C y DomainNet-126. Destacan mejoras del 7.3% (de 79.4% a 86.7%) y 7.2% en configuraciones de objetivo único y múltiple, respectivamente, en PACS, mientras que se obtienen ganancias del 2.8% y 0.7% en DomainNet-126 y VisDA-C. Esta combinación de aumento avanzado y reponderación robusta de pseudoetiquetas establece un nuevo estándar para SFDA. El código está disponible en: https://github.com/PrasannaPulakurthi/SPM.
English
This work investigates Source-Free Domain Adaptation (SFDA), where a model adapts to a target domain without access to source data. A new augmentation technique, Shuffle PatchMix (SPM), and a novel reweighting strategy are introduced to enhance performance. SPM shuffles and blends image patches to generate diverse and challenging augmentations, while the reweighting strategy prioritizes reliable pseudo-labels to mitigate label noise. These techniques are particularly effective on smaller datasets like PACS, where overfitting and pseudo-label noise pose greater risks. State-of-the-art results are achieved on three major benchmarks: PACS, VisDA-C, and DomainNet-126. Notably, on PACS, improvements of 7.3% (79.4% to 86.7%) and 7.2% are observed in single-target and multi-target settings, respectively, while gains of 2.8% and 0.7% are attained on DomainNet-126 and VisDA-C. This combination of advanced augmentation and robust pseudo-label reweighting establishes a new benchmark for SFDA. The code is available at: https://github.com/PrasannaPulakurthi/SPM
PDF12June 3, 2025