LoFT: Fine-Tuning Efficiente in Termini di Parametri per l'Apprendimento Semi-Supervisionato a Coda Lunga in Scenari di Mondo Aperto
LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios
September 12, 2025
Autori: Jiahao Chen, Zhiyuan Huang, Yurou Liu, Bing Su
cs.AI
Abstract
L'apprendimento a coda lunga ha attirato un'attenzione crescente grazie alla sua ampia applicabilità in scenari reali. Tra gli approcci esistenti, l'apprendimento semi-supervisionato a coda lunga (LTSSL) è emerso come una soluzione efficace incorporando una grande quantità di dati non etichettati in un dataset etichettato sbilanciato. Tuttavia, la maggior parte dei metodi LTSSL precedenti è progettata per addestrare modelli da zero, il che spesso porta a problemi come eccessiva sicurezza e pseudo-etichette di bassa qualità. Per affrontare queste sfide, estendiamo il LTSSL nel paradigma di fine-tuning dei modelli di base e proponiamo un nuovo framework: LoFT (Long-tailed semi-supervised learning via parameter-efficient Fine-Tuning). Dimostriamo che i modelli di base sottoposti a fine-tuning possono generare pseudo-etichette più affidabili, beneficiando così l'apprendimento sbilanciato. Inoltre, esploriamo un'impostazione più pratica investigando l'apprendimento semi-supervisionato in condizioni di mondo aperto, dove i dati non etichettati possono includere campioni fuori distribuzione (OOD). Per gestire questo problema, proponiamo LoFT-OW (LoFT in scenari di mondo aperto) per migliorare la capacità discriminativa. I risultati sperimentali su più benchmark dimostrano che il nostro metodo raggiunge prestazioni superiori rispetto agli approcci precedenti, anche utilizzando solo l'1% dei dati non etichettati rispetto ai lavori precedenti.
English
Long-tailed learning has garnered increasing attention due to its wide
applicability in real-world scenarios. Among existing approaches, Long-Tailed
Semi-Supervised Learning (LTSSL) has emerged as an effective solution by
incorporating a large amount of unlabeled data into the imbalanced labeled
dataset. However, most prior LTSSL methods are designed to train models from
scratch, which often leads to issues such as overconfidence and low-quality
pseudo-labels. To address these challenges, we extend LTSSL into the foundation
model fine-tuning paradigm and propose a novel framework: LoFT (Long-tailed
semi-supervised learning via parameter-efficient Fine-Tuning). We demonstrate
that fine-tuned foundation models can generate more reliable pseudolabels,
thereby benefiting imbalanced learning. Furthermore, we explore a more
practical setting by investigating semi-supervised learning under open-world
conditions, where the unlabeled data may include out-of-distribution (OOD)
samples. To handle this problem, we propose LoFT-OW (LoFT under Open-World
scenarios) to improve the discriminative ability. Experimental results on
multiple benchmarks demonstrate that our method achieves superior performance
compared to previous approaches, even when utilizing only 1\% of the unlabeled
data compared with previous works.