ChatPaper.aiChatPaper

LoFT: Fine-Tuning Efficiente in Termini di Parametri per l'Apprendimento Semi-Supervisionato a Coda Lunga in Scenari di Mondo Aperto

LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios

September 12, 2025
Autori: Jiahao Chen, Zhiyuan Huang, Yurou Liu, Bing Su
cs.AI

Abstract

L'apprendimento a coda lunga ha attirato un'attenzione crescente grazie alla sua ampia applicabilità in scenari reali. Tra gli approcci esistenti, l'apprendimento semi-supervisionato a coda lunga (LTSSL) è emerso come una soluzione efficace incorporando una grande quantità di dati non etichettati in un dataset etichettato sbilanciato. Tuttavia, la maggior parte dei metodi LTSSL precedenti è progettata per addestrare modelli da zero, il che spesso porta a problemi come eccessiva sicurezza e pseudo-etichette di bassa qualità. Per affrontare queste sfide, estendiamo il LTSSL nel paradigma di fine-tuning dei modelli di base e proponiamo un nuovo framework: LoFT (Long-tailed semi-supervised learning via parameter-efficient Fine-Tuning). Dimostriamo che i modelli di base sottoposti a fine-tuning possono generare pseudo-etichette più affidabili, beneficiando così l'apprendimento sbilanciato. Inoltre, esploriamo un'impostazione più pratica investigando l'apprendimento semi-supervisionato in condizioni di mondo aperto, dove i dati non etichettati possono includere campioni fuori distribuzione (OOD). Per gestire questo problema, proponiamo LoFT-OW (LoFT in scenari di mondo aperto) per migliorare la capacità discriminativa. I risultati sperimentali su più benchmark dimostrano che il nostro metodo raggiunge prestazioni superiori rispetto agli approcci precedenti, anche utilizzando solo l'1% dei dati non etichettati rispetto ai lavori precedenti.
English
Long-tailed learning has garnered increasing attention due to its wide applicability in real-world scenarios. Among existing approaches, Long-Tailed Semi-Supervised Learning (LTSSL) has emerged as an effective solution by incorporating a large amount of unlabeled data into the imbalanced labeled dataset. However, most prior LTSSL methods are designed to train models from scratch, which often leads to issues such as overconfidence and low-quality pseudo-labels. To address these challenges, we extend LTSSL into the foundation model fine-tuning paradigm and propose a novel framework: LoFT (Long-tailed semi-supervised learning via parameter-efficient Fine-Tuning). We demonstrate that fine-tuned foundation models can generate more reliable pseudolabels, thereby benefiting imbalanced learning. Furthermore, we explore a more practical setting by investigating semi-supervised learning under open-world conditions, where the unlabeled data may include out-of-distribution (OOD) samples. To handle this problem, we propose LoFT-OW (LoFT under Open-World scenarios) to improve the discriminative ability. Experimental results on multiple benchmarks demonstrate that our method achieves superior performance compared to previous approaches, even when utilizing only 1\% of the unlabeled data compared with previous works.
PDF132September 15, 2025