LoFT: Parameter-effizientes Fine-Tuning für langschwänziges semi-supervidiertes Lernen in offenen Weltszenarien
LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios
September 12, 2025
papers.authors: Jiahao Chen, Zhiyuan Huang, Yurou Liu, Bing Su
cs.AI
papers.abstract
Das Lernen mit langen Schwänzen (Long-tailed Learning) hat aufgrund seiner breiten Anwendbarkeit in realen Szenarien zunehmend Aufmerksamkeit erregt. Unter den bestehenden Ansätzen hat sich das halbüberwachte Lernen mit langen Schwänzen (Long-Tailed Semi-Supervised Learning, LTSSL) als effektive Lösung herausgestellt, indem es eine große Menge ungelabelter Daten in den unausgeglichenen gelabelten Datensatz integriert. Die meisten bisherigen LTSSL-Methoden sind jedoch darauf ausgelegt, Modelle von Grund auf zu trainieren, was oft zu Problemen wie Überzuversicht und qualitativ minderwertigen Pseudolabels führt. Um diese Herausforderungen zu bewältigen, erweitern wir LTSSL in das Paradigma des Feinabstimmens von Foundation-Modellen und schlagen einen neuartigen Rahmen vor: LoFT (Long-tailed semi-supervised learning via parameter-efficient Fine-Tuning). Wir zeigen, dass feinabgestimmte Foundation-Modelle zuverlässigere Pseudolabels generieren können, was dem unausgeglichenen Lernen zugutekommt. Darüber hinaus untersuchen wir eine praktischere Einstellung, indem wir halbüberwachtes Lernen unter Open-World-Bedingungen betrachten, bei denen die ungelabelten Daten Out-of-Distribution (OOD)-Proben enthalten können. Um dieses Problem zu lösen, schlagen wir LoFT-OW (LoFT unter Open-World-Szenarien) vor, um die diskriminative Fähigkeit zu verbessern. Experimentelle Ergebnisse auf mehreren Benchmarks zeigen, dass unsere Methode im Vergleich zu früheren Ansätzen eine überlegene Leistung erzielt, selbst wenn nur 1\% der ungelabelten Daten im Vergleich zu früheren Arbeiten verwendet werden.
English
Long-tailed learning has garnered increasing attention due to its wide
applicability in real-world scenarios. Among existing approaches, Long-Tailed
Semi-Supervised Learning (LTSSL) has emerged as an effective solution by
incorporating a large amount of unlabeled data into the imbalanced labeled
dataset. However, most prior LTSSL methods are designed to train models from
scratch, which often leads to issues such as overconfidence and low-quality
pseudo-labels. To address these challenges, we extend LTSSL into the foundation
model fine-tuning paradigm and propose a novel framework: LoFT (Long-tailed
semi-supervised learning via parameter-efficient Fine-Tuning). We demonstrate
that fine-tuned foundation models can generate more reliable pseudolabels,
thereby benefiting imbalanced learning. Furthermore, we explore a more
practical setting by investigating semi-supervised learning under open-world
conditions, where the unlabeled data may include out-of-distribution (OOD)
samples. To handle this problem, we propose LoFT-OW (LoFT under Open-World
scenarios) to improve the discriminative ability. Experimental results on
multiple benchmarks demonstrate that our method achieves superior performance
compared to previous approaches, even when utilizing only 1\% of the unlabeled
data compared with previous works.