ChatPaper.aiChatPaper

Verbesserte OoD-Erkennung durch cross-modale Ausrichtung multimodaler Repräsentationen

Enhanced OoD Detection through Cross-Modal Alignment of Multi-Modal Representations

March 24, 2025
Autoren: Jeonghyeon Kim, Sangheum Hwang
cs.AI

Zusammenfassung

Frühere Forschungen zur Erkennung von Out-of-Distribution-Daten (OoDD) konzentrierten sich hauptsächlich auf Einzelmodalitätsmodelle. In jüngster Zeit sind mit der Einführung großskaliger vortrainierter Vision-Sprache-Modelle wie CLIP OoDD-Methoden entstanden, die solche multimodalen Repräsentationen durch Zero-Shot- und Prompt-Learning-Strategien nutzen. Diese Methoden beinhalten jedoch typischerweise entweder das Einfrieren der vortrainierten Gewichte oder nur eine teilweise Anpassung, was für nachgelagerte Datensätze suboptimal sein kann. In diesem Artikel zeigen wir auf, dass multimodales Fine-Tuning (MMFT) eine bemerkenswerte OoDD-Leistung erzielen kann. Obwohl einige aktuelle Arbeiten die Auswirkungen von Fine-Tuning-Methoden auf OoDD demonstrieren, besteht weiterhin erhebliches Potenzial für Leistungsverbesserungen. Wir untersuchen die Grenzen naiver Fine-Tuning-Methoden und analysieren, warum sie das vortrainierte Wissen nicht vollständig nutzen. Unsere empirische Analyse legt nahe, dass dieses Problem aus der Modallitätslücke innerhalb der In-Distribution (ID)-Einbettungen resultieren könnte. Um dies zu adressieren, schlagen wir ein Trainingsziel vor, das die cross-modale Ausrichtung verbessert, indem die Abstände zwischen Bild- und Texteinbettungen von ID-Daten regularisiert werden. Diese Anpassung hilft dabei, vortrainierte textuelle Informationen besser zu nutzen, indem ähnliche Semantiken aus verschiedenen Modalitäten (d. h. Text und Bild) im hypersphärischen Repräsentationsraum enger ausgerichtet werden. Wir zeigen theoretisch, dass die vorgeschlagene Regularisierung der Maximum-Likelihood-Schätzung eines energiebasierten Modells auf einer Hypersphäre entspricht. Unter Verwendung von ImageNet-1k-OoD-Benchmark-Datensätzen demonstrieren wir, dass unsere Methode in Kombination mit post-hoc-OoDD-Ansätzen, die vortrainiertes Wissen nutzen (z. B. NegLabel), bestehende Methoden deutlich übertrifft und state-of-the-art OoDD-Leistung sowie führende ID-Genauigkeit erreicht.
English
Prior research on out-of-distribution detection (OoDD) has primarily focused on single-modality models. Recently, with the advent of large-scale pretrained vision-language models such as CLIP, OoDD methods utilizing such multi-modal representations through zero-shot and prompt learning strategies have emerged. However, these methods typically involve either freezing the pretrained weights or only partially tuning them, which can be suboptimal for downstream datasets. In this paper, we highlight that multi-modal fine-tuning (MMFT) can achieve notable OoDD performance. Despite some recent works demonstrating the impact of fine-tuning methods for OoDD, there remains significant potential for performance improvement. We investigate the limitation of na\"ive fine-tuning methods, examining why they fail to fully leverage the pretrained knowledge. Our empirical analysis suggests that this issue could stem from the modality gap within in-distribution (ID) embeddings. To address this, we propose a training objective that enhances cross-modal alignment by regularizing the distances between image and text embeddings of ID data. This adjustment helps in better utilizing pretrained textual information by aligning similar semantics from different modalities (i.e., text and image) more closely in the hyperspherical representation space. We theoretically demonstrate that the proposed regularization corresponds to the maximum likelihood estimation of an energy-based model on a hypersphere. Utilizing ImageNet-1k OoD benchmark datasets, we show that our method, combined with post-hoc OoDD approaches leveraging pretrained knowledge (e.g., NegLabel), significantly outperforms existing methods, achieving state-of-the-art OoDD performance and leading ID accuracy.

Summary

AI-Generated Summary

PDF41April 3, 2025