ChatPaper.aiChatPaper

Detección Mejorada de OoD mediante Alineación Intermodal de Representaciones Multimodales

Enhanced OoD Detection through Cross-Modal Alignment of Multi-Modal Representations

March 24, 2025
Autores: Jeonghyeon Kim, Sangheum Hwang
cs.AI

Resumen

Investigaciones previas sobre detección fuera de distribución (OoDD, por sus siglas en inglés) se han centrado principalmente en modelos de una sola modalidad. Recientemente, con el surgimiento de modelos de visión-lenguaje preentrenados a gran escala como CLIP, han emergido métodos de OoDD que utilizan representaciones multimodales a través de estrategias de aprendizaje zero-shot y basado en prompts. Sin embargo, estos métodos generalmente implican congelar los pesos preentrenados o ajustarlos solo parcialmente, lo que puede ser subóptimo para conjuntos de datos específicos. En este artículo, destacamos que el ajuste fino multimodal (MMFT, por sus siglas en inglés) puede lograr un rendimiento notable en OoDD. A pesar de que algunos trabajos recientes han demostrado el impacto de los métodos de ajuste fino en OoDD, aún existe un potencial significativo para mejorar el rendimiento. Investigamos las limitaciones de los métodos de ajuste fino ingenuos, examinando por qué no logran aprovechar completamente el conocimiento preentrenado. Nuestro análisis empírico sugiere que este problema podría originarse en la brecha modal dentro de las incrustaciones de datos en distribución (ID, por sus siglas en inglés). Para abordar esto, proponemos un objetivo de entrenamiento que mejora la alineación multimodal mediante la regularización de las distancias entre las incrustaciones de imágenes y texto de los datos ID. Este ajuste ayuda a utilizar mejor la información textual preentrenada al alinear semánticas similares de diferentes modalidades (es decir, texto e imagen) más estrechamente en el espacio de representación hiperesférico. Teóricamente demostramos que la regularización propuesta corresponde a la estimación de máxima verosimilitud de un modelo basado en energía en una hiperesfera. Utilizando conjuntos de datos de referencia OoD de ImageNet-1k, mostramos que nuestro método, combinado con enfoques OoDD post-hoc que aprovechan el conocimiento preentrenado (por ejemplo, NegLabel), supera significativamente a los métodos existentes, logrando un rendimiento de vanguardia en OoDD y una precisión líder en ID.
English
Prior research on out-of-distribution detection (OoDD) has primarily focused on single-modality models. Recently, with the advent of large-scale pretrained vision-language models such as CLIP, OoDD methods utilizing such multi-modal representations through zero-shot and prompt learning strategies have emerged. However, these methods typically involve either freezing the pretrained weights or only partially tuning them, which can be suboptimal for downstream datasets. In this paper, we highlight that multi-modal fine-tuning (MMFT) can achieve notable OoDD performance. Despite some recent works demonstrating the impact of fine-tuning methods for OoDD, there remains significant potential for performance improvement. We investigate the limitation of na\"ive fine-tuning methods, examining why they fail to fully leverage the pretrained knowledge. Our empirical analysis suggests that this issue could stem from the modality gap within in-distribution (ID) embeddings. To address this, we propose a training objective that enhances cross-modal alignment by regularizing the distances between image and text embeddings of ID data. This adjustment helps in better utilizing pretrained textual information by aligning similar semantics from different modalities (i.e., text and image) more closely in the hyperspherical representation space. We theoretically demonstrate that the proposed regularization corresponds to the maximum likelihood estimation of an energy-based model on a hypersphere. Utilizing ImageNet-1k OoD benchmark datasets, we show that our method, combined with post-hoc OoDD approaches leveraging pretrained knowledge (e.g., NegLabel), significantly outperforms existing methods, achieving state-of-the-art OoDD performance and leading ID accuracy.

Summary

AI-Generated Summary

PDF41April 3, 2025