ChatPaper.aiChatPaper

Modelos de Visión-Texto Mejorados con Recuperación y Contraste

Retrieval-Enhanced Contrastive Vision-Text Models

June 12, 2023
Autores: Ahmet Iscen, Mathilde Caron, Alireza Fathi, Cordelia Schmid
cs.AI

Resumen

Los modelos de contraste imagen-texto como CLIP constituyen los bloques fundamentales de muchos sistemas de vanguardia. Si bien sobresalen en el reconocimiento de conceptos genéricos comunes, aún presentan dificultades con entidades específicas que son raras o incluso están ausentes en el conjunto de datos de preentrenamiento. Por lo tanto, un elemento clave para su éxito ha sido el uso de datos de preentrenamiento a gran escala y cuidadosamente seleccionados, con el objetivo de ampliar el conjunto de conceptos que pueden memorizar durante la etapa de preentrenamiento. En este trabajo, exploramos una alternativa a la codificación directa del conocimiento específico en los parámetros del modelo: en su lugar, entrenamos al modelo para recuperar este conocimiento de una memoria externa. Específicamente, proponemos dotar a los modelos existentes de visión y texto con la capacidad de refinar su representación mediante información recuperada de manera multimodal desde una memoria durante la inferencia, lo que mejora significativamente sus predicciones en escenarios de cero disparos. De manera notable, demostramos que esto puede lograrse con un transformador de fusión ligero y de una sola capa, superpuesto a un CLIP congelado. Nuestros experimentos validan que nuestro entrenamiento de contraste mejorado con recuperación (RECO) mejora sustancialmente el rendimiento de CLIP en varias tareas desafiantes de granularidad fina: por ejemplo, +10.9 en Stanford Cars, +10.2 en CUB-2011 y +7.3 en el reciente benchmark OVEN.
English
Contrastive image-text models such as CLIP form the building blocks of many state-of-the-art systems. While they excel at recognizing common generic concepts, they still struggle on fine-grained entities which are rare, or even absent from the pre-training dataset. Hence, a key ingredient to their success has been the use of large-scale curated pre-training data aiming at expanding the set of concepts that they can memorize during the pre-training stage. In this work, we explore an alternative to encoding fine-grained knowledge directly into the model's parameters: we instead train the model to retrieve this knowledge from an external memory. Specifically, we propose to equip existing vision-text models with the ability to refine their embedding with cross-modal retrieved information from a memory at inference time, which greatly improves their zero-shot predictions. Remarkably, we show that this can be done with a light-weight, single-layer, fusion transformer on top of a frozen CLIP. Our experiments validate that our retrieval-enhanced contrastive (RECO) training improves CLIP performance substantially on several challenging fine-grained tasks: for example +10.9 on Stanford Cars, +10.2 on CUB-2011 and +7.3 on the recent OVEN benchmark.
PDF70December 15, 2024