ChatPaper.aiChatPaper

AlignVLM: Связывание скрытых пространств зрения и языка для мультимодального понимания

AlignVLM: Bridging Vision and Language Latent Spaces for Multimodal Understanding

February 3, 2025
Авторы: Ahmed Masry, Juan A. Rodriguez, Tianyu Zhang, Suyuchen Wang, Chao Wang, Aarash Feizi, Akshay Kalkunte Suresh, Abhay Puri, Xiangru Jian, Pierre-André Noël, Sathwik Tejaswi Madhusudhan, Marco Pedersoli, Bang Liu, Nicolas Chapados, Yoshua Bengio, Enamul Hoque, Christopher Pal, Issam H. Laradji, David Vazquez, Perouz Taslakian, Spandana Gella, Sai Rajeswar
cs.AI

Аннотация

Выравнивание визуальных признаков с языковыми вложениями является ключевой проблемой в моделях видео-языкового взаимодействия (VLM). Производительность таких моделей зависит от наличия хорошего коннектора, который отображает визуальные признаки, сгенерированные видео-кодировщиком, в общее пространство вложений с LLM, сохраняя семантическую схожесть. Существующие коннекторы, такие как многослойные перцептроны (MLP), часто порождают входные данные вне распределения или зашумленные, что приводит к несоответствию между модальностями. В данной работе мы предлагаем новый метод выравнивания видео-текста, AlignVLM, который отображает визуальные признаки на взвешенное среднее вложений текста LLM. Наш подход использует лингвистические априорные знания, закодированные LLM, чтобы гарантировать, что визуальные признаки отображаются в области пространства, которую LLM может эффективно интерпретировать. AlignVLM особенно эффективен для задач понимания документов, где изображения отсканированных документов должны точно соотноситься с их текстовым содержанием. Наши обширные эксперименты показывают, что AlignVLM достигает передовой производительности по сравнению с предыдущими методами выравнивания. Мы предоставляем дополнительный анализ, демонстрирующий улучшенное выравнивание визуально-текстовых признаков и устойчивость к шуму.
English
Aligning visual features with language embeddings is a key challenge in vision-language models (VLMs). The performance of such models hinges on having a good connector that maps visual features generated by a vision encoder to a shared embedding space with the LLM while preserving semantic similarity. Existing connectors, such as multilayer perceptrons (MLPs), often produce out-of-distribution or noisy inputs, leading to misalignment between the modalities. In this work, we propose a novel vision-text alignment method, AlignVLM, that maps visual features to a weighted average of LLM text embeddings. Our approach leverages the linguistic priors encoded by the LLM to ensure that visual features are mapped to regions of the space that the LLM can effectively interpret. AlignVLM is particularly effective for document understanding tasks, where scanned document images must be accurately mapped to their textual content. Our extensive experiments show that AlignVLM achieves state-of-the-art performance compared to prior alignment methods. We provide further analysis demonstrating improved vision-text feature alignment and robustness to noise.

Summary

AI-Generated Summary

PDF393February 4, 2025