Смягчение галлюцинаций объектов с помощью концентрического причинного внимания
Mitigating Object Hallucination via Concentric Causal Attention
October 21, 2024
Авторы: Yun Xing, Yiheng Li, Ivan Laptev, Shijian Lu
cs.AI
Аннотация
Недавние крупные модели языка и зрения (LVLM) обладают выдающимися возможностями нулевого обучения в разговоре и рассуждениях при мультимодальных запросах. Тем не менее, они страдают от галлюцинаций объектов, явления, при котором LVLM склонны генерировать текстовые ответы, не соответствующие фактически изображениям. Наш пилотный проект показывает, что галлюцинации объектов тесно связаны с Поворотным Кодированием Позиции (RoPE), широко применяемой моделью позиционной зависимости в существующих LVLM. Из-за долгосрочного затухания в RoPE LVLM склонны к галлюцинациям при отдаленных визуальных подсказках от инструкционных токенов в мультимодальной последовательности ввода. Кроме того, мы наблюдаем аналогичный эффект при изменении последовательного порядка визуальных токенов во время мультимодального выравнивания. Наши тесты показывают, что долгосрочное затухание в RoPE создает проблемы для LVLM при взаимодействии визуальных и инструкционных данных на большие расстояния. Мы предлагаем Концентрическое Причинное Внимание (CCA), простую, но эффективную стратегию позиционного выравнивания, которая смягчает влияние долгосрочного затухания в RoPE в LVLM естественным образом уменьшая относительное расстояние между визуальными и инструкционными токенами. С CCA визуальные токены могут лучше взаимодействовать с инструкционными токенами, тем самым улучшая способность модели к восприятию и уменьшая галлюцинации объектов. Без лишних украшательств наш метод позиционного выравнивания превосходит существующие стратегии борьбы с галлюцинациями объектов на множестве бенчмарков по галлюцинациям.
English
Recent Large Vision Language Models (LVLMs) present remarkable zero-shot
conversational and reasoning capabilities given multimodal queries.
Nevertheless, they suffer from object hallucination, a phenomenon where LVLMs
are prone to generate textual responses not factually aligned with image
inputs. Our pilot study reveals that object hallucination is closely tied with
Rotary Position Encoding (RoPE), a widely adopted positional dependency
modeling design in existing LVLMs. Due to the long-term decay in RoPE, LVLMs
tend to hallucinate more when relevant visual cues are distant from instruction
tokens in the multimodal input sequence. Additionally, we observe a similar
effect when reversing the sequential order of visual tokens during multimodal
alignment. Our tests indicate that long-term decay in RoPE poses challenges to
LVLMs while capturing visual-instruction interactions across long distances. We
propose Concentric Causal Attention (CCA), a simple yet effective positional
alignment strategy that mitigates the impact of RoPE long-term decay in LVLMs
by naturally reducing relative distance between visual and instruction tokens.
With CCA, visual tokens can better interact with instruction tokens, thereby
enhancing model's perception capability and alleviating object hallucination.
Without bells and whistles, our positional alignment method surpasses existing
hallucination mitigation strategies by large margins on multiple object
hallucination benchmarks.Summary
AI-Generated Summary