ChatPaper.aiChatPaper

다중 이미지 생성을 통한 언어 모델의 시각적 상식 향상

Improving Visual Commonsense in Language Models via Multiple Image Generation

June 19, 2024
저자: Guy Yariv, Idan Schwartz, Yossi Adi, Sagie Benaim
cs.AI

초록

상식 추론은 근본적으로 다중 모달 지식에 기반을 두고 있습니다. 그러나 기존의 대형 언어 모델(LLMs)은 주로 텍스트 데이터만을 사용해 학습되기 때문에 필수적인 시각 정보를 통합하는 능력이 제한적입니다. 반면, 시각 중심 작업에서 뛰어난 성능을 보이는 시각 언어 모델은 기본적인 상식 추론과 같은 비시각적 작업에서는 종종 실패합니다. 이러한 차이는 강력한 시각 이해와 텍스트 기반 언어 추론의 통합이라는 중요한 과제를 부각시킵니다. 이를 위해, 우리는 LLM의 시각적 상식을 향상시키기 위한 방법을 제안합니다. 구체적으로, 우리의 방법은 입력 텍스트 프롬프트를 기반으로 여러 이미지를 생성하고, 이들의 예측 확률을 혼합하여 모델의 의사결정 과정에 통합합니다. 다중 모달 기반 언어 모델링을 용이하게 하기 위해, 우리는 사전 학습된 LLM의 텍스트 전용 출력과 투영된 시각적 특징을 결합하는 후기 융합(late-fusion) 레이어를 사용합니다. 이 후기 융합 레이어는 포괄적인 이미지-텍스트 지식뿐만 아니라 필요한 경우 텍스트만을 기반으로 예측을 가능하게 합니다. 우리는 이 접근법을 여러 시각적 상식 추론 작업과 함께 전통적인 NLP 작업(상식 추론 및 독해 포함)을 사용해 평가합니다. 실험 결과는 기존의 베이스라인을 크게 능가함을 보여줍니다. 최신 최첨단 LLM(예: Llama3)에 적용했을 때, 시각적 상식뿐만 아니라 전통적인 NLP 벤치마크에서도 개선이 관찰되었습니다. 코드와 모델은 https://github.com/guyyariv/vLMIG에서 확인할 수 있습니다.
English
Commonsense reasoning is fundamentally based on multimodal knowledge. However, existing large language models (LLMs) are primarily trained using textual data only, limiting their ability to incorporate essential visual information. In contrast, Visual Language Models, which excel at visually-oriented tasks, often fail at non-visual tasks such as basic commonsense reasoning. This divergence highlights a critical challenge - the integration of robust visual understanding with foundational text-based language reasoning. To this end, we introduce a method aimed at enhancing LLMs' visual commonsense. Specifically, our method generates multiple images based on the input text prompt and integrates these into the model's decision-making process by mixing their prediction probabilities. To facilitate multimodal grounded language modeling, we employ a late-fusion layer that combines the projected visual features with the output of a pre-trained LLM conditioned on text only. This late-fusion layer enables predictions based on comprehensive image-text knowledge as well as text only when this is required. We evaluate our approach using several visual commonsense reasoning tasks together with traditional NLP tasks, including common sense reasoning and reading comprehension. Our experimental results demonstrate significant superiority over existing baselines. When applied to recent state-of-the-art LLMs (e.g., Llama3), we observe improvements not only in visual common sense but also in traditional NLP benchmarks. Code and models are available under https://github.com/guyyariv/vLMIG.

Summary

AI-Generated Summary

PDF132December 2, 2024