ChatPaper.aiChatPaper

言語モデルの視力検査

A Vision Check-up for Language Models

January 3, 2024
著者: Pratyusha Sharma, Tamar Rott Shaham, Manel Baradad, Stephanie Fu, Adrian Rodriguez-Munoz, Shivam Duggal, Phillip Isola, Antonio Torralba
cs.AI

要旨

文字列間の関係をモデル化することを学ぶことが、大規模言語モデル(LLM)に視覚世界について何を教えるのか?本研究では、LLMが複雑さを増す様々な視覚概念を生成および認識する能力を体系的に評価し、テキストモデルを用いて予備的な視覚表現学習システムを訓練する方法を実証する。言語モデルはピクセルとしての視覚情報を入力または出力する能力を持たないため、本研究ではコードを使用して画像を表現する。LLMが生成した画像は自然画像のようには見えないが、画像生成の結果と、モデルがこれらの生成画像を修正する能力は、文字列の正確なモデル化が言語モデルに視覚世界の多くの側面を教えることができることを示している。さらに、テキストモデルで生成された画像を利用した自己教師あり視覚表現学習の実験は、LLMのみを使用して自然画像の意味的評価を行うことができる視覚モデルを訓練する可能性を強調している。
English
What does learning to model relationships between strings teach large language models (LLMs) about the visual world? We systematically evaluate LLMs' abilities to generate and recognize an assortment of visual concepts of increasing complexity and then demonstrate how a preliminary visual representation learning system can be trained using models of text. As language models lack the ability to consume or output visual information as pixels, we use code to represent images in our study. Although LLM-generated images do not look like natural images, results on image generation and the ability of models to correct these generated images indicate that precise modeling of strings can teach language models about numerous aspects of the visual world. Furthermore, experiments on self-supervised visual representation learning, utilizing images generated with text models, highlight the potential to train vision models capable of making semantic assessments of natural images using just LLMs.
PDF110December 15, 2024