VisionLLaMA:用于视觉任务的统一LLaMA接口VisionLLaMA: A Unified LLaMA Interface for Vision Tasks
大型语言模型是建立在基于Transformer的架构之上,用于处理文本输入。例如,在许多开源实现中,LLaMA脱颖而出。同一个Transformer能否用于处理二维图像?本文通过揭示一种类似LLaMA的视觉Transformer,即Plain形式和Pyramid形式的VisionLLaMA,来回答这个问题,该模型专为此目的而设计。VisionLLaMA是一个统一且通用的建模框架,用于解决大多数视觉任务。我们通过在图像感知和特别是图像生成的许多下游任务中广泛评估其有效性。在许多情况下,VisionLLaMA相较于先前最先进的视觉Transformer取得了显著的提升。我们相信VisionLLaMA可以作为视觉生成和理解的强大新基准模型。我们的代码将在https://github.com/Meituan-AutoML/VisionLLaMA 上发布。