TroL: Обход слоев для крупных моделей языка и зрения
TroL: Traversal of Layers for Large Language and Vision Models
June 18, 2024
Авторы: Byung-Kwan Lee, Sangyun Chung, Chae Won Kim, Beomchan Park, Yong Man Ro
cs.AI
Аннотация
Большие модели языка и зрения (LLVM) были разработаны на основе обобщающей мощи больших моделей языка (LLM) и появления настройки визуальных инструкций. Помимо прямого масштабирования, эти модели позволяют LLVM демонстрировать мощные результаты в задачах языкового восприятия (VL), используя естественноязыковые инструкции. Однако существующие открытые LLVM, которые показывают сопоставимые результаты с закрытыми LLVM, такими как GPT-4V, часто считаются слишком объемными (например, 26 млрд, 34 млрд и 110 млрд параметров) с большим количеством слоев. Эти крупные модели требуют дорогостоящих высокопроизводительных ресурсов как для обучения, так и для вывода. Для решения этой проблемы мы представляем новое эффективное семейство LLVM с моделями LLM размером 1,8 млрд, 3,8 млрд и 7 млрд, Трошение слоев (TroL), которое позволяет повторное использование слоев по токенам. Эта техника обхода слоев имитирует эффект возврата и повторного прохождения потока ответов, увеличивая количество слоев прямого распространения без физического добавления новых слоев. Мы показываем, что TroL использует простой подход к обходу слоев, но эффективно превосходит открытые LLVM с более крупными моделями и конкурирует с производительностью закрытых LLVM с значительными размерами.
English
Large language and vision models (LLVMs) have been driven by the
generalization power of large language models (LLMs) and the advent of visual
instruction tuning. Along with scaling them up directly, these models enable
LLVMs to showcase powerful vision language (VL) performances by covering
diverse tasks via natural language instructions. However, existing open-source
LLVMs that perform comparably to closed-source LLVMs such as GPT-4V are often
considered too large (e.g., 26B, 34B, and 110B parameters), having a larger
number of layers. These large models demand costly, high-end resources for both
training and inference. To address this issue, we present a new efficient LLVM
family with 1.8B, 3.8B, and 7B LLM model sizes, Traversal of Layers (TroL),
which enables the reuse of layers in a token-wise manner. This layer traversing
technique simulates the effect of looking back and retracing the answering
stream while increasing the number of forward propagation layers without
physically adding more layers. We demonstrate that TroL employs a simple layer
traversing approach yet efficiently outperforms the open-source LLVMs with
larger model sizes and rivals the performances of the closed-source LLVMs with
substantial sizes.Summary
AI-Generated Summary