Исследование пределов предварительного обучения Omni-modal в масштабе
Explore the Limits of Omni-modal Pretraining at Scale
June 13, 2024
Авторы: Yiyuan Zhang, Handong Li, Jing Liu, Xiangyu Yue
cs.AI
Аннотация
Мы предлагаем создать омни-модальный интеллект, способный понимать любую модальность и изучать универсальные представления. Конкретно, мы предлагаем масштабируемую парадигму предварительного обучения, названную Мульти-модальный Контекст (MiCo), которая позволяет увеличивать количество модальностей и объем данных, а также параметры модели в процессе предварительного обучения. С помощью MiCo предварительно обученные модели проявляют значительные возможности в мульти-модальном обучении, которые оцениваются на следующих задачах: i) бенчмарки восприятия одной модальности для 10 различных модальностей, ii) 25 задач понимания между модальностями, такие как поиск, вопросно-ответная система, подписывание, и iii) 18 мульти-модальных бенчмарков для больших языковых моделей. Наши модели устанавливают 37 новых рекордов по производительности наилучших практик. Мы надеемся, что наши исследования могут способствовать развитию омни-модального интеллекта. Код и модели доступны по ссылке https://github.com/invictus717/MiCo
English
We propose to build omni-modal intelligence, which is capable of
understanding any modality and learning universal representations. In specific,
we propose a scalable pretraining paradigm, named Multimodal Context (MiCo),
which can scale up the numbers of modalities and amount of data, together with
the model parameters, in the pretraining process. With MiCo, the pretrained
models show significant emergent abilities in multimodal learning, which are
evaluated on the following tasks: i) single-modality perception benchmarks of
10 different modalities, ii) 25 cross-modality understanding tasks of
retrieval, question-answering, captioning, and iii) 18 multimodal large
language model benchmarks. Our models establish 37 new records for
state-of-the-art performance. We hope that our research could contribute to the
development of omni-modal intelligence. Code and Models are at
https://github.com/invictus717/MiCo