Esplora i Limiti del Pre-addestramento Omni-modale su Larga Scala
Explore the Limits of Omni-modal Pretraining at Scale
June 13, 2024
Autori: Yiyuan Zhang, Handong Li, Jing Liu, Xiangyu Yue
cs.AI
Abstract
Proponiamo di sviluppare un'intelligenza omni-modale, in grado di comprendere qualsiasi modalità e apprendere rappresentazioni universali. Nello specifico, introduciamo un paradigma di pre-addestramento scalabile, denominato Multimodal Context (MiCo), che consente di aumentare il numero di modalità, la quantità di dati e i parametri del modello durante il processo di pre-addestramento. Grazie a MiCo, i modelli pre-addestrati dimostrano significative capacità emergenti nell'apprendimento multimodale, valutate attraverso i seguenti compiti: i) benchmark di percezione a singola modalità per 10 diverse modalità, ii) 25 task di comprensione cross-modale tra cui retrieval, question-answering e captioning, e iii) 18 benchmark per modelli linguistici multimodali di grandi dimensioni. I nostri modelli stabiliscono 37 nuovi record per le prestazioni state-of-the-art. Speriamo che la nostra ricerca possa contribuire allo sviluppo dell'intelligenza omni-modale. Codice e modelli sono disponibili su https://github.com/invictus717/MiCo.
English
We propose to build omni-modal intelligence, which is capable of
understanding any modality and learning universal representations. In specific,
we propose a scalable pretraining paradigm, named Multimodal Context (MiCo),
which can scale up the numbers of modalities and amount of data, together with
the model parameters, in the pretraining process. With MiCo, the pretrained
models show significant emergent abilities in multimodal learning, which are
evaluated on the following tasks: i) single-modality perception benchmarks of
10 different modalities, ii) 25 cross-modality understanding tasks of
retrieval, question-answering, captioning, and iii) 18 multimodal large
language model benchmarks. Our models establish 37 new records for
state-of-the-art performance. We hope that our research could contribute to the
development of omni-modal intelligence. Code and Models are at
https://github.com/invictus717/MiCo