ChatPaper.aiChatPaper

Verken de Grenzen van Omni-modale Voorafgaande Training op Schaal

Explore the Limits of Omni-modal Pretraining at Scale

June 13, 2024
Auteurs: Yiyuan Zhang, Handong Li, Jing Liu, Xiangyu Yue
cs.AI

Samenvatting

Wij stellen voor om omni-modale intelligentie te ontwikkelen, die in staat is om elke modaliteit te begrijpen en universele representaties te leren. Specifiek stellen wij een schaalbare voorafgaande trainingsparadigma voor, genaamd Multimodale Context (MiCo), dat het aantal modaliteiten en de hoeveelheid data, samen met de modelparameters, kan opschalen tijdens het voorafgaande trainingsproces. Met MiCo vertonen de vooraf getrainde modellen aanzienlijke opkomende vermogens in multimodaal leren, die worden geëvalueerd op de volgende taken: i) enkelvoudige modaliteitsperceptiebenchmarks van 10 verschillende modaliteiten, ii) 25 kruismodale begripstaken van retrieval, vraag-beantwoording en captioning, en iii) 18 multimodale grote taalmodelbenchmarks. Onze modellen vestigen 37 nieuwe records voor state-of-the-art prestaties. Wij hopen dat ons onderzoek kan bijdragen aan de ontwikkeling van omni-modale intelligentie. Code en modellen zijn beschikbaar op https://github.com/invictus717/MiCo.
English
We propose to build omni-modal intelligence, which is capable of understanding any modality and learning universal representations. In specific, we propose a scalable pretraining paradigm, named Multimodal Context (MiCo), which can scale up the numbers of modalities and amount of data, together with the model parameters, in the pretraining process. With MiCo, the pretrained models show significant emergent abilities in multimodal learning, which are evaluated on the following tasks: i) single-modality perception benchmarks of 10 different modalities, ii) 25 cross-modality understanding tasks of retrieval, question-answering, captioning, and iii) 18 multimodal large language model benchmarks. Our models establish 37 new records for state-of-the-art performance. We hope that our research could contribute to the development of omni-modal intelligence. Code and Models are at https://github.com/invictus717/MiCo
PDF113December 6, 2024