ChatPaper.aiChatPaper

Explore os Limites do Pré-treinamento Omni-modal em Escala

Explore the Limits of Omni-modal Pretraining at Scale

June 13, 2024
Autores: Yiyuan Zhang, Handong Li, Jing Liu, Xiangyu Yue
cs.AI

Resumo

Propomos construir uma inteligência omni-modal, capaz de compreender qualquer modalidade e aprender representações universais. Especificamente, propomos um paradigma de pré-treinamento escalável, denominado Contexto Multimodal (MiCo), que pode ampliar o número de modalidades e a quantidade de dados, juntamente com os parâmetros do modelo, durante o processo de pré-treinamento. Com o MiCo, os modelos pré-treinados demonstram habilidades emergentes significativas em aprendizado multimodal, avaliadas nas seguintes tarefas: i) benchmarks de percepção de modalidade única em 10 modalidades diferentes, ii) 25 tarefas de compreensão cruzada de modalidades, como recuperação, questionamento e legendagem, e iii) 18 benchmarks de modelos de linguagem multimodal de grande escala. Nossos modelos estabelecem 37 novos recordes de desempenho state-of-the-art. Esperamos que nossa pesquisa possa contribuir para o desenvolvimento da inteligência omni-modal. Códigos e Modelos estão disponíveis em https://github.com/invictus717/MiCo.
English
We propose to build omni-modal intelligence, which is capable of understanding any modality and learning universal representations. In specific, we propose a scalable pretraining paradigm, named Multimodal Context (MiCo), which can scale up the numbers of modalities and amount of data, together with the model parameters, in the pretraining process. With MiCo, the pretrained models show significant emergent abilities in multimodal learning, which are evaluated on the following tasks: i) single-modality perception benchmarks of 10 different modalities, ii) 25 cross-modality understanding tasks of retrieval, question-answering, captioning, and iii) 18 multimodal large language model benchmarks. Our models establish 37 new records for state-of-the-art performance. We hope that our research could contribute to the development of omni-modal intelligence. Code and Models are at https://github.com/invictus717/MiCo
PDF113December 6, 2024