ChatPaper.aiChatPaper

Imp : Modèles Multimodaux de Grande Capacité pour Appareils Mobiles

Imp: Highly Capable Large Multimodal Models for Mobile Devices

May 20, 2024
Auteurs: Zhenwei Shao, Zhou Yu, Jun Yu, Xuecheng Ouyang, Lihao Zheng, Zhenbiao Gai, Mingyang Wang, Jiajun Ding
cs.AI

Résumé

En exploitant les capacités des grands modèles de langage (LLMs), les récents modèles multimodaux de grande taille (LMMs) ont démontré une polyvalence remarquable dans la compréhension multimodale en monde ouvert. Néanmoins, ils sont généralement gourmands en paramètres et en calculs, ce qui limite leur applicabilité dans des scénarios à ressources contraintes. À cette fin, plusieurs LMMs légers ont été proposés successivement pour maximiser les capacités sous une échelle contrainte (par exemple, 3 milliards de paramètres). Malgré les résultats encourageants obtenus par ces méthodes, la plupart d'entre elles se concentrent uniquement sur un ou deux aspects de l'espace de conception, et les choix clés de conception qui influencent les capacités du modèle n'ont pas encore été approfondis. Dans cet article, nous menons une étude systématique des LMMs légers en examinant l'architecture du modèle, la stratégie d'entraînement et les données d'entraînement. Sur la base de nos découvertes, nous obtenons Imp -- une famille de LMMs très performants à l'échelle de 2 à 4 milliards de paramètres. Notamment, notre modèle Imp-3B surpasse de manière constante tous les LMMs légers existants de taille similaire, et dépasse même les LMMs de pointe à l'échelle de 13 milliards de paramètres. Grâce à des techniques de quantification en basse précision et de réduction de résolution, notre modèle Imp peut être déployé sur un processeur mobile Qualcomm Snapdragon 8Gen3 avec une vitesse d'inférence élevée d'environ 13 tokens par seconde.
English
By harnessing the capabilities of large language models (LLMs), recent large multimodal models (LMMs) have shown remarkable versatility in open-world multimodal understanding. Nevertheless, they are usually parameter-heavy and computation-intensive, thus hindering their applicability in resource-constrained scenarios. To this end, several lightweight LMMs have been proposed successively to maximize the capabilities under constrained scale (e.g., 3B). Despite the encouraging results achieved by these methods, most of them only focus on one or two aspects of the design space, and the key design choices that influence model capability have not yet been thoroughly investigated. In this paper, we conduct a systematic study for lightweight LMMs from the aspects of model architecture, training strategy, and training data. Based on our findings, we obtain Imp -- a family of highly capable LMMs at the 2B-4B scales. Notably, our Imp-3B model steadily outperforms all the existing lightweight LMMs of similar size, and even surpasses the state-of-the-art LMMs at the 13B scale. With low-bit quantization and resolution reduction techniques, our Imp model can be deployed on a Qualcomm Snapdragon 8Gen3 mobile chip with a high inference speed of about 13 tokens/s.

Summary

AI-Generated Summary

PDF301December 15, 2024