ChatPaper.aiChatPaper

Chameleon : Modèles de fondation à fusion précoce multimodale

Chameleon: Mixed-Modal Early-Fusion Foundation Models

May 16, 2024
Auteurs: Chameleon Team
cs.AI

Résumé

Nous présentons Chameleon, une famille de modèles mixtes multimodaux basés sur des tokens et utilisant une fusion précoce, capables de comprendre et de générer des images et du texte dans n'importe quelle séquence arbitraire. Nous décrivons une approche d'entraînement stable dès la conception, une recette d'alignement et une paramétrisation architecturale adaptée au cadre mixte multimodal basé sur des tokens et utilisant une fusion précoce. Les modèles sont évalués sur un large éventail de tâches, incluant la réponse à des questions visuelles, la génération de légendes d'images, la génération de texte, la génération d'images et la génération mixte multimodale de long format. Chameleon démontre des capacités étendues et générales, incluant des performances de pointe dans les tâches de génération de légendes d'images, surpasse Llama-2 dans les tâches textuelles tout en étant compétitif avec des modèles tels que Mixtral 8x7B et Gemini-Pro, et réalise une génération d'images non triviale, le tout dans un seul modèle. Il égal ou dépasse également les performances de modèles beaucoup plus grands, incluant Gemini Pro et GPT-4V, selon les jugements humains sur une nouvelle évaluation de génération mixte multimodale de long format, où soit l'invite soit les sorties contiennent des séquences mixtes d'images et de texte. Chameleon représente une avancée significative dans la modélisation unifiée de documents multimodaux complets.
English
We present Chameleon, a family of early-fusion token-based mixed-modal models capable of understanding and generating images and text in any arbitrary sequence. We outline a stable training approach from inception, an alignment recipe, and an architectural parameterization tailored for the early-fusion, token-based, mixed-modal setting. The models are evaluated on a comprehensive range of tasks, including visual question answering, image captioning, text generation, image generation, and long-form mixed modal generation. Chameleon demonstrates broad and general capabilities, including state-of-the-art performance in image captioning tasks, outperforms Llama-2 in text-only tasks while being competitive with models such as Mixtral 8x7B and Gemini-Pro, and performs non-trivial image generation, all in a single model. It also matches or exceeds the performance of much larger models, including Gemini Pro and GPT-4V, according to human judgments on a new long-form mixed-modal generation evaluation, where either the prompt or outputs contain mixed sequences of both images and text. Chameleon marks a significant step forward in a unified modeling of full multimodal documents.

Summary

AI-Generated Summary

PDF13112December 15, 2024