Quels sont les éléments essentiels lors de la construction de modèles vision-langage ?What matters when building vision-language models?
L'intérêt croissant pour les modèles vision-langage (VLMs) a été stimulé par les progrès des grands modèles de langage et des transformeurs de vision. Malgré l'abondance de littérature sur ce sujet, nous observons que les décisions critiques concernant la conception des VLMs sont souvent peu justifiées. Nous soutenons que ces décisions non étayées entravent les progrès dans le domaine en rendant difficile l'identification des choix qui améliorent les performances des modèles. Pour résoudre ce problème, nous menons des expériences approfondies autour des modèles pré-entraînés, du choix d'architecture, des données et des méthodes d'apprentissage. Notre consolidation des résultats inclut le développement d'Idefics2, un modèle fondationnel VLM efficace de 8 milliards de paramètres. Idefics2 atteint des performances de pointe dans sa catégorie de taille sur divers benchmarks multimodaux, et rivalise souvent avec des modèles quatre fois plus grands. Nous publions le modèle (de base, instruit et conversationnel) ainsi que les ensembles de données créés pour son entraînement.