Voir et Comprendre : Relier la Vision aux Connaissances Chimiques via ChemVLMSeeing and Understanding: Bridging Vision with Chemical Knowledge Via
ChemVLM
Dans ce rapport technique, nous présentons ChemVLM, le premier modèle de langage multimodal open-source dédié aux domaines de la chimie, conçu pour résoudre l'incompatibilité entre la compréhension des images chimiques et l'analyse textuelle. Basé sur l'architecture VIT-MLP-LLM, nous exploitons ChemLLM-20B comme modèle de base, dotant ainsi notre modèle de solides capacités pour comprendre et utiliser les connaissances textuelles en chimie. De plus, nous utilisons InternVIT-6B comme encodeur d'images puissant. Nous avons rassemblé des données de haute qualité provenant du domaine chimique, incluant des molécules, des formules de réaction et des données d'examens en chimie, et les avons compilées dans un ensemble de données bilingues multimodales de questions-réponses. Nous testons les performances de notre modèle sur plusieurs benchmarks open-source et trois ensembles d'évaluation personnalisés. Les résultats expérimentaux montrent que notre modèle obtient d'excellentes performances, atteignant des résultats de pointe dans cinq des six tâches concernées. Notre modèle est disponible à l'adresse suivante : https://huggingface.co/AI4Chem/ChemVLM-26B.