ChatPaper.aiChatPaper

Du macro au micro : Évaluation de l'intelligence spatiale microscopique sur les molécules via les modèles vision-langage

From Macro to Micro: Benchmarking Microscopic Spatial Intelligence on Molecules via Vision-Language Models

December 11, 2025
papers.authors: Zongzhao Li, Xiangzhe Kong, Jiahui Su, Zongyang Ma, Mingze Li, Songyou Li, Yuelin Zhang, Yu Rong, Tingyang Xu, Deli Zhao, Wenbing Huang
cs.AI

papers.abstract

Ce document présente le concept d'Intelligence Spatiale Microscopique (MiSI), la capacité à percevoir et à raisonner sur les relations spatiales d'entités microscopiques invisibles, qui est fondamentale pour la découverte scientifique. Pour évaluer le potentiel des Modèles Vision-Langage (VLM) dans ce domaine, nous proposons un cadre d'évaluation systématique, MiSI-Bench. Ce cadre comprend plus de 163 000 paires question-réponse et 587 000 images dérivées d'environ 4 000 structures moléculaires, couvrant neuf tâches complémentaires qui évaluent des capacités allant des transformations spatiales élémentaires aux identifications relationnelles complexes. Les résultats expérimentaux révèlent que les VLM actuels les plus performants obtiennent des résultats nettement inférieurs au niveau humain sur ce benchmark. Cependant, un modèle de 7B affiné démontre un potentiel substantiel, dépassant même les humains dans les tâches de transformation spatiale, tandis que ses faibles performances dans des tâches scientifiquement fondées comme la reconnaissance des liaisons hydrogène soulignent la nécessité d'intégrer des connaissances explicites du domaine pour progresser vers une IAG scientifique. Les jeux de données sont disponibles à l'adresse https://huggingface.co/datasets/zongzhao/MiSI-bench.
English
This paper introduces the concept of Microscopic Spatial Intelligence (MiSI), the capability to perceive and reason about the spatial relationships of invisible microscopic entities, which is fundamental to scientific discovery. To assess the potential of Vision-Language Models (VLMs) in this domain, we propose a systematic benchmark framework MiSI-Bench. This framework features over 163,000 question-answer pairs and 587,000 images derived from approximately 4,000 molecular structures, covering nine complementary tasks that evaluate abilities ranging from elementary spatial transformations to complex relational identifications. Experimental results reveal that current state-of-the-art VLMs perform significantly below human level on this benchmark. However, a fine-tuned 7B model demonstrates substantial potential, even surpassing humans in spatial transformation tasks, while its poor performance in scientifically-grounded tasks like hydrogen bond recognition underscores the necessity of integrating explicit domain knowledge for progress toward scientific AGI. The datasets are available at https://huggingface.co/datasets/zongzhao/MiSI-bench.
PDF111December 13, 2025