ChatPaper.aiChatPaper

De Onderschatte Kracht van Visuele Modellen voor het Begrijpen van Grafische Structuren

The Underappreciated Power of Vision Models for Graph Structural Understanding

October 27, 2025
Auteurs: Xinjian Zhao, Wei Pang, Zhongkai Xue, Xiangru Jian, Lei Zhang, Yaoyao Xu, Xiaozhuang Song, Shu Wu, Tianshu Yu
cs.AI

Samenvatting

Graph Neural Networks werken via bottom-up berichtenoverdracht, wat fundamenteel verschilt van menselijke visuele perceptie, die eerst intuïtief globale structuren vastlegt. Wij onderzoeken het ondergewaardeerde potentieel van visiemodellen voor grafiekbegrip, en constateren dat zij prestaties bereiken die vergelijkbaar zijn met GNNs op gevestigde benchmarks, terwijl zij duidelijk verschillende leerpatronen vertonen. Deze uiteenlopende gedragingen, gecombineerd met de beperkingen van bestaande benchmarks die domeinkenmerken vermengen met topologisch begrip, motiveren onze introductie van GraphAbstract. Deze benchmark evalueert het vermogen van modellen om globale grafiekeigenschappen waar te nemen zoals mensen doen: het herkennen van organisatorische archetypen, het detecteren van symmetrie, het aanvoelen van connectiviteitssterkte en het identificeren van kritieke elementen. Onze resultaten tonen aan dat visiemodellen significant beter presteren dan GNNs bij taken die holistisch structureel begrip vereisen, en generaliseerbaarheid behouden over verschillende grafiekschalen, terwijl GNNs moeite hebben met abstractie van globale patronen en degraderen bij toenemende grafiekgrootte. Dit werk toont aan dat visiemodellen opmerkelijke maar onderbenutte capaciteiten bezitten voor grafiekstructureel begrip, in het bijzonder voor problemen die globaal topologisch bewustzijn en schaalinvariant redeneren vereisen. Deze bevindingen openen nieuwe wegen om dit ondergewaardeerde potentieel te benutten voor de ontwikkeling van effectievere grafiekfoundationmodellen voor taken die gedomineerd worden door holistische patroonherkenning.
English
Graph Neural Networks operate through bottom-up message-passing, fundamentally differing from human visual perception, which intuitively captures global structures first. We investigate the underappreciated potential of vision models for graph understanding, finding they achieve performance comparable to GNNs on established benchmarks while exhibiting distinctly different learning patterns. These divergent behaviors, combined with limitations of existing benchmarks that conflate domain features with topological understanding, motivate our introduction of GraphAbstract. This benchmark evaluates models' ability to perceive global graph properties as humans do: recognizing organizational archetypes, detecting symmetry, sensing connectivity strength, and identifying critical elements. Our results reveal that vision models significantly outperform GNNs on tasks requiring holistic structural understanding and maintain generalizability across varying graph scales, while GNNs struggle with global pattern abstraction and degrade with increasing graph size. This work demonstrates that vision models possess remarkable yet underutilized capabilities for graph structural understanding, particularly for problems requiring global topological awareness and scale-invariant reasoning. These findings open new avenues to leverage this underappreciated potential for developing more effective graph foundation models for tasks dominated by holistic pattern recognition.
PDF355December 2, 2025