GraphNet : Un jeu de données de graphes de calcul à grande échelle pour la recherche sur les compilateurs de tenseurs
GraphNet: A Large-Scale Computational Graph Dataset for Tensor Compiler Research
October 28, 2025
papers.authors: Xinqi Li, Yiqun Liu, Shan Jiang, Enrong Zheng, Huaijin Zheng, Wenhao Dai, Haodong Deng, Dianhai Yu, Yanjun Ma
cs.AI
papers.abstract
Nous présentons GraphNet, un ensemble de données comprenant 2,7 milliers de graphes de calculs d'apprentissage profond issus de scénarios réels, accompagnés de métadonnées riches et couvrant six grandes catégories de tâches à travers plusieurs frameworks d'apprentissage profond. Pour évaluer les performances des compilateurs de tenseurs sur ces échantillons, nous proposons la métrique de référence Score d'Accélération S(t), qui prend conjointement en compte l'accélération du temps d'exécution et l'exactitude de l'exécution avec des niveaux de tolérance ajustables, offrant ainsi une mesure fiable des capacités générales d'optimisation. De plus, nous étendons S(t) au Score d'Accélération Sensible aux Erreurs ES(t), qui intègre les informations d'erreur et aide les développeurs de compilateurs à identifier les goulots d'étranglement clés en matière de performance. Dans ce rapport, nous évaluons les compilateurs de tenseurs par défaut, CINN pour PaddlePaddle et TorchInductor pour PyTorch, sur des échantillons de vision par ordinateur (CV) et de traitement du langage naturel (NLP) pour démontrer l'utilité pratique de GraphNet. La pipeline complète de construction avec les outils d'extraction de graphes et d'évaluation des compilateurs est disponible à l'adresse https://github.com/PaddlePaddle/GraphNet.
English
We introduce GraphNet, a dataset of 2.7K real-world deep learning
computational graphs with rich metadata, spanning six major task categories
across multiple deep learning frameworks. To evaluate tensor compiler
performance on these samples, we propose the benchmark metric Speedup Score
S(t), which jointly considers runtime speedup and execution correctness under
tunable tolerance levels, offering a reliable measure of general optimization
capability. Furthermore, we extend S(t) to the Error-aware Speedup Score ES(t),
which incorporates error information and helps compiler developers identify key
performance bottlenecks. In this report, we benchmark the default tensor
compilers, CINN for PaddlePaddle and TorchInductor for PyTorch, on computer
vision (CV) and natural language processing (NLP) samples to demonstrate the
practicality of GraphNet. The full construction pipeline with graph extraction
and compiler evaluation tools is available at
https://github.com/PaddlePaddle/GraphNet .