ChatPaper.aiChatPaper

GraphNet : Un jeu de données de graphes de calcul à grande échelle pour la recherche sur les compilateurs de tenseurs

GraphNet: A Large-Scale Computational Graph Dataset for Tensor Compiler Research

October 28, 2025
papers.authors: Xinqi Li, Yiqun Liu, Shan Jiang, Enrong Zheng, Huaijin Zheng, Wenhao Dai, Haodong Deng, Dianhai Yu, Yanjun Ma
cs.AI

papers.abstract

Nous présentons GraphNet, un ensemble de données comprenant 2,7 milliers de graphes de calculs d'apprentissage profond issus de scénarios réels, accompagnés de métadonnées riches et couvrant six grandes catégories de tâches à travers plusieurs frameworks d'apprentissage profond. Pour évaluer les performances des compilateurs de tenseurs sur ces échantillons, nous proposons la métrique de référence Score d'Accélération S(t), qui prend conjointement en compte l'accélération du temps d'exécution et l'exactitude de l'exécution avec des niveaux de tolérance ajustables, offrant ainsi une mesure fiable des capacités générales d'optimisation. De plus, nous étendons S(t) au Score d'Accélération Sensible aux Erreurs ES(t), qui intègre les informations d'erreur et aide les développeurs de compilateurs à identifier les goulots d'étranglement clés en matière de performance. Dans ce rapport, nous évaluons les compilateurs de tenseurs par défaut, CINN pour PaddlePaddle et TorchInductor pour PyTorch, sur des échantillons de vision par ordinateur (CV) et de traitement du langage naturel (NLP) pour démontrer l'utilité pratique de GraphNet. La pipeline complète de construction avec les outils d'extraction de graphes et d'évaluation des compilateurs est disponible à l'adresse https://github.com/PaddlePaddle/GraphNet.
English
We introduce GraphNet, a dataset of 2.7K real-world deep learning computational graphs with rich metadata, spanning six major task categories across multiple deep learning frameworks. To evaluate tensor compiler performance on these samples, we propose the benchmark metric Speedup Score S(t), which jointly considers runtime speedup and execution correctness under tunable tolerance levels, offering a reliable measure of general optimization capability. Furthermore, we extend S(t) to the Error-aware Speedup Score ES(t), which incorporates error information and helps compiler developers identify key performance bottlenecks. In this report, we benchmark the default tensor compilers, CINN for PaddlePaddle and TorchInductor for PyTorch, on computer vision (CV) and natural language processing (NLP) samples to demonstrate the practicality of GraphNet. The full construction pipeline with graph extraction and compiler evaluation tools is available at https://github.com/PaddlePaddle/GraphNet .
PDF21December 2, 2025