CauScale : Découverte causale neuronale à grande échelle
CauScale: Neural Causal Discovery at Scale
February 9, 2026
papers.authors: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI
papers.abstract
La découverte causale est essentielle pour faire progresser les domaines pilotés par les données, tels que l'IA scientifique et l'analyse de données. Cependant, les approches existantes se heurtent à d'importants goulots d'étranglement en termes d'efficacité temporelle et spatiale lors de la mise à l'échelle vers de grands graphes. Pour relever ce défi, nous présentons CauScale, une architecture neuronale conçue pour une découverte causale efficace, permettant une inférence à l'échelle de graphes comptant jusqu'à 1000 nœuds. CauScale améliore l'efficacité temporelle via une unité de réduction qui compresse les plongements de données et améliore l'efficacité spatiale en adoptant des poids d'attention partagés pour éviter de maintenir des cartes d'attention spécifiques aux axes. Pour maintenir une haute précision de découverte causale, CauScale adopte une conception à double flux : un flux de données extrait les preuves relationnelles d'observations en haute dimension, tandis qu'un flux de graphes intègre des préalables statistiques sur les graphes et préserve les signaux structurels clés. CauScale parvient à s'adapter à des graphes de 500 nœuds lors de l'entraînement, là où les travaux antérieurs échouent en raison de limitations d'espace. Sur des données de test avec différentes échelles de graphes et mécanismes causaux, CauScale atteint 99,6% de mAP sur des données en distribution et 84,4% sur des données hors distribution, tout en offrant des accélérations d'inférence de 4 à 13 000 fois par rapport aux méthodes précédentes. Notre page projet se trouve à l'adresse https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.