CauScale: Neurale Causale Ontdekking op Schaal
CauScale: Neural Causal Discovery at Scale
February 9, 2026
Auteurs: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI
Samenvatting
Causale ontdekking is essentieel voor de vooruitgang van data-gedreven vakgebieden zoals wetenschappelijke AI en data-analyse, maar bestaande methoden kampen met aanzienlijke tijd- en ruimte-efficiëntieproblemen bij het opschalen naar grote grafen. Om deze uitdaging aan te pakken, presenteren we CauScale, een neurale architectuur ontworpen voor efficiënte causale ontdekking die inferentie opschaalt naar grafen met tot wel 1000 knopen. CauScale verbetert de tijdefficiëntie via een reductie-eenheid die data-embeddingen comprimeert en verbetert de ruimte-efficiëntie door gekoppelde aandachtgewichten toe te passen om het onderhouden van as-specifieke aandachtkaarten te vermijden. Om een hoge nauwkeurigheid in causale ontdekking te behouden, hanteert CauScale een tweestroomontwerp: een datastroom haalt relationeel bewijs uit hoogdimensionale observaties, terwijl een graafstroom statistische graafpriors integreert en belangrijke structurele signalen behoudt. CauScale schaalt succesvol op naar grafen met 500 knopen tijdens training, waar eerder werk faalt door ruimtebeperkingen. Over testdata met uiteenlopende graafschalen en causale mechanismen behaalt CauScale 99,6% mAP op in-distributiedata en 84,4% op out-of-distributiedata, terwijl het een 4 tot 13.000 keer snellere inferentie levert dan eerdere methoden. Onze projectpagina staat op https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.