CauScale: Scoperta Causale Neurale su Larga Scala
CauScale: Neural Causal Discovery at Scale
February 9, 2026
Autori: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI
Abstract
La scoperta causale è essenziale per far progredire campi guidati dai dati come l'IA scientifica e l'analisi dei dati, ma gli approcci esistenti affrontano significativi colli di bottiglia in termini di efficienza temporale e spaziale quando si adattano a grafi di grandi dimensioni. Per affrontare questa sfida, presentiamo CauScale, un'architettura neurale progettata per una scoperta causale efficiente che scala l'inferenza a grafi con fino a 1000 nodi. CauScale migliora l'efficienza temporale tramite un'unità di riduzione che comprime gli embedding dei dati e migliora l'efficienza spaziale adottando pesi di attenzione legati per evitare di mantenere mappe di attenzione specifiche per asse. Per mantenere un'elevata accuratezza nella scoperta causale, CauScale adotta un design a due flussi: un flusso di dati estrae evidenze relazionali da osservazioni ad alta dimensionalità, mentre un flusso di grafo integra prior statistici grafici e preserva segnali strutturali chiave. CauScale scala con successo a grafi di 500 nodi durante l'addestramento, dove i lavori precedenti falliscono a causa di limitazioni di spazio. Su dati di test con diverse scale di grafo e meccanismi causali, CauScale raggiunge il 99.6% di mAP su dati in-distribuzione e l'84.4% su dati out-of-distribution, offrendo al contempo un'accelerazione nell'inferenza da 4 a 13.000 volte rispetto ai metodi precedenti. La nostra pagina del progetto è disponibile all'indirizzo https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.