CauScale: Descubrimiento Neural de Causalidad a Escala
CauScale: Neural Causal Discovery at Scale
February 9, 2026
Autores: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI
Resumen
El descubrimiento causal es fundamental para el avance de campos basados en datos como la IA científica y el análisis de datos; sin embargo, los enfoques existentes enfrentan importantes cuellos de botella en eficiencia temporal y espacial al escalar a grafos grandes. Para abordar este desafío, presentamos CauScale, una arquitectura neuronal diseñada para el descubrimiento causal eficiente que escala la inferencia a grafos de hasta 1000 nodos. CauScale mejora la eficiencia temporal mediante una unidad de reducción que comprime los *embeddings* de datos y mejora la eficiencia espacial adoptando pesos de atención compartidos para evitar mantener mapas de atención específicos por eje. Para mantener una alta precisión en el descubrimiento causal, CauScale adopta un diseño de doble flujo: un flujo de datos extrae evidencia relacional de observaciones de alta dimensión, mientras que un flujo de grafo integra *priors* gráficos estadísticos y preserva señales estructurales clave. CauScale escala exitosamente a grafos de 500 nodos durante el entrenamiento, donde trabajos previos fallan debido a limitaciones de espacio. En datos de prueba con diversas escalas de grafos y mecanismos causales, CauScale alcanza un 99.6% de mAP en datos dentro de la distribución y un 84.4% en datos fuera de la distribución, mientras ofrece aceleraciones en la inferencia de 4 a 13,000 veces sobre métodos anteriores. Nuestra página del proyecto se encuentra en https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.