ChatPaper.aiChatPaper

CauScale: Descoberta Neural de Causalidade em Escala

CauScale: Neural Causal Discovery at Scale

February 9, 2026
Autores: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI

Resumo

A descoberta causal é essencial para o avanço de áreas orientadas por dados, como a IA científica e a análise de dados, no entanto, as abordagens existentes enfrentam gargalos significativos de eficiência temporal e espacial ao escalar para grafos grandes. Para enfrentar este desafio, apresentamos o CauScale, uma arquitetura neural projetada para descoberta causal eficiente, que escala a inferência para grafos com até 1000 nós. O CauScale melhora a eficiência temporal através de uma unidade de redução que comprime *embeddings* de dados e melhora a eficiência espacial ao adotar pesos de atenção compartilhados para evitar a manutenção de mapas de atenção específicos por eixo. Para manter alta precisão na descoberta causal, o CauScale adota um design de dois fluxos: um fluxo de dados extrai evidências relacionais de observações de alta dimensão, enquanto um fluxo de grafo integra *priors* estatísticos de grafo e preserva sinais estruturais-chave. O CauScale escala com sucesso para grafos de 500 nós durante o treinamento, onde trabalhos anteriores falham devido a limitações de espaço. Em dados de teste com várias escalas de grafo e mecanismos causais, o CauScale alcança 99,6% de mAP em dados dentro da distribuição e 84,4% em dados fora da distribuição, enquanto oferece acelerações de inferência de 4 a 13.000 vezes em relação a métodos anteriores. Nossa página do projeto está em https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.
PDF12March 31, 2026